Projetos de Mestrado


Agrupamento de transcritos gênicos, observados em experimentos de microarray, envolvidos com a doença de Alzheimer, correlacionando expressão diferencial e fatores de transcrição

Discente: Jorge Farias Herculano
Docente: Luciano Angelo de Souza Bernardes
Ano de Início: 2014

Resumo: O Brasil tem dispontado nas pesquisas de busca causa e tratamento da doença de Alzheimer (AD). No entanto, o diagnóstico geralmente é tardio, quando a AD já é moderada ou grave. Uma vertente seria a precocidade na detecção, utilizando DNA-chip. O objetivo do projeto proposto será agrupar genes utilizando enzimas da família fatores de transcrição (TF) e perfis de expressão (EP), este último, observados em experimentos de microarray. A modelagem computacional, utilizará diferentes métodos de agrupamento, considerando TF e EP, a fim de qualificar/quantificar os TFs correlacionados aos transcritos gênicos, em diferentes amostras. O resultado pretendido é identificar TFs envolvidos na modulação de grupos de transcritos, os quais estariam correlacionados com o desenvolvimento da AD.

Algarítmos Array Rápidos Estendidos para Filtragem Robusta de Sistemas Singulares

Discente: Guilherme Peixoto Andrade
Docente: Gildson Queiroz de Jesus
Ano de Início: 2015

Resumo: Neste projeto pretende-se desenvolver algoritmos array rápidos estendidos para implementação de filtros para sistemas singulares sujeitos a incertezas nos parâmetros. Este tipo de algoritmo, que foi originalmente desenvolvido para sistemas no espaço de estado, apresenta algumas vantagens se comparado com o filtro convencional calculado através da equação de Riccati, pois aumenta a eficiência e a estabilidade numérica devido ao uso de transformações ortogonais nos cálculos, reduz a faixa dinâmica dos valores calculados por aritmética de ponto fixo, e reduz o esforço computacional.

Análise da separação das espécies baseada na variação de sequência ALU presente no DNA

Discente: Arturo Ernesto Machado Ortega
Docente: Luciano Angelo de Souza Bernardes
Ano de Início: 2015

Resumo: Para os estudos de distância genômica entre varías espécíes, existem muitos dados que podem ser utilizados. Geralmente, no mundo que observamos a olho nu, não conseguimos identificar as diferenças entre espécies que podem parecer iguais, mas a nível genético tem muitas características diferentes. O objetivo do projeto proposto é a construção de um modelo computacional no qual podem ser introduzidos os dados da informação da sequência ALU de várias espécies, e ter como resultado as diferenças a nível genômico, expressadas tanto em forma filogenética como em alguma gramática formal. Através da análise das similaridades e diferenças, espera-se a estabelecer restrições sobre as gramáticas correspondentes que reflitam a distancia genômica entre as espécies consideradas. A sequência ALU é um elemento móvel dentro do genoma da espécie, e representa quase um 11% do mesmo. A técnica para este projeto será combinar a informação obtida de dita sequência e programar um modelo no qual mostre a distancia. Para mostrar as diferenças de modo específico, usaremos “Filogenia”. que é basicamente o estudo da relação evolutiva entre grupos de organismos (por exemplo. espécies, populações), que é descoberto por meio de sequenciamento de dados moleculares e matrizes de dados morfológicos. O resultado dos estudos filogenéticos é a história evolutiva dos grupos taxonômicos, ou seja, sua filogenia Existem antecedentes nos trabalhos feitos com sequências ALU, onde foram determinadas muitas funções das mesmas, como por exemplo, atuando como modificadores do ARN ao largo do genoma. No entanto, existem poucas referências á diferenciação de espécies pelas sequências ALU, especificamente com espécies de primatas e seres humanos, considerando-se o processo evolutivo através dos anos. As bases gerais do projeto são: linguagens formais para expressão de diferentes sequências genômicas, algoritmos de programação para criação do modelo computacional para comparação, e os fundamentos e conceitos de biologia molecular envolvidos nas sequências ALU.

Análise das instabilidades em plasmas cilíndricos com perfis com perfis de rotação não-uniformes

Discente: Thiago Souza Paim
Docente: Gesil Sampaio Amarante Segundo
Ano de Início: 2014

Resumo: As instabilidades disruptivas são um problema essencial na Fusão Termonuclear Controlada. Já foi demonstrado, através de cálculos analíticos, que a rotação cisalhada, sob certas circunstâncias semelhantes àquelas de modos de alto confinamento em Tokamaks, diminuem as taxas de crescimento das instabilidades kink externas. A extensão desta análise para o caso de perfis de rotação e de corrente de plasma mais realistas seria bastante interessante do ponto de vista da Fusão Termonuclear Controlada, mas também viabilizaria a aplicação no fenômeno dos jatos astrofísicos.

Análise de Convergência de Métodos Nodais para solução da equação de transporte de nêutrons

Discente: Tarcila Oliveira Matos Muniz
Docente: Francisco Bruno Souza Oliveira
Ano de Início: 2014

Resumo: Um dos grandes problemas da atualidade é o de geração de energia. Cientistas em em todo o mundo procuram por novas tecnologias e retomam os estudos de tecnologias já existentes. Vários cientistas tem se preocupado com a questão do aquecimento gobal. Lovelock, cientista britânico, famoso criador da Teoria de Gaia defendeu publicamente o investimento em energia nuclear para impedir o avanço do efeito estufa. O Brasil possui a sexta maior reserva de urêanio do planeta e é detentor de tecnologia inovadora de enriquecimento de urânio. O uso da energia nuclear para fins unicamente pacífico está explícito no artigo 21 da Constituição Federal; portanto não existe a necessidade de reafirmar um compromisso que já é constitucional. Investir em energia nuclear para fins pacíficos contribui para Impulsionar o desenvolvimento do nosso país e ajuda a reduzir as desigualdades. O objetivo fundamental do projeto e da operação de um reator nuclear é a utlização da energia liberada por uma reação de fissão em cadeia controlada e mantida no interior do núcleo do reator. Neste processo, os nêutrons desempenham um papel fundamental, pois são eles que propagam as reações de fissão em cadeia. Portanto, é de extrema importância que se monitore a população ou o número provável dos nêutrons para que se simule a evolução destas reações. descrição da migração dos nêutrons no interior do meio hospedeiro com a probabilidade de interação com os núcleos dos átomos deste meio constitui a modelagem física do fenômeno de transporte de nêutrons. Vendo isso, neste projeto propomos a investigação da convergência e aceleração de métodos nodais da família de métodos criada a partir do método SGF. Propomos analisar as convergências dos métodos nodais dos pontos de vista matemático, físico e computacional, e também identificar em quais problemas estes métodos são mais estáveis e indicados.

Análise e quantificação do resultado da aplicação de gel para remoção de cálculo dental em animais de pequeno porte por meio de processamento digital de imagens.

Discente: Nilo Fernandes Varela
Docente: Paulo Eduardo Ambrósio
Ano de Início: 2016

Resumo: O calculo dental comumente conhecido como tártaro esta entre uma das infecções orais mais comuns em animais, e podem causar diversos malefícios, desde alteração do humor ate o comprometimento de órgãos vitais. Atualmente existe no mercado um gel que propõe o auxilio a remoção de cálculos dentais de cães mediante a sua aplicação por um período estabelecido, porem não há estudos que comprovem a eficácia desse produto com o devido rigor cientifico. Diante disso, um projeto foi iniciado pelo Programa de Pós Graduação em Ciência Animal da Universidade Estadual de Santa Cruz em parceria com o fabricante do gel, com a finalidade atestar os resultados de sua aplicação. O projeto ora proposto objetiva a realização do processamento digital dessas imagens, buscando o desenvolvimento de uma aplicação computacional para quantificar automaticamente os resultados obtidos a partir da identificação e comparação da área saudável e da área afetada dos dentes. Além da quantificação em si, o projeto visa o desenvolvimento de técnicas de pré-processamento, que objetivam a remoção de ruídos e de seções indesejadas da imagem, amenizando a falta de padronização e permitindo uma maior qualidade de análise. Espera-se, ainda, que o modelo computacional a ser obtido possa vir a ser reproduzido em diferentes aplicações com objetivo semelhante.

Avaliação da influência da graduação de abertos na clusterização heirárquica baseada na conexidade de grafos fuzzy

Discente: Thaise Santos Silva
Docente: Eduardo Silva Palmeira
Ano de Início: 2014

Resumo: Clusterização é o processo no qual se deseja agrupar conjuntos de objetos em classes (clusters) considerando determinadas características dos objetos a partir de uma comparação de similaridade e/ou suas dissimilaridades. Nesse contexto, um dos métodos de clusterização mais importantes é o hierárquico, no qual se considera uma sequência de iterações nos passos da partição em diferentes blocos. Uma classe especial desse tipo de clusterização é aquela que se baseia na complexidade do grafo fuzzy em questão. Portanto, fica evidente que, nesse método, para diferentes topologias fuzzy, determinam-se variações do conceito de conexidade. Assim, desejamos utilizar a noção de graduação de abertos proposta por Chattopadhyay, et al. (1992) para avaliar sua influência quanto a conexidade dos grafos fuzzy no algoritimo de clusterização hierárquica porposto por Dong. et al. (2006).

Caracterização da resposta de um semicondutor HPGe para sua aplicação na espectrometria de transurânicos presentes em amostras de interesse ambiental

Discente: Anderson Conceição Rodrigues
Docente: Maria Victoria Manso Guevara
Ano de Início: 2015

Resumo: A espectrometria gama de baixo fundo é uma técnica analítica frequentemente usada para a determinação de radionuclídeos naturais presentes em amostras sólidas ou líquidas no meio ambiente. O limite de detecção desta técnica é da ordem de partes por milhão (ppm). Mas para diversificar as matrizes que se deseja analisar sem limitações quanto a geometria e reportar de forma confiável e precisa as concentrações de alguns elementos é necessário o conhecimento detalhado da função resposta do detector (principal componente do sistema), e a curva de eficiência em todo o intervalo de energia para o qual o equipamento foi projetado. Este trabalho pretende modelar um detector de HPGe para simular todas as possíveis interações de radiação eletromagnética que acontecem em seu interior. permitindo dilucidar assim as peculiaridades físicas que o mesmo possui, e que o fazem idôneo para a análise de amostras de Tório e Urânio em sedimentos da região de Caetité-BA. Para isto será necessário desenhar um escâner automatizado usando uma fonte radiativa de baixa atividade que permita a varredura de toda a área ativa do detector. O escâner e os softwares associados ao sistema iram auxiliar na verificação das características físicas: a saber, largura da camada morta, dimensões externas internas da parte ativa do detector, contatos elétricos, etc. Todos estes elementos são necessários para a modelagem das interações. Os resultados serão comparados com os fornecidos pelo fabricante, e os resultados da modelagem serão comparados com as medidas experimentais de eficiência que são objeto de um outro projeto de mestrado. Contudo, os resultados possibilitarão pautar os protocolos de medição para qualquer analito, amostra ou elemento.

Caracterização de argamassas leves usando processamento de imagens tridimensionais e processamento paralelo

Discente: Rodrigo Silva Mendonça
Docente: Susana Marrero Iglesias
Ano de Início: 2014

Resumo: Nos últimos anos, o acelerado processo de urbanização e os avanços tecnológicos vêm promovendo uma crescente agressão ao meio ambiente, em especial o descontrole na exploração de recursos naturais e o volume crescente de resíduos sólidos na natureza. Uma solução para resolver este grave problema é a reciclagem e a reutilização dos resíduos provenientes de diferentes processos industriais, este tema tem sido objeto de pesquisas nos últimos anos. Um exemplo é o uso de resíduos de EVA (Etileno-Acetato de Vinila) da indústria calçadista nas misturas de cimento. Estes resíduos têm grande potencial como agregados leves, na elaboração de compósitos cimentícios alternativos. Estas misturas leves tem muitas vantagens como, por exemplo, a diminuição da massa especifica do concreto, a melhora das características acústicas e térmicas sem o aumento da espessura do concreto e a melhoria da relação resistência/peso na construção de edifícios altos. Entretanto é conhecido que a adição dos grãos de EVA diminui a capacidade do concreto de suportar tensões. Para aumentar a resistência destas misturas uma opção é incluir nelas fibras especificamente fibras vegetais. Por ser uma espécie nativa e endêmica do sul do Estado da Bahia, a palmeira Attalea Funifera Martius, conhecida por piaçava ou piaçaba, foi escolhida como elemento de reforço ao compósito cimentício leve objeto de estudo neste projeto. Com o surgimento destas novas misturas é necessário o estudo e análise de sua estrutura. Dentro das técnicas mais modernas de análise de materiais usando ensaios não destrutivos temos a tomografia computorizada (TC) e especificamente a micro tomografia computadorizada (MTC), para a obtenção de imagens bi e tridimensionais da estrutura interna dos materiais. A obtenção de algoritmos e o uso de técnicas avançadas de análise de imagens 3D se fazem necessários. No entanto, o volume de processamento e de dados gerados na análise 3D é alto. Como o custo computacional cresse se faz necessária a aplicação de paralelização para diminuir o tempo de execução dos algoritmos e aumentar a eficiência destes no processamento e análise das imagens 3D produzidas por MTC. O estudo de novos materiais que diminuíam os resíduos na natureza e a utilização de técnicas modernas e não destrutivas que diminuíam o custo destas pesquisas é um tema atual e de extrema importância para o desenvolvimento sustentável do planeta.

Caracterização de misturas de concretos leves usando tomografia computadorizada e algoritmos de Clustering

Discente: Gabriel de Mello Loureiro
Docente: Susana Marrero
Ano de Início: 2014

Resumo: Nos últimos anos estão sendo oferecidas soluções para reutilização de resíduos industriais que agridem o meio ambiente. Entre estas soluções estão as misturas de Cimento com resíduos de EVA resultantes da indústria calçadista. Entretanto a introdução destes resíduos diminui as propriedades mecânicas do concreto produto do aumento dos vazios dentro da mistura. Uma das soluções encontradas para neutralizar este efeito é a introdução de fibras nas misturas que funcionam como reforço. Entre estas fibras se encontram as naturais, em especifico a piaçaba, material comum na região sul da Bahia. Com a produção destas novas misturas, estúdios mecânicos e de composição para a caracterização e melhoramento destas se fazem necessários. Entre as técnicas para o estudo da estrutura interna dos materiais encontram-se os métodos destrutivos e os não destrutivos. Nos últimos anos as técnicas não destrutivas vem ganhando importância pela redução de custos que este tipo de técnicas tem. A micro tomografia de raios X é uma técnica não destrutiva, que permite a obtenção de imagens 2D da estrutura interna dos materiais e a partir destas recriar os modelos 3D via reconstrução digital do objeto. Com estas imagens podem ser realizados estudos que permitam conhecer melhor a estrutura e composição destes materiais. Técnicas modernas de processamento de dados podem ser utilizadas com este objetivo. A aplicação de algoritmos de mineração de dados no estudo de imagens é uma técnica moderna, que permite classificar regiões da imagem considerando as características específicas destas como, por exemplo, densidade e cor. Basicamente consiste em agrupar num “cluster” objetos com características similares e diferentes dos agrupados em outros “clusters”. Este projeto pretende aplicar algoritmos de Clustering no estudo das imagens obtidas por micro tomografia computadorizada para a caraterização das misturas de concreto leve. Estes algoritmos permitirão caracterizar a distribuição de fissuras, a porosidade e as concentrações dos agregados. A metodologia obtida poderá ser utilizada no estudo da microestrutura de outros materiais.

Computação em nuvem para simulações de Radioterapia (Cloud Computing for Radiotheraphy Simulations)

Discente: Raranna Alves da Costa
Docente: Felix Mas Milian
Ano de Início: 2015

Resumo: O presente projeto concentrasse nas pesquisas realizadas para aumentar a exatidão e precisão dos Sistemas de Planejamentos de Tratamentos (Treatmem Planning Systems- TPS) de câncer utilizando radioterapia. Atualmente os programas existentes utilizam métodos analíticos para realizar a simulação do transporte da radiação pelo paciente e predizer como deve ser realizado o tratamento para obter a dose desejada no tumor. Por outro lado é conhecido que métodos determinísticos baseados em Monte Carlo permitem obter resultados melhores, porém os tempos de simulações em computadores comuns fazem esta técnica inviável para a vida clínica cotidiana. Soluções de hardware, como os clusters de CPU e GPU, tem reduzido muito estes tempos fazendo com que novos TPS baseados em Monte Carlo já se encontrem disponíveis, porém os custos associados a compra e manutenção fazem inviável sua compra pela maioria dos centros oncológicos. Por outro lado a computação em nuvem (Cloud Computing) é uma solução acessível dado seu custo competitivo e baixa manutenção operacional comparada com os clusters físicos que precisam um alto investimento em infraestrutura e pessoal. A tendência atual é desenvolver programas que permita que vários usuários possam realizar a execução das suas simulações num cluster remoto de forma fácil e transparente, sem a necessidade de grandes conhecimentos computacionais, e que os resultados sejam devolvidos rapidamente e com boa precisão. Objetivo: Neste trabalho pretende-se explorar o conceito de cloud computing para realizar simulações computacionais mais rápidas e precisas utilizando o código GEANT/GATE com futuras aplicações na Física Médica. Será desenvolvido um sistema para a criação, execução, monitoramento e análise de simulações por Monte Cano de planos de tratamento e doses recebidas na Radioterapia. Resultados Esperados: Primeiramente a mestranda devera estudar todo o relacionado com o código de simulação GATE/Geant4 para realizar simulações de radioterapia Também precisara de conhecimento em programação (Java, C++), computação em paralelo, transmissão e recepção de dados via web. O sistema final será composto por vários programas que permitirão de forma gráfica, fácil e transparente: 1-Definir uma simulação, 2-Enviar via internet para o cluster remoto, 3-Executar e acompanhar o seu andamento, 4- Descarregar os resultados e realizar uma análise prévia dos resultados. Como dados de entrada para a simulação, o usuário deverá fornecer a imagem de Tomografia Computadorizada do paciente, o tipo do acelerador médico utilizado (TrueBeam ou Trilogy), energia do espaço de fase a utilizar, plano de tratamento gerado pelo TPS, magnitudes a serem calculadas (Dose ou Energia depositada), resolução e tamanho da matriz de cálculo. Com os dados de entrada o sistema criará e enviará via internet, de forma transparente para o usuário, os arquivos de simulação para serem executados remotamente no cluster (nuvem). O sistema permitirá que o usuário possa facilmente consultar o andamento das simulações. Uma vez concluídos os cálculos, o usuário será informado e poderá fazer o download dos resultados para sua análise posterior. Utilizaremos como clusters de testes, o do CPqCTR e o CACAU do NBCGIB, ambos na UESC. O resultado do projeto será de muita utilidade para Físicos Médicos e colaboradores do nosso grupo, que precisam obter resultados rápidos de pesquisas realizadas na área da radioterapia, porém tais não têm os conhecimentos, nem a infraestrutura necessária para fazer simulações em paralelo. Os sistema resultante também poderá disponibilizado a comunidade via site OpenGateCollaboration para sua utilização por outros pesquisadores no mundo todo. O presente trabalho pertence as áreas de Modelagem Matemática e Computacional Aplicada.

Desenvolvimento de uma Ferramenta de Monitoramento da Qualidade da Água Utilizando Redes Neurais

Discente: João Gabriel Ganem Barbosa
Docente: Francisco Bruno Souza Oliveira
Ano de Início: 2015

Resumo: A água é um bem de consumo necessário para a manutenção do ecossistema na terra que, apesar de ser coberta por 77% de água, apenas O,3% é própria para consumo humano e menos da metade da população tem acesso à água potável. Devido à constante poluição oriunda de dejetos industriais ou lixo urbano, as redes fluviais são subutilizadas e não tem todo seu potencial aproveitado pelas comunidades que a cercam. Propomos a implementação uma ferramenta que permita monitorar a qualidade da água dos rios utilizando um modelo computacional baseado em redes neurais, permitindo que o sistema seja capaz de tomar decisões através de uma base de dados de coletas anteriores para constante avaliação e gerenciamento de qualidade de águas de rios. Este sistema especialista irá analisar as alterações do IQA (Índice de Qualidade da Água), bem como que parâmetros e de que forma estão impactando nessas alterações, auxiliando na tomada de decisões para melhorar a qualidade da água.

Estimativas ótimas Fuzzy para Sistemas Lineares

Discente: Carlos Alberto Oliveira
Docente: Gildson Queiroz de Jesus
Ano de Início: 2015

Resumo: Estimação ótima em sistemas lineares tem sido um problema amplamente estudado por diversos autores que usaram diferentes e elegantes formulações baseados sobre as diretrizes estabelecidas por Rudolf Kalman na década de 60. Apesar das indiscutíveis vantagens das soluções encontradas verificou-se que existem algumas limitações computacional nestas soluções como, por exemplo, problemas de convergência devido à falta de fidelidade dos algoritmos numéricos ou devido à modelagem não apropriada dos sistemas a serem estimados. Neste projeto, pretende-se desenvolver estimativas ótimas para sistemas lineares através do método dos mínimos quadrados fuzzy. O objetivo é encontrar algoritmos de estimativa, mais eficientes computacionalmente, através de técnicas que utilizem a natureza incerta da teoria fuzzy.

Estudo de paralelização e desempenho de Simulações Dosimétricas de radiações GATE/Geant4

Discente: Paulo Oliveira Paixão
Docente: Felix Mas Milian
Ano de Início: 2014

Resumo: Neste trabalho será realizado um estudo para instalar e paralelizar, num cluster de cálculo, o código de simulação de transporte de radiações GATE/Geant4. Os métodos de paralelização disponíveis para este código utilizam programas do tipo split-jobs e joint-jobs, que muitas não representam a forma mais otimizada de utilizar todos os recursos disponíveis nos cluster de cálculo. Nesta pesquisa será estudada e apresentadas outras técnicas de paralelização com modelo de memória distribuída e/ou modelo de memória compartilhada que serão aplicadas no código GATE/Geant4. Diferentes estudos de desempenho, velocidade memória e precisão serão realizados utilizando simulações por Monte Carlo de deposição de doses em fantomas de água por radiações ionizantes de radioterapia. Os métodos serão comparados e avaliados.

Estudo do controlador de estabilidade implementado no firmware Arducopter

Discente: Silas Silva Santos
Docente: Martha Ximena Torres Delgado
Ano de Início: 2015

Resumo: Nos últimos anos, houve um rápido desenvolvimento de veículos aéreos não tripulados (VANT), os quais vem endo cada vez mais utilizados. Os multi-rotores, tipos de VANTs de asas rotativas, são capazes de fazer decolagens e pousos verticais, também pairar em uma determinada posição a uma determinada altitude além de ter um alto grau de mobilidade e simplicidade mecânica, características atraentes principalmente para realizar tarefas de supervisão. Os desafios básicos no projeto de multi-rotores são a modelagem dinâmica e o desenvolvimento de métodos de controle automático para estabilização e regulação de voo. O objetivo deste trabalho é fazer uma análise detalhada do controlador de estabilidade desenvolvido e implementado no firmware Arducopter, o qual faz parte de um sistema completo de piloto automático com hardware e software abertos à comunidade, criado pela DIY Drones Community em 2009, baseado na plataforma Arduino. O tipo de controlador utilizado é o Proporcional Integral Derivativo, PID. A tarefa de um controlador de estabilidade consiste em fazer com que o multi-rotor permaneça em determinada altitude, definida por três posições angulares a partir de um sistema de controle. Para o desenvolvimento desta dissertação será escolhido um quadrirotor e serão estudadas a modelagem dinâmica e o desenvolvimento do controlador PID. Com este embasamento pretende-se identificar no código as equações e parâmetros utilizados na modelagem. Isto vai ajudar a realizar uma configuração mais precisa dos multi-rotores baseados no software Arducopter, levando em consideração que atualmente são mais de 200 parâmetros e somente o entendimento da modelagem implementada permite realizar isto sem especular. Também vai permitir a inclusão futura de outros algoritmos de controle. Além de detectar possíveis melhoras na implementação da modelagem. A metodologia que pretende ser adotada no desenvolvimento desta dissertação é primeiro escolher um protótipo especifico de quadrirotor já sea da literatura ou real depois pretende-se desenvolver sua modelagem dinâmica através do mathlab usando o simulink, validando sua execução através de simulações dos controladores. Ao mesmo tempo serpa realizada a comparação com o modelo implementado no Arducopter que também será reproduzido no simulink. Pretende-se realizar uma comparação do comportamento das duas modelagens. Se tivermos um protótipo real, o modelo simulado será adaptado no arducopter e será então realizado uma comparação entre o controlador implementado no Arducopter e o projetado no simulink avaliando as características de estabilidade proporcionadas e validando os controladores PID.

Filtragem Robusta para sistemas singulares num cenário de fusão de dados

Discente: Bruno Martins Calazans Silva
Docente: Gildson Queiroz de Jesus
Ano de Início: 2016

Resumo: Sistemas na formulação singular surgem naturalmente em processos de modelagem em áreas como: economia, processamento de imagem, robótica, dentre outras. Algoritmos de estimativa de estado para esta classe de sistemas dinâmicos tem recebido grande atenção na literatura. Neste projeto, pretende-se desenvolver algoritmos de estimativa de estado para sistemas singulares sujeitos a incertezas paramétricas num cenário de fusão de dados. O objetivo é encontrar filtros robustos recursivos, tipo Kalman, para sistemas singulares que podem operar sobre diferentes condições de falhas.

Identificação de potenciais ligantes em Virtual Screening por meio de técnicas de clustering

Discente: Léo Rodrigues Biscassi
Docente: Paulo Eduardo Ambrósio
Ano de Início: 2015

Resumo: A descoberta de novos fármacos é um dos principais desafios do mercado farmacêutico, onde altos investimentos financeiros vem sendo realizados para uma quantidade relativamente pequena de novos medicamentos serem comercializados. Nesse cenário. a técnica de VS (Virtual Screening) vem se destacando por ser um método in siiico e de baixo custo que proporciona a realização de docking emlIarga escala. Este trabalho visa abordar a problemática de hits falsos-negativos e falsos-positivos, que ocorre nas implementações de algoritmos para VS. As técnicas de análise por agrupamentos (em inglês, Cluster Analysis), que tem como base a realização de agrupamento de objetos semelhantes (clusters), se mostra como uma boa alternativa na busca de padrões que possibiiitem a criação de um modelo para identificação de potenciais hits falsos-negativos e falsos-positivos. Inicialmente a proposta baseia-se no modelo Centroid Clustering implementada por meio de algoritmos K-means, objetivando a determinação de padrões para a identificação destes potenciais hits.

Implementação portável de alto desempenho para a simulação de sistemas de partículas com interação de longo alcance.

Discente: Victor Rocha Neres
Docente: Susana Marrero Iglesias
Ano de Início: 2016

Resumo: O estudo de sistemas de partículas com iterações de longo alcance, é uma área de pesquisa de grande relevância aparecendo em várias áreas da física. Simulações numéricas de tais sistemas demandam um esforço computacional muito grande, devido ao fato de que precisa levar em conta que cada partícula interage com todas as demais. Uma solução viável para este problema é a utilização dos chamados toy models, i.e., modelos simplificados, normalmente em uma ou duas dimensões, que reproduzem as propriedades físicas dos sistemas tridimensionais. A realização de simulações que envolvam grande quantidade de partículas é um problema de grande porte, que não pode ser resolvido em um tempo razoável, com os recursos computacionais normalmente disponíveis. Por esse motivo diversas técnicas de processamento paralelo têm sido utilizadas para implementar simulações para um numero cada vez maior de partículas. Uma das mais eficazes tem oferecido excelentes resultados com uma com uma abordagem baseada em SIMD para GPGPUs da NVidia, utilizando a arquitetura CUDA. Neste projeto propomos a implementação de algoritmos de simulação de sistemas de partículas com iteração de longo alcance baseados em OpenCL. O padrão OpenCL oferece recursos para implementação paralelas, baseadas em modelos SIMD, altamente portáveis, que rodam com poucas ou nenhuma modificação em diversas arquiteturas. A proposta inclui implementação de novos integradores numéricos para complementar modelos já existentes. A implementação será comparada, enquanto aos resultados e a seu desempenho, com soluções já existentes desenvolvidas para a arquitetura CUDA.

Método Espectro Nodal de Grades Compostas para Problemas de Autovalor em Aproximação de Ordenadas Discretas em Geometria X,Y

Discente: Rogério Vinícius Matos Rocha
Docente: Dany Sanchez Dominguez
Ano de Início: 2014

Resumo: Atualmente um dos principais desafios da humanidade é a produção de energia para atender a demanda do crescimento populacional e o desenvolvimento econômico sem contribuir de forma negativa para o meio ambiente. Neste contexto, uma das principais alternativas é o uso da energia nuclear que não libera dióxido de Carbono na atmosfera e não contribui ao efeito estufa. Este projeto visa o desenvolvimento, implementação e validação de um método de grades compostas para resolver problemas de autovalor usando a formulação de ordenadas discretas em aproximação de uma velocidade e com fonte de espalhamento isotrópica. Problemas de autovalor aparecem nas etapas de projeto e operação de reatores nucleares e estão associados a cálculos de criticalidade que garantem a operação segura e confiável do reator nuclear. Os métodos de grades compostas são o estado da arte para cálculos de malha grossa em problemas de engenharia nuclear. Nesta proposta, primeiro, realizaremos uma discretização de malha grossa, onde cada célula da malha coincide com uma região material do domínio. Em seguida, aplicaremos o conceito de integração transversal e introduziremos aproximações constantes para os termos de fuga transversal na região, obtendo dois problemas unidimensionais acoplados pelos termos de fuga. Na segunda etapa, discretizaremos cada problema unidimensional com uma malha fina, e resolveremos estes problemas utilizando um esquema iterativo de direções alternadas explícito. Resultados numéricos serão oferecidos para problemas modelos típicos em dominios homogêneos e heterogêneos. Esperamos que o método proposto calcule grandezas integrais, como o coeficiente efetivo de multiplicação, com precisão e baixo custo com computacional.

Modelagem computacional de problemas de escoamento de isótopos radioativos em meios porosos utilizando técnicas de balanceamento dinâmico de carga e computação de alto desempenho.

Discente: Thiago Messias Evangelista
Docente: Francisco Bruno Souza Oliveira
Ano de Início: 2016

Resumo: A tecnologia nuclear atualmente é utilizada para diversos fins tecnológicos, desde a produção de energia até a utilização de isótopos radioativos para o tratamento e diagnóstico de doenças. A produção e armazenamento destes isótopos, bem como o armazenamento de descarte de seus resíduos devem ser monitorados. Muitas ações para a extração e beneficiamento de minérios podem agredir ao meio ambiente, deste modo, estudos relacionados ao impacto ambiental são essenciais para um desenvolvimento sustentável. Com o avanço dos computadores modernos é possível realizar simulações de fenômenos físicos através de técnicas de modelagem computacional, no entanto, novas técnicas devem ser implementadas para que possamos fazer de forma agilizada a analise dos dados obtidos, possibilitando tomadas de decisão para processos industriais ou na ocorrência de desastres ambientais. Este projeto tem como objetivos utilizar técnicas avançadas de computação paralela a desenvolver algoritmos otimizados para o balanceamento dinâmico da carga de dados utilizados nos modelos computacionais.

Modelagem Computacional de Tochas de Plasma

Discente: Ciro Campos Chaves
Docente: Gesil Sampaio Amarante Segundo
Ano de Início: 2015

Resumo: O tratamento de resíduos via tochas de plasma caracteriza-se pela destruição térmica, fusão, inertização e até vitrificação de resíduos, permitindo a reciclagem de produtos obtidos no tratamento. Associa as altas temperaturas geradas pelo plasma com a pirólise dos resíduos Variantes do processo vêm sendo estudadas há mais de 15 anos. O processo de pirólise pode ser genericamente definido como sendo o de decomposição química por calor na ausência de oxigênio. O plasma (estado de gás ionizado) é obtido pela passagem de um gás, que pode ser o ar, ou outro, dependendo da situação específica, por um arco voltaico que o ioniza, saindo por uma abertura com temperatura da ordem de 10.000°C. Transforma-se a energia elétrica em energia térmica Desta forma. não há queima, mas dissociação do material tratado. Tendo em vista a problemática da gestão dos resíduos sólidos e também que o tratamento de resíduos via tochas de plasma é a melhor tecnologia disponível atualmente em se tratando desta questão, é proposto este projeto de modelagem em tochas de plasmas para tratamento de resíduos, envolvendo a utilização de duas ferramentas computacionais complementares, um de código aberto (OpenFoam) e outro comercial Comsol Muitiphysics. O objetivo geral deste trabalho é de simular computacionalmente ao menos um modelo de tochas de plasmas, explorando os códigos do OpenFoam e COMSOL, comparando o resultado de ambos. Como objetivos específicos: - Selecionar um modelo de Tocha de Plasma para modelamento; - Simular o modelo selecionado, por meio dos softwares citados; - Comparar os resultados dos códigos obtidos com os dois códigos acima ou, caso haja justificativa, concentrar a análise em um dos dois códigos acima.

MODELAGEM COMPUTACIONAL DO AQUECIMENTO DE PLASMAS POR ONDAS DE RF- PARALELIZAÇÃO DOS CÓDIGOS CYRANO E ICANT

Discente: Anusio Menezes Correia
Docente: Esbel Tomás Valero Orellana
Ano de Início: 2016

Resumo: O trabalho envolve a otimização e acoplamento de dois códigos, o código de antenas de RF ICANT e o código de onda completa (full-wave) para aquecimento íon-ciclotrônico CYRANO.ICANT descreve a excitação de ondas eletromagnéticas no vácuo, tendo por base uma geometria próxima da real das antenas, com a presença de um plasma descrito por um código full-wave mais simples (1D), BRAFFA, e foi recentemente paralelizado( em termos de tempo de execução, mas ainda não para a carga de memória) pelos doutores Gesil Amarante e Martha T.Delgado. O código CYRANO permite o estudo detalhado da interação das partículas em um plasma quente com os campos eletromagnéticos excitados pelas antenas em 2 dimensões ( radial e poloidal), utilizando teoria cinética para o cálculo do tensor dielétrico das partículas e geometria realística dos plasmas de tokamaks, porém utilizando uma descrição bastante simplificada das antenas emissoras. Em geral, apenas o espectro criado por espiras infinitas finas no vácuo é imposto como condição de contorno aos campos eletromagnéticos na periferia do plasma. A proposta de disseração é então, completar o processo de paralelização do código de antenas ICANT, utilizando GPGPU associado a MPI, completar o processo de paralelização do código de antenas ICANT. Utilizando GPGPU associado a MPI, completar o processo de paralelização do código de onda , com vistas a validação.

Modelagem de aceleradores médicos de radioterapia utilizando o código GATE/Geant4

Discente: Emico Ferreira Santana
Docente: Felix Mas Milian
Ano de Início: 2014

Resumo: Neste trabalho será utilizado um código computacional de simulação do transporte de radiações baseado na técnica de Monte Carlo para modelar dois aceleradores lineares de tratamento por Radioterapia. Este trabalho é o passo inicial de trabalhos futuros que visam estudar diversos tratamentos de pacientes por radioterapia utilizando a modelagem computacional em colaboração com UESC, lPEN, UFRJ e COl. O código de simulação escolhido será o GATE/Geant4, o qual deverá ser instalado e paralelizado num cluster de cálculo. Os aceleradores médicos serão o Trilogy e o TrueBeam da empresa Varian. A modelagem geométrica será baseada nos manuais técnicos e, as fontes de radiação nos espaços de fases para fótons, disponibilizado pelos fabricantes no formato lAEA. As simulações serão realizadas em condições iguais as medições experimentais. Serão estudados feixes de fótons de 6MV e 10MV com campos de 4x4, 10x10, 20x20, 30X30 e 40x40 cm, incidindo em um fantoma de água. Para a validação serão comparadas as curvas de doses em profundidade, os perfis laterais em diferentes profundidades dos resultados simulados e os dados experimentais. A modelagem final dos aceleradores será utilizada em trabalhos futuros envolvendo tratamentos e pacientes reais.

Modelagem Dinâmica da Distribuição de Galáxias em Aglomerados com Multicomponentes

Discente: Allan Sérgio Gonçalves Alves
Docente: André L.B Ribeiro
Ano de Início: 2016

Resumo: Modelagem Dinâmica da Distribuição de Galáxias em Aglomerados com Multicomponentes Neste Projeto examinaremos a distribuição de galáxias localizadas em aglomerados, visando determinar a função de distribuição teórica que melhor descreve sistemas com multicomponentes. Usaremos dados referentes a 319 aglomerados de galáxias selecionados no Sloan Digital Sky Survey (SDSS). O trabalho consistirá em implementar, em linguagem R, diferentes modelos de perfis de densidade e dispersão de velocidades, utilizar o método de máxima verossimilhança para encontrar os melhores modelos e comprará-los, levando-se em conta as subpopulações presentes nos aglomerados: galáxias mais e menos massivas, com maior e menor taxa de formação estelar, etc.

Modelagem Termohidráulica de Sistemas Nucleares do Tipo Leito de Bolas Usando CFD

Discente: Alexandro dos Santos Silva
Docente: Dany Sanchez Dominguez
Ano de Início: 2014

Resumo: Um dos maiores desafios da humanidade nas próximas décadas é garantir um suprimento continuo de energia que sustente o crescimento populacional sem graves prejuízos ambientais. Entre as alternativas tecnológicas mais promissoras estão os reatores nucleares do tipo leito de bolas com combustível TRISO (Tri-lsotropic). A modelagem termohidráulica do reator é essencial para garantir a operação segura e confiável do mesmo, parâmetros como distribuições de temperatura, velocidades do refrigerante e coeficientes de não-uniformidade devem ser determinados. Entre as técnicas estado da arte em modelagem termohidraúlica de sistemas nucleares de leito de bolas estão: a abordagem de meio poroso e a abordagem realistica. Neste trabalho propomos o cálculo de parâmetros termohidráulicos de um reator de leito de bolas com códigos CFD (Computational Fluid Dynamics) e abordagem realística. Especificamente, será desenvolvido um modelo geométrico de uma coluna do núcleo com as configurações Body-Centered-Cubic (BCC) e Face-Centered-Cubic (FCC). Adicionalmente, serão calculadas as distribuições de temperaturas no combustível de tipo TRISSO e o comportamento do sistema em transitórios com perda de circulação forçada (LOCA - Lost COolant Accident). Os resultados do projeto contribuíram ao desenvolvimento da linha de pesquisa em CFD no programa de modelagem da UESC.

Modelando as propriedades térmicas, físicas e correlatas da amêndoa de cacau.

Discente: Marcos José Rocha Costa
Docente: Jorge Henrique Sales
Ano de Início: 2016

Resumo: O presente estudo consiste em usar um modelo de calculo da difusividade da água nos alimentos. O sistema estudado é amêndoa de cacau, o que implica numa transformação de coordenadas cartesiana para elipsoidal nos operadores diferenciais. Os modelos difusivos são baseados na difusão de líquido e vapor dentro do sistema(cacau). Com eles são obtidos os perfis de temperatura e concentração de água em função da posição dentro do sólido e do tempo de secagem e consideram as resistências aos fluxos de calor e massa extrema e interna. Assim, será calculado da equação de Fick para coordenadas cilíndricas e elipsoidais para obter a distribuição da temperatura e umidade no fruto.

Modelo Matemático para Caracterização de Compósitos Cerâmicos de Matriz Cimentícia com Auxílio de Ultrassom, Microtomografia e Processamento de Imagens

Discente: Marlesson Rodrigues Oliveira de Santana
Docente: Dany Sanchez Dominguez
Ano de Início: 2015

Resumo: O presente projeto tem como objetivo principal o desenvolvimento de um modelo matemático baseado em ensaios não destrutivos para caracterização qualitativa e quantitativa de compósitos cerâmicos de matriz cimentícia, particularmente o concreto. Num primeiro momento serão realizadas as microtomografias com Raio X (uCT) em corpos de prova de concreto moldados no laboratório com a finalidade de serem obtidas imagens do interior do corpo. Por meio do processamento destas imagens será determinada a porosidade do material e posteriormente feita uma relação entre esta porosidade e sua resistência à compressão. Num segundo momento será realizado o ensaio de velocidade de propagação de onda ultrassônica para se estimar a resistência do concreto. Após 28 dias de cura os concretos produzidos no laboratório serão ensaiados À compressão axial e será determinada sua porosidade pela absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido, para efeitos de comparação com os resultados adquiridos nos ensaios não destrutivos. O projeto permitirá o desenvolvimento de um novo modelo para realizar análises nesse tipo de compósito, partindo de informações obtidas por microtomografia com Raio X e testes de ultrassom visando quantificar as propriedades mecânicas da mistura, especificamente as propriedades de porosidade, resistência à compressão, resistência a tração na flexão e módulo de elasticidade. Este trabalho compreende uma parceria com PROCIMM e as atividades relativas à elaboração de corpos de prova e ensaios mecânicos serão feitos em colaboração com discentes de aquele programa.

Modelos Computacionais para Determinar Identidades Polinomiais Essencialmente Fracas Maximais em Álgebras do tipo Ma;b(E)

Discente: Rudhero Monteiro dos Santos
Docente: Sérgio Mota Alves
Ano de Início: 2015

Resumo: Em 1956 Kaplanski apresentou uma lista de problemas que motivaram significativamente a pesquisa da década. Um destes problemas diz respeito a existência de polinômios centrais para a álgebra das matrizes, Mn(K) com n > 2. A positivação do problema de Kapianski foi dada independentemente em 1972- 1973 por Formanek e Razmislov, e este fato foi de grande importância para a teoria dos anéis. A noção de identidade polinomial fraca foi introduzida por Razmislov visando resolver vários problemas, um deles foi construir polinômios centrais para Mn(K). Outro motivo foi estudar as identidades polinomiais ordinárias para Mn(K). As atividades de pesquisa deste projeto estarão concentradas no estudo de polinômios centrais ordinários e identidades polinomiais essencialmente fracas maximais em álgebras verbalmente primas (álgebras matriciais). Mais especificamente, buscamos responder a seguinte questão: Quais dos problemas e resultados que conhecemos sobre as álgebras Mn(K) podem ser transportados para as álgebras Ma;b(E)? Esse problema foi resolvido para álgebras do tipo M1;1(E) por Onofrio Divicenzo e Roberto La Scala a partir de modelos computacionais que descrevem os polinômios centrais. Nessa perspectiva, uma possível forma de trabalhar com álgebras do tipo Ma;b(E), com a; b > 1, é também usar alguns modelos computacionais para encontrar bases de identidades fracas e, assim, tentar descrever os polinômios centrais das álgebras. Nesse sentido, a essência do projeto está na tentativa de generalizar os modelos computacionais e resultados desenvolvidos por Divincenzo e La Scala para álgebras do tipo Ma;b(E) com a; b > 1. A importância de estudar tais álgebras na teoria das álgebras com identidades polinomiais fica evidenciada no trabalho de Kemer, onde ele classificou as álgebras verbalmente primas em característica zero. Mais precisamente, ele mostrou que a menos de PI-equivalência, as únicas álgebras verbalmente primas não triviais são: Mn(K); Mn(E) e Ma;b(E).

Paralelização de Código de aquecimento de plasmas por ondas de RF: CYRANO Linha de Pesquisa: Física de Plasmas, Computação Paralela

Discente: Luenne Nailam Sousa Nascimento
Docente: Gesil Sampaio Amarante Segundo
Ano de Início: 2014

Resumo: O Código de onda completa CYRANO descreve com detalhes a interação entre ondas eletromegnéticas e plasmas em Tokamaks (equipamentos de grande porte usados para o estudo da Fusão termonuclear Controlada). Trata-se, porém, de código complexo e computacionalmente bastante exigente, que demanda de algumas horas a dias em execução para casos de interesse científico, o que constitui um caso de grande interesse para aplicação de técnicas de computação de alto desempenho, com cooperação nacional (USP) e internacional (JET-lnglaterra e ERM/KMS-Bélgica)

Reconhecimento e classificação de padrões dinâmicos de comportamento motor em esportes coletivos

Discente: Tadeu Nogueira Costa de Andrade
Docente: Paulo Eduardo Ambrósio
Ano de Início: 2014

Resumo: A proposta de estudo tem como objetivo a aplicação das técnicas de Rdes Neurais Artificias (RNAs) e Máquinas de Vetor de Suporte (SVMs) para detectar e classificar possíveis padrões comportamentais de movimento e tomada de decições esportivas, auxiliando treinamentos e competições, com a finalidade de maximizar o desempenho e a performance dos atletas. Os dados analisados serão obtidos por meio da extração de características em imagens de vídeo, geradas em gravações de atividades realizadas em ambiente controlado. A pesquisa contará com a participação de pesquisadores da área de educação física.

Região de estabilidade de sistemas dinâmicos fuzzy

Discente: Messias Gomes Novaes Júnior
Docente: Eduardo Silva Palmeira
Ano de Início: 2016

Resumo: Atratores de sistemas dinâmicos não lineares, incluindo pontos de equilíbrio assintoticamente estáveis, usualmente não são globalmente estáveis. Na maioria dos casos, existe um subconjunto de condições iniciais, denominado régio de estabilidade ( ou bacia de atração), cujas trajetórias, iniciando dentro deste conjunto, tendem para o atrator quando o tempo tende ao infinito. Determinar a região de estabilidade é de fundamental importância em muitas aplicações em engenharia e ciências. O conceito de região de estabilidade é largamente empregado nos estudos de estabilidade de sistemas elétricos de potencia, no desenvolvimento de algoritmos eficientes de otimização incluindo a busca pelo ótimo global e na teoria de controle de sistemas não lineares, onde desempenha um papel fundamental. Também é possível encontrar aplicações nas áreas de economia, ecologia e redes neurais artificiais. Nesse projeto desejamos fazer um estudo topológico e analítico dos sistemas dinâmicos fuzzy, na busca por regiões de estabilidade através de controladores que procuram maximizar a região de estabilidade aplicando técnicas comumente utilizadas para desenvolver redes neurais fuzzy.

Solução de Alto Desempenho para Reconstrução de Árvores Filogenéticas usando o método de máxima verossimilhança

Discente: Julio Oliveira da Silva
Docente: Martha Ximena Torres Delgado
Ano de Início: 2014

Resumo: Atualmente, a diversidade biológica é entendida como o resultado do processo de evolução das espécies. Desta forma, os seres humanos são entidades que se transformam ao longo de gerações sob influência do meio. O objetivo da análise de árvores filogeneticas é inferir a relação correta entre espécies contemporâneas de dados de sequência (aminoácidos, nucleotídeos, códons, etc) de membros representativos de cada espécie e através disso, compreender a história evolutiva das espécies, ajudar no desenvolvimento de vacinas, no estudo da biodiversidade, na produção de novas drogas para propósitos agrícolas e médicos, etc. Apesar da existência de muitos programas usados na reconstrução de árvores filogenéticas (RAF), a grande dificuldade está na limitação do poder de processamento para encontrar uma correlação filogenética em tempo hábil e prático. Este projeto objetiva melhorar o desempenho e exatidão das implementações encontradas em um dos principais programas open source de RAF que usa o método de máxima verossimilhança, o PhyML (PHYML. 2014). Através de estudos e identificação de gargalos em códigos do PhyML. propõe-se soluções de alto desempenho como técnicas de processamento paralelo de granularidade fina que permitam aumentar o poder computacional e, consequentemente o número de espécies envolvidas, possibilitando a RAF de tamanho maior em menor tempo de processamento, e, desta forma, suprindo as necessidades encontradas atualmente no PhyML. Portanto. pretende-se contribuir para o desenvolvimento da ferramente lGrafu (SOURCEFORGE. 2014) que hoje contém o PhyML, propondo uma versão com paralelização usando CUDA/GPU.

Técnicas de CFD na modelagem Termo hidráulica do núcleo de reatores de temperatura muito elevada em regimes com perda de refrigerante.

Discente: Uebert Gonçalves Moreira
Docente: Dany Sanchez Dominguez
Ano de Início: 2016

Resumo: Visando a utilização sustentável de energia nuclear, surgiu a necessidade de avaliar e propor novos conceitos de reatores para a geração elétrica e aplicações industriais. Nesta perspectiva, reatores VHTRs (Very high Temperature Reactor) se apresentam como sérios candidatos para geração de energia. Contudo, a viabilidade destes reatores depende, principalmente de um sistema de segurança eficiente. Dentre os principais acidentes em uma central nuclear, se destacam os induzidos pela perda refrigerante, conhecidos como LOCA( Loss of Coolant Accidents). O rompimento na tabulação do circuito primário por onde passa o refrigerante é um exemplo da causa do acidente em questão. Objetivando testar a segurança de reatores de alta temperatura foi construído o modelo HTR(HIgh Temperature Reactor)-10. Este Projeto visa investigar as características termo hidráulicas de reatores de temperatura muito alta em regimes com perdas do fluido refrigerante, usando o reator HTR-10, que, é do tipo leito de bolas, como caso de estudo, e técnicas de CFD como ferramenta de modelagem computacional.

Uso de técnicas computacionais para auxílio e automatização da detecção e classificação de nódulos pulmonares

Discente: Jorge Paulo Soares Rocha Filho
Docente: Paulo Eduardo Ambrósio
Ano de Início: 2015

Resumo: O câncer de pulmão é a causa mais comum de mortes por câncer no mundo segundo a WHO (World Health Organization) e a sua detecção precoce está diretamente relacionada com a efetividade do tratamento e com as chances de cura. Uma das principais técnicas diagnósticas envolve a análise de imagens obtidas por raios-x convencional ou tomografia computadorizada, sendo que o processamento computadorizado destas imagens tem se destacado como um dos campos de pesquisa em grande ascensão. O projeto ora proposto tem por objetivo o estudo, aprimoramento e desenvolvimento de técnicas de processamento digital de imagens, aplicadas em tomografias pulmonares, visando a automatização da detecção e classificação de nódulos.

Utilização de projeções ortogonais para geração de malhas computacionais.

Discente: Emerson Cordeiro Silva
Docente: Francisco Bruno Souza Oliveira
Ano de Início: 2016

Resumo: A geração de malhas é uma etapa importante no processo de modelagem computacional uma vez que em muitos casos não é viável trabalhar com domínio continuo, seja por limitações do modelo ou pelo custo computacional necessário para tal simulação. Alguns problemas necessitam de mais uma discretização, necessitando de malhas especificas (e.g., malha espacial, malha temporal). A escolha da malha está diretamente ligada ao custo computacional e a característica dos métodos utilizados. Neste trabalho iremos propor uma técnica de geração de malhas utilizando projeções ortogonais para casos em que os graus de liberdade são reduzidos, como por exemplo, na modelagem bidimensional de problemas com características tridimensionais. Será realizado um levantamento do estado da arte na geração de malhas e de técnicas utilizadas para sua otimização.


UNIVERSIDADE ESTADUAL DE SANTA CRUZ

Campus Soane Nazaré de Andrade - Pavilhão Juizado Modelo,
1º andar - Sala 121 - Tel.: +55 73 3680-5297 - E-mail: ppgmc@uesc.br
Rodovia Jorge Amado, Km 16, Bairro Salobrinho, Ilhéus-Bahia - CEP 45662-900.