31 |
Um algoritmo genético de chaves aleatórias viciadas para o problema de atracamento molecular / A biased random key genetic algorithm for the molecular docking problemOliveira, Eduardo Spieler de January 2016 (has links)
O Atracamento Molecular é uma importante ferramenta utilizada no descobrimento de novos fármacos. O atracamento com ligante flexível é um processo computacionalmente custoso devido ao número alto de graus de liberdade do ligante e da rugosidade do espaço de busca conformacional representando a afinidade entre o receptor e uma molécula ligante. O problema é definido como a busca pela solução de menor energia de ligação proteína-ligante. Considerando uma função suficientemente acurada, a solução ótima coincide com a melhor orientação e afinidade entre as moléculas. Assim, o método de busca e a função de energia são partes fundamentais para a resolução do problema. Muitos desafios são enfrentados para a resolução do problema, o tratamento da flexibilidade, algoritmo de amostragem, a exploração do espaço de busca, o cálculo da energia livre entre os átomos, são alguns dos focos estudados. Esta dissertação apresenta uma técnica baseada em um Algoritmo Genético de Chaves Aleatórias Viciadas, incluindo a discretização do espaço de busca e métodos de agrupamento para a multimodalidade do problema de atracamento molecular. A metodologia desenvolvida explora o espaço de busca gerando soluções diversificadas. O método proposto foi testado em uma seleção de complexos proteína-ligante e foi comparado com softwares existentes: AutodockVina e Dockthor. Os resultados foram estatisticamente analisados em termos estruturais. O método se mostrou eficiente quando comparado com outras ferramentas e uma alternativa para o problema de Atracamento Molecular. / Molecular Docking is a valuable tool for drug discovery. Receptor and flexible Ligand docking is a very computationally expensive process due to a large number of degrees of freedom of the ligand and the roughness of the molecular binding search space. A Molecular Docking simulation starts with a receptor and ligand unbounded structures and the algorithm tests hundreds of thousands of ligands conformations and orientations to find the best receptor-ligand binding affinity by assigning and optimizing an energy function. Despite the advances in the conception of methods and computational strategies for search the best protein-ligand binding affinity, the development of new strategies, the adaptation, and investigation of new approaches and the combination of existing and state-of-the-art computational methods and techniques to the Molecular Docking problem are clearly needed. We developed a Biased Random-Key Genetic Algorithm as a sampling strategy to search the protein-ligand conformational space. The proposed method has been tested on a selection of protein-ligand complexes and compared with existing tools AutodockVina and Dockthor. Compared with other traditional docking software, the proposed method has the best average Root-Mean-Square Deviation. Structural results were statistically analyzed. The proposed method proved to be efficient and a good alternative to the molecular docking problem.
|
32 |
Mineração de dados utilizando aprendizado não-supervisionado: um estudo de caso para bancos de dados da saúdeDomingues, Miriam Lúcia Campos Serra January 2003 (has links)
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
|
33 |
Modelo de metadados para armazenamento e recuperação de imagens estáticas no formato DICOMMachado, Miriam Schacker January 2002 (has links)
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
|
34 |
LEMMA 2000 - Uma linguagem para análise e representação de protocolos para diagnósticos em Medicina / Lemma 2000 – A language for analysing and representing protocols for diagnoses in medicineNetto, Guilherme Tomaschewski January 2007 (has links)
A qualidade dos serviços de saúde tornou-se um tema relevante e cada vez mais esforços são dedicados para definir metodologias e ferramentas para medir e assegurar a qualidade. São exigidos novos métodos para aperfeiçoar os processos de saúde, garantindo assim uma alto padrão de qualidade utilizando os recursos disponíveis. A otimização da utilização destes recursos de forma a preservar a qualidade do atendimento bem como baixar os custos requer modelos rigorosos dos processos médicos. Neste contexto apresentamos LEMMA 2000 (Language for an Easy Medical Model Analysis) uma notação destinada a modelar processos médicos, desenvolvida em cooperação com o Politécnico de Milão.. Esta notação disponibiliza aos médicos elementos simples e intuitivos para representar os modelos de diagnóstico. Simultaneamente um modelo de Redes de Petri Temporizadas é gerado automaticamente. Deste modo os modelos de LEMMA podem ser validados e analisados através de simulações e testes.O objetivo desta dupla modelagem é permitir aos médicos ganhar todos os benefícios de uma notação formal sem a necessidade de conhecer esta notação abstrata. Os usuários administram os elementos mais simples da notação, enquanto redes de Petri asseguram formalidade e capacidades de validação. Desta maneira LEMMA integra notações formais e intuitivas superando os problemas de ambos enfoques. A definição da notação LEMMA 2000 foi apoiada pela implementação de um ambiente para projetar os modelos. Este ambiente além de permitir a administração dos elementos da notação menos formal permite a geração e analise dos modelos mais formais. / The quality of health services has become an important subject. Efforts have been dedicated more and more to define methodologies and tools to measure and to guarantee quality. People demand new methods in order to improve health processes. This way a high standard of quality is guaranteed by using available resources. The optimization of using these resources in such a way as to keep the quality of attendance as well as to reduce expenses, needs strict patterns of medical processes. In this context we present LEMMA 2000 a notation for modeling medical processes developed in co-operation with the Politecnico di Milano. This notation provides doctors with common and intuitive elements to represent the patterns of diagnoses. At the same time a model of Timed Petri nets is created automatically. Because of this the patterns of LEMMA can be validated and analysed through simulations and tests. The aim of this double modelling is to allow doctors to gain all the benefits of a formal notation without the need to know this abstract notation. The users manage the most simple elements of the notation while Petri nets guarantee formality and ways of validation. This way LEMMA integrates formal and intuitive notations overcoming problems of both focuses.The definition of LEMMA 2000 notation was supported by the implementation of an environment for projecting the patterns. This environment not only allows the management of the elements of the less formal notation but it also allows the creation and analysis of most formal patterns.
|
35 |
Visualização de estruturas internas em volumes de dados multimodaisManssour, Isabel Harb January 2002 (has links)
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
|
36 |
O Uso de árvores de decisão na descoberta de conhecimento na área da saúdeGarcia, Simone C. January 2003 (has links)
As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.
|
37 |
Métodos para análise de correntes elétricas de equipamentos eletromédicos em procedimentos cirúrgicos e detecção de periculosidade aos pacientesRebonatto, Marcelo Trindade January 2015 (has links)
Made available in DSpace on 2015-07-16T02:04:34Z (GMT). No. of bitstreams: 1
000472305-Texto+Completo-0.pdf: 11662378 bytes, checksum: 4fe1ede28b6e0e1ba0ea85af9d135c86 (MD5)
Previous issue date: 2015 / Objective : The thesis has as main goal the improvement of electrical safety in surgical procedures. It can be find risks of health hazards of the patients from the use of electromedical equipment (EME) that operates with electricity and are susceptible to failure. The consequence of these electrical failures taken into account in this thesis is a differential current (leakage) improper passing through a patient’s body, thus creating a microshock. Materials and Methods : A literature review was performed, concerning the electrical safety norms related with EMEs, facilities in critical hospital environments such as surgical centers and physiological effects of electrical current on the human body. A study about mathematical/statistical methods that can be used to calculate similarity between electrical current waveforms was also built. Therefore, a reference platform capable of capturing EMEs differential current during surgical procedures was developed. Accordingly, a methodology of differential current analysis is proposed, generating a scale of dangerousness relating to electrical current value, frequency spectrum and the similarity between simultaneous waveforms. Results : The reference platform was validated in the laboratory using TN-S and IT medical earthing systems. For validation, in both grounding systems were artificially produced leakage currents and microshocks, which were analyzed in the scales dangerousness proposed. Furthermore, differential current events were captured with the reference platform embedded in gas and socket panel of an operating room, in order to provide an evaluation in real environment of use. Discussion of results : laboratory tests have proven that the reference platform is able to capture the differential current events with the necessary precision to a broad analysis. The proposed dangerousness scales proved to be adequate for the analysis of the events captured in six months of use at the surgical center. In this period, at least 49 situations with danger alert were detected. With the similarity scale between electric current waveforms, progress was made in the detection of microshock. Conclusion : It can be stated that this thesis contributed to the improvement of electrical safety during surgical procedures. The reference platform, using the dangerousness scale proposed, can distinguish between a meaningless event and an event with a real risk. Maybe in the future, the knowledge produced in this thesis can incorporate electrical safety norms in surgical procedures. / Objetivo : Esta tese possui como principal objetivo a melhoria da segurança elétrica em procedimentos cirúrgicos. Pode-se encontrar riscos de danos à saúde dos pacientes a partir do uso dos equipamentos eletromédicos (EEM), que usam a eletricidade e podem ser acometidos de falhas. A consequência destas falhas elétricas levada em consideração nesta tese é uma corrente diferencial (fuga) indevida circulando por um paciente, configurando assim um microchoque. Materiais e Métodos : Uma revisão bibliográfica acerca das normas de segurança elétrica relacionadas com EEM, das instalações em ambientes hospitalares críticos como centros cirúrgicos e dos efeitos fisiológicos da corrente elétrica no corpo humano foi realizada. Um estudo sobre métodos matemáticos/estatísticos que podem ser usados para calcular a similaridade entre formas de onda (FO) de corrente elétrica também foi construída. Então, uma plataforma de referência capaz de capturar correntes diferenciais de EEM durante procedimentos médicos foi desenvolvida. É proposta ainda uma metodologia de análise dessas correntes diferenciais, produzindo escalas de periculosidade a saúde em relação ao valor da corrente, ao espectro de frequência e à similaridade entre FO simultâneas. Resultados : A plataforma de referência foi validada em laboratório usando o sistema de aterramento Terra/Neutro (TN-S) e com sistema isolado sem alimentação referenciada ao Terra (IT-Médico). Para a validação, em ambos os sistemas de aterramento, foram produzidos artificialmente correntes de fuga e microchoques, que foram analisados nas escalas periculosidade propostas. Foram ainda coletados, com a plataforma de referencia embarcada no painel de gases e tomadas de um centro cirúrgico, eventos de corrente diferencial, a fim de proporcionar uma avaliação em ambiente real de uso. Discussão dos resultados : Os testes em laboratório comprovaram que a plataforma de referência consegue capturar os eventos de corrente diferencial com a precisão necessária para uma ampla análise. As escalas de periculosidade propostas se mostraram adequadas na análise dos eventos capturados em seis meses de uso junto ao centro cirúrgico. Nesse período, foram detectados pelo menos 49 situações com a produção de alertas de Perigo. Com a escala de similaridade entre FO de corrente elétrica ainda conseguiu-se avançar na detecção de microchoques. Conclusões : Pode-se afirmar que esta tese contribuiu para a melhoria da segurança elétrica em procedimentos médicos. A plataforma de referência, utilizando as escalas de periculosidade propostas, consegue distinguir entre um evento sem significado e um evento com um risco real. Talvez no futuro, o conhecimento produzido nesta tese possa ser parte das normas de segurança elétrica em procedimentos cirúrgico.
|
38 |
Um algoritmo genético de chaves aleatórias viciadas para o problema de atracamento molecular / A biased random key genetic algorithm for the molecular docking problemOliveira, Eduardo Spieler de January 2016 (has links)
O Atracamento Molecular é uma importante ferramenta utilizada no descobrimento de novos fármacos. O atracamento com ligante flexível é um processo computacionalmente custoso devido ao número alto de graus de liberdade do ligante e da rugosidade do espaço de busca conformacional representando a afinidade entre o receptor e uma molécula ligante. O problema é definido como a busca pela solução de menor energia de ligação proteína-ligante. Considerando uma função suficientemente acurada, a solução ótima coincide com a melhor orientação e afinidade entre as moléculas. Assim, o método de busca e a função de energia são partes fundamentais para a resolução do problema. Muitos desafios são enfrentados para a resolução do problema, o tratamento da flexibilidade, algoritmo de amostragem, a exploração do espaço de busca, o cálculo da energia livre entre os átomos, são alguns dos focos estudados. Esta dissertação apresenta uma técnica baseada em um Algoritmo Genético de Chaves Aleatórias Viciadas, incluindo a discretização do espaço de busca e métodos de agrupamento para a multimodalidade do problema de atracamento molecular. A metodologia desenvolvida explora o espaço de busca gerando soluções diversificadas. O método proposto foi testado em uma seleção de complexos proteína-ligante e foi comparado com softwares existentes: AutodockVina e Dockthor. Os resultados foram estatisticamente analisados em termos estruturais. O método se mostrou eficiente quando comparado com outras ferramentas e uma alternativa para o problema de Atracamento Molecular. / Molecular Docking is a valuable tool for drug discovery. Receptor and flexible Ligand docking is a very computationally expensive process due to a large number of degrees of freedom of the ligand and the roughness of the molecular binding search space. A Molecular Docking simulation starts with a receptor and ligand unbounded structures and the algorithm tests hundreds of thousands of ligands conformations and orientations to find the best receptor-ligand binding affinity by assigning and optimizing an energy function. Despite the advances in the conception of methods and computational strategies for search the best protein-ligand binding affinity, the development of new strategies, the adaptation, and investigation of new approaches and the combination of existing and state-of-the-art computational methods and techniques to the Molecular Docking problem are clearly needed. We developed a Biased Random-Key Genetic Algorithm as a sampling strategy to search the protein-ligand conformational space. The proposed method has been tested on a selection of protein-ligand complexes and compared with existing tools AutodockVina and Dockthor. Compared with other traditional docking software, the proposed method has the best average Root-Mean-Square Deviation. Structural results were statistically analyzed. The proposed method proved to be efficient and a good alternative to the molecular docking problem.
|
39 |
LEMMA 2000 - Uma linguagem para análise e representação de protocolos para diagnósticos em Medicina / Lemma 2000 – A language for analysing and representing protocols for diagnoses in medicineNetto, Guilherme Tomaschewski January 2007 (has links)
A qualidade dos serviços de saúde tornou-se um tema relevante e cada vez mais esforços são dedicados para definir metodologias e ferramentas para medir e assegurar a qualidade. São exigidos novos métodos para aperfeiçoar os processos de saúde, garantindo assim uma alto padrão de qualidade utilizando os recursos disponíveis. A otimização da utilização destes recursos de forma a preservar a qualidade do atendimento bem como baixar os custos requer modelos rigorosos dos processos médicos. Neste contexto apresentamos LEMMA 2000 (Language for an Easy Medical Model Analysis) uma notação destinada a modelar processos médicos, desenvolvida em cooperação com o Politécnico de Milão.. Esta notação disponibiliza aos médicos elementos simples e intuitivos para representar os modelos de diagnóstico. Simultaneamente um modelo de Redes de Petri Temporizadas é gerado automaticamente. Deste modo os modelos de LEMMA podem ser validados e analisados através de simulações e testes.O objetivo desta dupla modelagem é permitir aos médicos ganhar todos os benefícios de uma notação formal sem a necessidade de conhecer esta notação abstrata. Os usuários administram os elementos mais simples da notação, enquanto redes de Petri asseguram formalidade e capacidades de validação. Desta maneira LEMMA integra notações formais e intuitivas superando os problemas de ambos enfoques. A definição da notação LEMMA 2000 foi apoiada pela implementação de um ambiente para projetar os modelos. Este ambiente além de permitir a administração dos elementos da notação menos formal permite a geração e analise dos modelos mais formais. / The quality of health services has become an important subject. Efforts have been dedicated more and more to define methodologies and tools to measure and to guarantee quality. People demand new methods in order to improve health processes. This way a high standard of quality is guaranteed by using available resources. The optimization of using these resources in such a way as to keep the quality of attendance as well as to reduce expenses, needs strict patterns of medical processes. In this context we present LEMMA 2000 a notation for modeling medical processes developed in co-operation with the Politecnico di Milano. This notation provides doctors with common and intuitive elements to represent the patterns of diagnoses. At the same time a model of Timed Petri nets is created automatically. Because of this the patterns of LEMMA can be validated and analysed through simulations and tests. The aim of this double modelling is to allow doctors to gain all the benefits of a formal notation without the need to know this abstract notation. The users manage the most simple elements of the notation while Petri nets guarantee formality and ways of validation. This way LEMMA integrates formal and intuitive notations overcoming problems of both focuses.The definition of LEMMA 2000 notation was supported by the implementation of an environment for projecting the patterns. This environment not only allows the management of the elements of the less formal notation but it also allows the creation and analysis of most formal patterns.
|
40 |
Visualização de estruturas internas em volumes de dados multimodaisManssour, Isabel Harb January 2002 (has links)
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
|
Page generated in 0.0646 seconds