• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 140
  • 8
  • 3
  • 1
  • Tagged with
  • 152
  • 152
  • 88
  • 88
  • 63
  • 60
  • 50
  • 46
  • 41
  • 19
  • 17
  • 16
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Avaliação de protocolo para redução da distorção em estereotaxia para ressonância magnética de três tesla / A method for geometric distortion correction for stereotaxic neurosurgery on three tesla

Tavares, Wagner Malagó 07 December 2015 (has links)
Introdução: o presente estudo demonstra a aplicação de um algoritmo para correção de distorções em imagens de RM em 3T. Métodos: foi utilizado um Modelo Tridimensional com Alvos (MTA) de acrílico (Micromar, São Paulo, Brasil) montado em uma plataforma com as dimensões e características de um arco estereotáctico. O MTA foi submetido à aquisição de imagens em uma bobina de crânio utilizando o aparelho Philips 3T Magnetom Sigma LX(TM) (Philips Medical Systems, Eindhoven, Netherlands). Para cada aquisição duas imagens foram obtidas, a normal e a reversa (nRM e rRM, respectivamente). Foi aplicado o protocolo de correção com gradiente reverso para produzir coordenadas x, y e z corrigidas. Após ter sido determinada a acurácia dos alvos, foram submetidos 20 pacientes ao mesmo protocolo para determinar a validade em indivíduos. Resultados: a análise dos dados demonstrou que as diferenças entre observadores não foram estatisticamente significantes. Além disso, os pontos obtidos após o processo de retificação das coordenadas no MTA revelou uma distorção média de 1,05 mm. Nos pacientes, a distorção pré correção variava de 0 a 5,6 mm; após a correção variou entre 0 e 3,5 mm. Conclusão: o presente estudo examinou uma técnica de retificação das distorções geométricas encontradas em imagens de RM. Esta mostrou-se bem sucedida em produzir resultados consistentemente acurados para registro de alvos estereotácticos. A técnica pode ser aplicada de maneira universal a todas as imagens de RM adquiridas em protocolo spin-echo e corrige as distorções geométricas presentes / The present work presents an application of a image distortion correction algorithm for 3T MR images. Methods: We used a phantom head model (Micromar, São Paulo, Brazil) mounted on a plataform with the dimensions and features of a stereotactic frame. The phantom was scanned within the head coil of a Philips 3T Magnetom Sigma LX(TM) (Philips Medical Systems, Eindhoven, Netherlands). For each scan, 2 images were obtained - the normal and the reversed image (nMR and rMR, respectively). We applied the inverted gradient correction protocol to produce a corrected x, y and z coordinate. After we ensure target accuracy we submitted 20 patients to the same protocol to exactitude evaluation in human subjects. Results: For all the analyzed data, the differences among the observers were not statistically significant. Moreover, the data rectification proved to be effective as the average distortion on phantom, after correction, was 1.05 mm. On patients the pre-correction distortion varied between 0 and 5.6mm, after correction it varied between 0 mm and 3.5 mm. Conclusion: This study examined a rectifying technique for correcting geometric distortions encountered in the MR images, and the technique proved to be highly successful in producing consistently accurate stereotactic target registration. The technique is universally applicable to all routinely employed spin-echo MR images, and corrects for geometric distortions
102

Desenvolvimento e avaliação de uma interface homem-computador, com as funções de um \"mouse\", controlada pelo movimento da cabeça para uso em pessoas com deficiências físicas / Development and evaluation of a head controlled human-computer interface with mouse functions for physically disabled users

Pereira, Cesar Augusto Martins 22 June 2009 (has links)
Os objetivos deste trabalho foram desenvolver um dispositivo apontador, com as mesmas funções de um mouse, controlado pelo movimento da cabeça, e comparar a eficiência do dispositivo proposto, utilizando o controle do cursor do computador no modo absoluto e relativo (joystick), operado por dez indivíduos tetraplégicos e por dez indivíduos sem acometimento neuromuscular. A maioria dos parâmetros estudados apresentou diferença significativa, entre as situações de controle absoluto e relativo, para os indivíduos de ambos os grupos, evidenciando que os parâmetros medidos no modo absoluto foram melhores que os medidos no modo relativo. O dispositivo apontador emula adequadamente as funções de deslocamento do cursor, mostrando que o modo de controle absoluto é mais eficiente que o modo de controle relativo / The objectives of this study were to develop a head controlled pointer device with mouse functions and compare its performance when operated in absolute versus relative (joystick like) modes by ten quadriplegic subjects and ten people without neuromuscular impairment. The device was composed of a video camera, a computer program and a reflective paper target attached to a cap which was then placed on the user´s head. Most of the measured parameters revealed a significant difference between the control modes, favouring the absolute one, for both studied groups. The developed head pointer adequately emulates the computer cursor displacement, with the absolute control mode being functionally more efficient than the relative control mode in this study.
103

Análise morfométrica voxel-a-voxel de estudos de ressonância magnética do crânio em transtornos psiquiátricos e neurológicos: implementação e otimização de métodos / Voxel-based morphometry analysis of brain magnetic resonance studies in psychiatry and neurologic disorders: implementation and optimization of methods

Duran, Fabio Luis de Souza 03 September 2008 (has links)
INTRODUÇÃO: O processamento de imagens de ressonância magnética (RM) estrutural tem sido amplamente utilizado em pesquisas neuro-psiquiátricas. Os métodos mais usados para este fim são a volumetria manual por regiões de interesse (regions of interest - ROIs) e a morfometria baseada no voxel (Voxel-based morphometry - VBM). Nesta tese, foi usado um banco de imagens de pacientes diagnosticados com transtorno-obsessivo compulsivo (TOC) (n=19) e controles saudáveis (n=15), as quais foram processadas nas duas técnicas de análise morfométrica denominadas VBM padrão e VBM otimizado. Foram comparados os resultados obtidos com tais métodos automatizados de VBM versus método de ROIs, e comparou-se também a incidência de artefatos de normalização espacial e segmentação entre o VBM padrão e o otimizado. MÉTODOS: As imagens foram processadas usando VBM com o programa Statistical Parametric Mapping (SPM), e ROIs foram desenhadas sobre as regiões cerebrais adjacentes aos ventrículos laterais usando o programa MRIcro. O processamento pelo VBM padrão incluiu normalização das imagens para um molde anatômico pré-definido, segmentação em compartimentos de substância cinzenta, branca e líquor, suavização com filtro gaussiano (12mm), e comparações estatísticas usando o modelo linear geral. Para o VBM otimizado, foram construídos moldes customizados para o próprio estudo. Utilizando estes moldes, as imagens foram segmentadas e normalizadas para cada compartimento cerebral, gerando parâmetros para que a imagem original pudesse ser normalizada de forma mais precisa. Após esta segunda normalização as imagens foram segmentadas, moduladas pelo determinante jacobiano, suavizadas com filtro gaussiano (12mm), e comparadas estatisticamente. As ROIs foram desenhadas seguindo padrões estabelecidos na literatura internacional. RESULTADOS: Para as regiões cerebrais nas quais se previa a priori a presença de anormalidades associadas ao TOC, o VBM otimizado mostrou alterações volumétricas de substância cinzenta no grupo de pacientes com TOC comparados a controles, incluindo redução volumétrica no giro do cíngulo anterior, e aumento em córtex orbito-frontal e giro parahipocampal. Na mesma análise com VBM padrão, foi detectado apenas aumento volumétrico em sujeitos com TOC no giro parahipocampal. Já correlacionando o volume de substância cinzenta com escores em escala de gravidade de sintomas, o VBM otimizado detectou correlação significante negativa na adjacência do tálamo dorso-medial com expansão para ventrículo lateral, expansão esta muito mais ampla quando a análise foi feita com VBM padrão. Já na análise de substância branca, apenas o VBM otimizado mostrou uma correlação positiva significante com gravidade de sintomas numa região na qual se xvi previa a priori a presença de anormalidades no grupo com TOC (corona radiata e cápsula interna). Houve consistência entre os achados de alterações de substância cinzenta subcortical e líquor obtidos com VBM otimizado e achados de volumes alterados obtidos com ROIs. CONCLUSÕES: Em comparação com o VBM padrão, o método otimizado se mostrou mais sensível para identificar alterações volumétricas em regiões cerebrais de substância cinzenta e branca nas quais se previa a priori a presença de anormalidades volumétricas no grupo de sujeitos com TOC. Além disso, as técnicas de VBM e ROIs foram relativamente equiparáveis para a avaliação volumétrica de regiões subcorticais. Por fim, verificou-se que ambos os métodos de VBM padrão e otimizado são sujeitos a artefatos causados por dilatação ventricular, mas de menor intensidade com o VBM otimizado / INTRODUCTION: Processing methods for magnetic resonance imaging (MRI) brain data have been largely used in research studies of psychiatric disorders. The techniques most widely used for this purpose are manual volumetry using regions of interest (ROIs) and voxel-based morphometry (VBM). In this thesis, images from a databank of patients diagnosed with obsessive-compulsive disorder (OCD) (n=19) and healthy controls (n=15) were processed using the two VBM methods, namely standard and optimized VBM. The results obtained with those two automated methods were compared to the ROI approach, and the presence of artifacts of spatial normalization and image segmentation were also compared between standard and optimized VBM. METHODS: Image processing using VBM was conducted with the Statistical Parametric Mapping (SPM) program, and the ROIs were drawn over the brain regions adjacent to the lateral ventricles using the MRIcro program. The standard VBM processing included normalization of images to a pre-defined template, segmentation in gray matter, white matter and cerebrospinal fluid compartments, gaussian smoothing (12mm), and statistical comparisons using the general linear model. For optimized VBM, customized templates were built specifically for the study. Using these templates, images were segmented and spatially normalized for each brain compartment, generating parameters that allowed spatial normalization of images with greater precision. After such second normalization, images were segmented, modulated using the jacobian determinants, smoothed with a gaussian filter (12mm), and compared statistically. The ROIs were built using guidelines established in the previous international literature. RESULTS: For the brain regions in which abnormalities in association with OCD were predicted a priori, optimized VBM showed gray matter changes in the OCD group relative to controls, including reduced volume of the anterior cingulate gyrus, and increased volume of the orbitofrontal córtex and parahippcocampal gyrus. The same analysis using standard VBM detected only increased volume in OCD patients in the parahippocampal gyrus. When correlations between gray matter volumes and scale scores of obsessive-compulsive severity were investigated, the optimized VBM approach revealed a significant negative correlation in the adjacency of the dorso-medial thalamus, extending towards the lateral ventricle. Such ventricular extension was much greater when the same analysis was conducted using standard VBM. In regard to the white matter compartment, only the optimized VBM analysis showed a significant positive correlation with symptom severity in a region where OCD-related abnormalities had been predicted a priori, namely the corona radiata and internal capsula. Results regarding to the gray matter and cerebrospinal fluid xviii comparments were relative consistent between the optimized VBM and ROI analyses. CONCLUSIONS: In comparison to standard VBM, the optimized VBM method showed greater sensitivity to identify volumetric alterations in gray and white matter brain regions in which OCD-related changes had been predicted a priori. Also, the optimized VBM and ROI techniques were comparable for the evaluation of subcortical structures. Finally, both the standard and optimized VBM methods were prone to artifacts caused by ventricle enlargement, but with lesser intensity when the optimized VBM approach was employed
104

Efeitos da utilização de  insulina e de um implante transitório de biomembrana de látex natural, derivado da seringueira Hevea brasiliensis, em um modelo experimental de perfuração traumática de membrana timpânica / Effects of the treatment using insulin and a transitory natural latex biomembrane implant from rubber tree Hevea brasiliensis, in an experimental model of traumatic perforation of tympanic membrane

Araújo, Marcos Miranda de 07 December 2012 (has links)
Nos últimos anos, houve uma tendência na busca por substâncias reguladoras que pudessem otimizar o processo de cicatrização de membranas timpânicas (MTs) perfuradas. Objetivos: Determinar os efeitos da utilização da insulina tópica e da biomembrana de látex natural, de forma isolada e em associação, no processo de cicatrização de perfurações traumáticas de MTs. Materiais e Métodos: MTs de 61 ratos Wistar foram perfuradas nas porções anterior e posterior ao cabo do martelo. Os animais foram divididos em quatro grupos: Controle, Insulina, Látex e Insulina+Látex. No grupo Insulina, as perfurações foram tratadas com uso tópico de insulina regular. No grupo Látex, tratadas com biomembrana de látex natural. No grupo Insulina+Látex, tratadas com associação da insulina e da biomembrana de látex. As MTs foram avaliadas por técnicas histológicas com três, cinco e sete dias após sua perfuração traumática. Foram analisadas as morfometrias das espessuras das camadas epitelial, fibrosa e mucosa; tamanho da perfuração; área de secção transversal da MT; avaliação semiquantitativa e qualitativa da produção de colágeno por microscopia de polarização; e avaliação imuno-histoquímica das células epiteliais, dos miofibroblastos e da vascularização. Resultados: A insulina e a biomembrana de látex anteciparam o fechamento das perfurações traumáticas de MTs (p<0,01); estimularam precocemente o aumento da espessura da camada epitelial externa (p<0,01); promoveram aumento precoce da espessura da camada fibrosa (p<0,01); contribuíram para a maior identificação do anticorpo anti-panqueratina como marcador epitelial (p<0,05); aumentaram a marcação do anticorpo anti-alfa-actina de músculo liso (p<0,05), caracterizando maior proliferação de miofibroblastos. A insulina, isoladamente, provocou maior formação do colágeno tecidual (p<0,05), com fibras colágenas mais espessas e melhor organizadas (p<0,05). Conclusão: A insulina e a biomembrana de látex natural, de forma isolada e em associação, aceleraram o processo de cicatrização de perfurações traumáticas de MTs. / In recent years, there has been a tendency to search for regulatory substances that can optimize the healing process of perforated tympanic membranes (TMs). Objectives: To determine the effects of using topical insulin and natural latex biomembrane, alone or in combination, in the healing process of traumatic perforations of TMs. Methods: TMs of 61 Wistar rats were perforated in two sections, anterior and posterior to the malleus. The rats were divided into 4 groups: Control, Insulin, Latex, and Insulin+Latex. The Insulin group was treated with topical regular insulin. The Latex group was treated with natural latex biomembrane. The Insulin+Latex group was treated with a combination of insulin plus latex biomembrane. The TMs were histologically examined 3, 5, and 7 days post-perforation through morphometric analysis of the thickness of the epithelial, fibrous, and mucosal layers; size of the perforation; cross sectional area of the TM; semiquantitative and qualitative evaluation of the collagen production by polarization microscopy, and immunohistochemical evaluation of epithelial cells, myofibroblasts, and vascularization markers. Results: Insulin and latex biomembrane accelerated the healing process of the perforated TMs (p<0.01); stimulated early thickening of the outer epithelial layer (p<0.01); promoted premature increase in the thickness of the fibrous layer (p<0.01); contributed to a larger identification of anti-pankeratin antibody as epithelial marker (p<0.05); increased labeling of anti-alpha smooth muscle actin antibody (p<0.05), indicating greater proliferation of myofibroblasts. When insulin was used alone, it resulted in greater formation of collagen tissue (p<0.05), with thicker and better-organized collagen fibers (p<0.05). Conclusion: Insulin and natural latex biomembrane, used alone or in combination, accelerated the healing process of traumatic perforations of TMs.
105

[en] DEVELOPMENT OF A POLYTETRAFLUOROETHYLENE (PTFE) DENTAL MEMBRANE / [pt] DESENVOLVIMENTO DE UMA MEMBRANA ODONTOLÓGICA DE POLITETRAFLUORETILENO (PTFE)

LUIS CARLOS DE MORAES E SILVA JUNIOR 24 May 2019 (has links)
[pt] Membranas de politetrafluoretileno (PTFE) são empregadas na odontologia como barreiras biocompatíveis para impedir o crescimento de células impróprias para a regeneração óssea guiada. Uma das membranas comerciais mais usadas mundialmente é a Gore-Tex, desenvolvida e comercializada desde a década de oitenta. Membranas similares têm surgido nos últimos anos, desde o término do período de proteção da patente da membrana Gore-Tex. No entanto, não existe ainda membrana com propriedades similares fabricadas no Brasil. A pesquisa proposta objetivou desenvolver uma membrana de PTFE com características semelhantes às da membrana Gore-Tex, em particular, a morfologia superficial e a presença de porosidade. A fabricação da membrana depende do uso de uma fita que pode ser obtida por extrusão de partículas de PTFE. A fita é tracionada em duas direções distintas, uma no sentido original das fibras do PTFE e outra perpendicular, sob condições térmicas apropriadas. A morfologia final da membrana resulta da superposição e união de duas fitas processadas. O material inicialmente foi analisado calorimetria diferencial de varredura. A morfologia das membranas foi analisada por microscopia eletrônica de varredura e a porosidade estimada por processamento digital de imagens, empregando o programa KS400. Foi possível estabelecer um procedimento de fabricação envolvendo tracionamento e tratamento térmico capazes de fornecer membranas com morfologia e porosidade semelhantes às das membranas comercializadas pela W.L. Gore and Associates. / [en] Polytetrafluoroethylene (PTFE) Membranes are used in dentistry as biocompatible barriers to prevent undesired cells growth for guided bone regeneration (GBR). One of the most worldwide used commercial membrane is Gore-Tex. This membrane was developed and marketed since the eighties decade of the last century. Similar membranes have emerged in recent years, since the end of the patent protection period of the Gore-Tex. However, there is not any membrane with similar properties manufactured in Brazil. The proposed research aimed to develop a PTFE membrane with similar characteristics to the Gore-Tex membrane, in particular, the surface morphology and the porosity presence. The manufacturer of the membrane uses a tape that can be obtained by extrusion of PTFE particles. The tape is pulled in two different directions; one in the original fiber is direction and the other in a perpendicular, direction under appropriate thermal conditions. The final membrane morphology resulted from the overlapping and union of two processed tapes. The starting material was analyzed by differential scanning calorimetric. The morphology of the membranes was analyzed by scanning electron microscopy and the porosity estimated by digital image processing, using the KS400 program. It was possible to establish a procedure involving pulling, tractioning and heat treatment that provides membranes with similar morphology and porosity of the PTFE-e membranes marketed by W.L. Gore and Associates.
106

Aplicação de circuitos somadores aproximados em filtros de processamento de imagem

Oliveira, Julio Francisco Rocha de 01 August 2016 (has links)
Submitted by Cristiane Chim (cristiane.chim@ucpel.edu.br) on 2016-10-17T11:10:28Z No. of bitstreams: 1 JULIO FRANCISCO ROCHA DE OLIVEIRA.pdf: 2087173 bytes, checksum: c38d1eda0641d13eef2ccdb59655b27a (MD5) / Made available in DSpace on 2016-10-17T11:10:28Z (GMT). No. of bitstreams: 1 JULIO FRANCISCO ROCHA DE OLIVEIRA.pdf: 2087173 bytes, checksum: c38d1eda0641d13eef2ccdb59655b27a (MD5) Previous issue date: 2016-08-01 / This work proposes the exploration of approximate adders circuits for the implementation of power-efficient for Image Processing. The Gaussian filter is a convolution operator which is used to blur images and to remove noise. On the other hand, the Gradient of an image measures how it is changing. Both blocks can be designed in hardware using only shifts and additions/subtractions. In this work we exploit a set of approximate adders in order to implement energy-efficient filters. The tree of adders of Gaussian and Gradient filters are implemented using one Copy of bits adder, as well as an Error-Tolerant Adders - ETA. The approximate architectures are compared to the best precise implementation of the filters. As the Gaussian and Gradient blocks are part of the Canny edge detector algorithm, we have implemented the tree of adders of the filters aiming this application. In particular, an algorithm was proposed in the scope of this work in order to achieve the best adder trees for the Gaussian and Gradient filters. The main results show that for an efficient power realization of this algorithm, the best strategy consists in the implementation of the Gaussian filter with ETA I adder, and the Gradient filter with the Copy of bits adder. The approximate Gaussian and Gradient filters were applied to the fully hardware of Canny edge detector. The main results showed that the approximate Canny edge detector architectures present the best performance and precision metrics results, for most of the cases, when using both the Copy of bits and ETA I adders. For these tests a set of true images were used. The synthesis results showed that the use of the Gaussian and Gradient filters including the Copy of bits and ETA I adders has been efficient to the hardwired Canny edge detector that presented both area and energy consumption reductions. / Este trabalho propõe a exploração de circuitos somadores aproximados para a implementação de filtros eficientes em consumo de potência para Processamento de Imagem. O filtro Gaussiano é um operador de convolução que é usado para borrar as imagens e remover ruídos. Por outro lado, o Gradiente de uma imagem quantifica o quanto uma imagem está mudando. Ambos os blocos podem ser implementados em hardware usando apenas operações de deslocamento e somas/subtrações. Nesse trabalho, um conjunto de somadores aproximados é explorado para a implementação de filtros eficientes em termos de energia. As árvores de somadores dos filtros Gaussiano e Gradiente são implementadas usando um somador aproximado baseado na cópia de bits para a saída, bem como somadores tolerantes a erros (ETA - Error-Tolerant Adders). As arquiteturas aproximadas são comparadas com as implementações dos filtros com somadores precisos. Como os blocos Gaussiano e Gradiente são partes integrantes do algoritmo de detecção de bordas de Canny, logo as árvores de somadores dos filtros Gaussiano e Gradiente foram implementadas visando a esta aplicação. Em particular, um algoritmo foi proposto no âmbito deste trabalho para encontrar a melhor composição da árvore de somadores nos filtros Gaussiano e Gradiente. Os principais resultados mostram que, para a realização eficiente em potência desse algoritmo, as melhores estratégias consistem na implementação do filtro Gaussiano com o somador ETA I e a implementação do filtro Gradiente com o somador baseado em cópia de bits. Os filtros Gaussiano e Gradiente aproximados foram aplicados ao circuito completo de detecção de bordas de Canny. Os resultados mostraram que as arquiteturas de detecção de bordas de Canny aproximadas, com somadores baseado na cópia de bits e ETAI, na maioria dos casos possuem melhores resultados em relação às métricas de desempenho e precisão, com relação à arquitetura precisa. Os testes foram realizados usando um conjunto de imagens reais. Os resultados da síntese em ASIC mostraram que, as aproximações dos filtros Gaussiano e Gradiente com os somadores baseado em cópia de bits e ETA I trazem economia em área e energia ao circuito de detecção de bordas de Canny.
107

Fluxo do vetor gradiente e modelos deformáveis out-of-core para segmentação e imagens / Gradient vector flow and out-of-core image segmentaion by deformable models

Marturelli, Leandro Schaeffer 07 April 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:41Z (GMT). No. of bitstreams: 1 capitulo00.pdf: 149755 bytes, checksum: a2f94dd5a3a96753bd5a54659a575c98 (MD5) Previous issue date: 2006-04-07 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Main memory limitations can lower the performance of segmentation applications for large images or even make it undoable. In this work we integrate the T-Surfaces model and Out-of-Core isosurface generation methods in a general framework for segmentation of large image volumes. T-Surfaces is a parametric deformable model based on a triangulation of the image domain, a discrete surface model and an image threshold. Isosurface generation techniques have been implemented through an Out-of-Core method that uses a kd-tree structure, called Meta-Cell technique. By using the Meta-Cell framework, we present an Out-of-Core version of a segmentation method based on T-Surfaces and isosurface extraction. The Gradient Vector Flow (GVF) is an approach based on Partial Differential Equations. This method has been applied together with snake models for image segmentation through boundary extraction. The key idea is to use a diffusion-reaction PDE in order to generate a new external force field that makes snake models less sensitivity to initialization as well as improves the snake s ability to move into boundary concavities. In this work, we firstly review basic results about global optimization conditions of the GVF and numerical considerations of usual GVF schemes. Besides, we present an analytical analysis of the GVF and a frequency domain analysis, which gives elements to discuss the dependency from the parameter values. Also, we discuss the numerical solution of the GVF based in a SOR method. We observe that the model can be used for Multiply Connected Domains and applied an image processing approach in order to increase the GVF efficiency. / Limitações de memória principal podem diminuir a performance de aplicativos de segmentação de imagens para grandes volumes ou mesmo impedir seu funcionamento. Nesse trabalho nós integramos o modelo das T-Superfícies com um método de extração de iso-superfícies Out-of-Core formando um esquema de segmentação para imagens de grande volume. A T-Superficie é um modelo deformável paramétrico baseado em uma triangulação do domínio da imagem, um modelo discreto de superfície e um threshold da imagem. Técnicas de extração de isso-superfícies foram implementadas usando o método Out-of-Core que usa estruturas kd-tree, chamadas técnicas de Meta-Células. Usando essas técnicas, apresentamos uma versão Out-of-Core de um método de segmentação baseado nas T-Superfícies e em iso-superfícies. O fluxo do Vetor Gradiente (GVF) é um campo vetorial baseado em equações diferenciais parciais. Esse método é aplicado em conjunto com o modelo das Snakes para segmentação de imagens através de extração de contorno. A idéia principal é usar uma equação de difusão-reação para gerar um novo campo de força externa que deixa o modelo menos sensível a inicialização e melhora a habilidade das Snakes para extrair bordas com concavidades acentuadas. Nesse trabalho, primeiramente serão revistos resultados sobre condições de otimização global do GVF e feitas algumas considerações numéricas. Além disso, serão apresentadas uma análise analítica do GVF e uma análise no domínio da frequência, as quais oferecem elementos para discutir a dependência dos parâmetros do modelo. Ainda, será discutida a solução numérica do GVF baseada no método de SOR. Observamos também que o modelo pode ser estendido para Domínios Multiplamente Conexos e aplicamos uma metodologia de pré-processamento que pode tornar mais eficiente o método.
108

Reconstrução e segmentação de angiografias via técnicas variacionais e métodos de Level Set / Angiography image reconstruction and segmentation using variational techniques and level set methods

Bulant, Carlos Alberto 26 February 2013 (has links)
Made available in DSpace on 2015-03-04T18:57:36Z (GMT). No. of bitstreams: 1 bulant.pdf: 14030619 bytes, checksum: 7bdeb54a02eeadbb90a53496f04a524c (MD5) Previous issue date: 2013-02-26 / This work focuses on tomographic reconstruction and three-dimensional arterial structures segmentation problems, understanding both as fundamentals modules of patient specific-based cardiovascular modeling. Is in this context where the possibility of improving information quality contained in medical images, by means of more accurate reconstruction methods, is of interest because of its impact on segmentation algorithm precision, allowing the construction of more realistic vessel geometrical models. Specifically, in this work, we study the reconstruction from projection inverse problem based on the classic simplified model for x-ray interaction, using the Radon transform, in two and three dimensions with different acquisition geometries. Then, we present the standard methods, which are based on analytic inversion of the Radon transform in the form of back-projection. An iterative reconstruction method based on sensitivity analysis, was studied and adapted to work in a parallel and matrix-free form. In addition, a novel reconstruction method, with foundations given by the theoretical framework of variational formulations, is developed. In view of the characteristics of the methodology, the computational implementation is carried out following a distributed computing paradigm on top of a matrix-free form version of the method. We perform parameter sensitivity analysis for each method, and a quantitative comparative analysis among them, using the well known Shepp-Logan head phantom, is also presented. Some preliminary reconstruction studies with real data are presented. In the context of medical image segmentation, we explore two alternatives for arterial structures segmentation from three dimension images acquired on three-Dimensional Rotational Angiography and Computed Tomography Angiography clinical studies. The first methodology is based on a simple seeded region growing algorithm, combined with thresholding and anisotropic diffusion techniques. The second pipeline uses a Level Set approach, initialized with the colliding fronts algorithm. Now days, Level Set methods variants are gaining popularity for vessel segmentation problems. In this work, we present a qualitative comparison by segmenting a numerical phantom, as well as segmenting arterial structures on different anatomical regions of the head and neck. At last, we present some recommendations for method and parameter choosing, as a function of the anatomical region. / Este trabalho foca-se nos problemas da reconstrução tomográfica e da segmentação de estruturas arteriais em três dimensões, entendendo ambos como blocos fundamentais na modelagem do sistema cardiovascular humano orientada a pacientes específicos. Dentro deste contexto, a possibilidade de melhorar a qualidade das informações contidas nas imagens médicas realizadas em estudos clínicos via métodos de reconstrução mais precisos torna-se atraente porque impacta diretamente na acurácia das técnicas de segmentação, e permite a construção de modelos geométricos mais próximos à realidade. Especificamente, neste trabalho, o problema inverso de reconstrução a partir de projeções é estudado empregando o modelo simplificado clássico, via a transformada de Radon, para duas e três dimensões com diferentes geometrias de amostragem. Logo, os métodos de resolução padrão baseados na inversão analítica desta transformada em forma de back-projection foram estudados. Um método iterativo baseado em análise de sensibilidade, denominado aqui como método baseado no gradiente topológico, foi estudado e adaptado para funcionar com um esquema matrix-free em paralelo. Em seguida, um novo método com fundamentos na teoria de formulações variacionais é desenvolvido. Devido às características do método, o mesmo é implementado computacionalmente empregando paralelismo e um formato matrix-free. Um estudo quantitativo sobre os parâmetros de cada método é fornecido, assim como também um estudo comparativo entre todos eles usando o amplamente difundido fantasma de Shepp-Logan. Por fim, estudos preliminares com projeções de estudos de angiografias rotacionais tridimensionais são apresentados. No contexto da segmentação de imagens médicas, duas alternativas são apresentadas para segmentar estruturas arteriais a partir de imagens tridimensionais provenientes de estudos de angiografia rotacional e tomográfica. A primeira metodologia baseia-se num enfoque simples de crescimento de região, combinado com thresholding e suavizado anisotrópico. A segunda metodologia utiliza um enfoque de Level Set, inicializado por uma técnica denominada colliding fronts. Na atualidade diversas variantes do método de Level Set têm ganhado popularidade na segmentação de estruturas arteriais. Neste trabalho comparam-se qualitativamente ambas alternativas com um fantasma numérico, e na segmentação de estruturas arteriais presentes em imagens médicas localizadas em diversas regiões anatômicas. Por fim, recomendações sobre o método mais conveniente a ser utilizado em cada região junto com valores para os parâmetros são fornecidos.
109

ARQUITETURA DE SOFTWARE PARA OTIMIZAÇÃO DO USO DE AERONAVES REMOTAMENTE PILOTADAS NA AGRICULTURA DE PRECISÃO UTILIZANDO RACIOCÍNIO BASEADO EM CASOS / ARQUITETURA DE SOFTWARE PARA OTIMIZAÇÃO DO USO DE AERONAVES REMOTAMENTE PILOTADAS NA AGRICULTURA DE PRECISÃO UTILIZANDO RACIOCÍNIO BASEADO EM CASOS

Mikami, Malcon Miranda 06 March 2017 (has links)
Made available in DSpace on 2017-07-21T14:19:31Z (GMT). No. of bitstreams: 1 MIKAMI, M M.pdf: 3402794 bytes, checksum: cb934aeb85ce1c45338450c4767a924d (MD5) Previous issue date: 2017-03-06 / The use of remotely piloted aircrafts (RPA) in precision agriculture (PA) is constantly evolving being a process comprised of the following steps: objective determination, capture and processing of images and the analisys of the obtained data. Although there is software and hardware made for those steps, the challange remains being the integration of the collected data, its reliability, and the intepretation of the resulting data for decision making. This work proposes a software architeture to make use of RPA on PA, allowing to perform all steps of the process using the Domain-Driven Design and Command and Query Responsability Segregation architectural patterns. The architecture, when used by researchers, allows the integration of new image processing modules, making use of case-based reasoning (CBR) for its evaluation. The architecture was evaluated in a case study under the following aspects: the reliability of the image processing methods and the adequacy of the CBR method when determining the best image processing algorithm for the specified objective. The results of the image processing algorithm for estimate the Normalized Difference Vegetation Index (NDVI) were compared to the results obtained by the field equipment (Greenseeker) and by processing made with the Pix4D software. Both the software and the equipment produced similar results, with a difference of about 7%. When doing the simulation for the best algorithm to be automaticaly used by the end user, the software correctly selected the algorithm with the highest probability of generating a correct outcome. In addition to the technical benefits, the developed architecture allows the results of field experiments analysis, associated with the algorithms used, to feed the knowledge base of the software so that it generates better parametrizations in the executions made by the end user. In addition to the technical benefits, the developed architecture allows the results of field experiments, associated with the used algorithms, to feed the knowledge base of the softwares that it generates better parametrizations when executed by the end user. The developed architecture in this work made possible integrating the several steps when using RPAs in PA, making easier its use by resaerchers and end users. The joint use by researchers and end users in the same environment could be an interesting alterative to publish new and better methods for image processing, giving to the end users more reliable results and more information about the crops. / O uso de aeronaves remotamente pilotadas (RPA) na agricultura de precisão (AP) está em constante evolução, sendo um processo que compreende as etapas de: determinação do objetivo, captura e processamento das imagens, e análise dos dados obtidos. Apesar de existirem alguns softwares e hardwares para essas etapas, a dificuldade ainda reside na integração dos dados coletados, sua confiabilidade, e na interpretação das informações resultantes para tomada de decisão. Este trabalho propõe uma arquitetura de software para o uso de RPA na AP que permite a execução de todas as etapas do processo utilizando os padrões arquiteturais Domain-Driven Design e Command e Query Responsability Segregation. Esta arquitetura, quando utilizada por pesquisadores, permite a integração de novos módulos de processamento de imagem, utilizando raciocínio baseado em casos (RBC) para sua avaliação. A arquitetura foi avaliada em um estudo de caso sob os seguintes aspectos: a confiabilidade dos métodos de processamento de imagem implementados e a adequação do método de RBC ao determinar o melhor algoritmo de processamento de imagem para objetivos específicos. O resultado do algoritmo de processamento de imagem para estimativa do índice de vegetação por diferença normalizada (NDVI) foi comparado aos resultados obtidos em equipamento de campo (Greenseeker) e pelo processamento via software Pix4D. Foi verificado que tanto os softwares quanto o equipamento geraram valores similares, com diferença média de 7%. Nas simulações de escolha do melhor algoritmo a ser utilizado automaticamente pelo usuário final, o software selecionou o algoritmo correto indicando para o mesmo a maior probabilidade de acerto. Além dos benefícios técnicos, a arquitetura desenvolvida permite que resultados de análises de experimentos em campo, associados aos algoritmos utilizados, alimentem a base de conhecimento do software para que o mesmo gere melhores parametrizações nas execuções feitas pelo usuário final. A arquitetura desenvolvida neste trabalho permitiu a integração das diversas etapas que envolvem o uso de RPA na AP, facilitando o uso por pesquisadores e usuários finais. A utilização conjunta de pesquisadores e usuários finais em um mesmo ambiente, pode ser uma alternativa interessante para publicação de novos e melhores métodos de processamento de imagem, fornecendo aos usuários finais mais informações sobre sua cultura e resultados mais confiáveis.
110

Análise e quantificação tridimensional em imagens de ultra-som intravascular / Intravascular ultrasound: tridimensional quantification and analysis

Sales, Fernando José Ribeiro 23 October 2009 (has links)
INTRODUÇÂO: A análise da composição das lesões in-vivo tem sido objeto de estudo de uma série de grupos de estudo sobre a doença aterosclerótica. Os métodos disponíveis para esse fim utilizam técnicas de análise espectral do sinal ultra-sônico retroespalhado antes deste ser transformado em imagens de ultra-som intravascular (IVUS), uma vez que não existem métodos que realizem tal inferência somente a partir das imagens. Neste trabalho, utilizamos técnicas de processamento de imagens e de reconhecimento de padrões para analisar a composição das lesões de acordo com a classificação proposta pela metodologia de Ultra-Som Intravascular com Histologia Virtual (IVUS-VH). MÉTODOS: Neste estudo utilizamos uma amostra de oito (08) artérias coronárias provenientes de cinco (05) pacientes, resultando num total de 96492 regiões de interesse para inferência da composição. Para a segmentação automática da interface lúmen-íntima e íntima-adventícia, aplicamos as técnicas de contornos ativos do tipo Snakes e para a determinação da energia potencial dos contornos, utilizamos técnicas de filtragem baseadas na difusão anisotrópica convencional e restritiva. Utilizamos três janelas quadradas diferentes de tamanhos 5x5, 7x7 e 9x9 pixels para extração dos atributos de texturas, dentre eles treze (13) baseados nas matrizes de co-ocorrência, seis (06) momentos invariantes à rotação, escala, translação e a ganho multiplicativo, baseados nos Momentos de Hu e propostos neste trabalho. Visando avaliar o efeito dos níveis de quantização das imagens nas matrizes de co-ocorrência, requantizamos originais de 256 níveis de cinza para 128, 64 e 32 tons. Como classificador, utilizamos o método dos k-vizinhos mais próximos (k-nn) e escolhemos os sete (07) vizinhos mais próximos como parâmetro de comparação. Como o k-nn é sensível com relação à métrica utilizada, testamos a distância euclidiana e a métrica de Mahalanobis. RESULTADOS: A segmentação automática da interface lúmen-íntima teve taxa média de acerto de 72,23% e a mediana da taxa de acertos foi de 81,20%, enquanto a taxa média de acertos para a interface íntima-adventícia foi de 80,86% e a mediana foi igual a 91,36%, considerando 495 quadros manualmente segmentados por um especialista. A melhor configuração do classificador foi utilizando a normalização de intensidades, com 256 níveis de cinza, com a janela 9x9 e usando a métrica de Mahalanobis. A taxa média de erros foi de 2.35%(DC), 20.51%(NC), 92.21%(FF) e 0.04%(FT), no entanto, se considerarmos somente três classes sem diferenciarmos os tecidos FF do FT temos a seguinte composição: 2.35% (DC), 20.51%(NC) e 0.04%(FT+FF), o que leva a uma taxa média de erros total de 5,15%. CONCLUSÕES: A classificação das lesões baseada somente em atributos de textura das imagens ainda não é possível com a nosso modelo se considerarmos os quatro tipos de tecido, uma vez que não conseguimos diferenciar de forma satisfatória dos componentes FF e FT. No entanto, se considerarmos somente três classes, temos resultados animadores, uma vez que conseguiremos identificar os componentes associados às placas ditas de maior risco de ruptura, os fibroateromas de capa fina (TCFA). Além disso, conseguimos um experimento associado ao trabalho, mostrar quantitativamente que há uma possível superestimação do componente NC ao redor de estruturas calcificadas nas imagens de IVUS-VH / INTRODUCTION: Several efforts for in vivo atherosclerotic plaque estimation has been realized worldwide. Current methods for related application are based on spectral analysis of backscattered ultrasound signals before intravascular image formation (IVUS), once there is not available techniques to perform composition analysis only from IVUS images. On this study, image processing and pattern recognition techniques has been used to classify plaques according to Intravascular Ultrasound Virtual Histology (IVUS-VH) classification. METHODS: A sample set of eight (08) coronary arteries from five (05) different patients, resulting on 96492 regions of interest for plaque analysis. For automatic segmentation of lumen-intima interface and intima-adventitia interface, active contours technique has been used. Conventional and restrictive anisotropic diffusion filters have been used for estimating the potential energy of active contours. Haralicks co-occurrence matrix and invariant moments based in Hu moments were used as features for pattern classification. Three different windows has been used on feature extraction procedure: 5x5,7x7 and 9x9 pixels. In order to analyze the influence of grey-scale quantization levels into Haralicks co-occurrence matrix, we tested four different types numbers of grey-scale levels: 32, 64,128 and 256. KNearest Neighbors algorithm as the classification rule, and we tested both Mahalanobis and Euclidian Metrics in this analysis. RESULTS: Segmentation of luminal-intimal layers average accuracy for was 72.30% and its median was 81.20%. Segmentation of intimal-adventitia layers average accuracy for was 80,86% and its median was 91,36%, for 495 manually segmented frames. Plaque classification according to IVUS-VH four classes scheme has shown not feasible with the proposed model, once average classification error-rate foe every component: 2.35%(DC), 20.51%(NC), 92.21%(FF) e 0.04%(FT). Our approach has not the ability to differentiate fibrotic tissue from fibro-fatty tissue. However, in the three classes scheme: DC, NC and (FF+FT), we achieved some encouraging results: 2.35% (DC), 20.51%(NC) e 0.04%(FT+FF), leading to an average error rate of 5,15%. With these results, a thin-cap fibroatheroma (TCFA) lesions detection algorithm for conventional IVUS images should be developed using our approach. Once TCFA plaques has been assigned to have an association with plaque rupture and sudden death, those results should be used for in vivo IVUS based TCFA detection. In an experiment related to this work, we have shown that there is an artifactual relationship between NC and DC components into VH images

Page generated in 0.1294 seconds