• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 50
  • 47
  • 47
  • 47
  • 32
  • 15
  • 15
  • 14
  • 14
  • 8
  • 1
  • 1
  • Tagged with
  • 468
  • 468
  • 439
  • 332
  • 187
  • 156
  • 127
  • 108
  • 101
  • 91
  • 81
  • 78
  • 73
  • 73
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Ontolime : modelo de ontologia de descrição de imagens médicas /

Santos Neto, Martins Fideles dos. January 2013 (has links)
Orientador: Virgínia Bentes Pinto / Coorientador: Edberto Ferneda / Banca: Marcos Luiz Mucheroni / Banca: Maria José Vicentini Jorente / Resumo: No campo da saúde os prontuários de pacientes, bem como as imagens a eles atreladas, são base de referência para o acesso à informação e ao conhecimento com ênfase no tratamento de inúmeras patologias, e igualmente para fins de pesquisa. Esses prontuários, que antes se encontravam registrados em suportes analógicos (papel), atualmente, já estão sendo construídos em suportes eletrônicos ou sendo digitalizados, graças à inserção das tecnologias eletrônicas e digitais de informação no contexto da saúde. Outro aspecto a considerar nesta área são as imagens que fotografam o corpo com tanta perfeição tornando-o transparente. Diante desse novo paradigma, considera-se que o tratamento informacional desses documentos precisa ser inovado e, a adoção de ontologias pode ser uma solução. É, pois, nesse contexto que essa pesquisa se insere contemplando o seguinte questionamento: que critérios deverão ser utilizados para a construção de um modelo de ontologia de imagens médicas? Qual é contribuição da literatura da Área de Ciência da Informação no processo de construção de ontologias? O objetivo básico desta pesquisa consiste em construir um modelo de ontologia de imagens médicas levando em consideração as imagens (humanas e de outros animais) a partir da terminologia da área da saúde e das informações referentes às imagens colhidas nos sites didáticos, visando o acesso e a recuperação da informação imagética na área da saúde, com maior valor agregado. A pesquisa é de cunho exploratório na qual buscamos aprofundar nossos conhecimentos, relativos ao entendimento da imagem no campo da saúde, à representação informacional, assim como sobre ontologias, de modo geral, e particularmente ontologia de imagens. A metodologia de construção da ONTOLIME , baseou-se na Methontology, elaborada pelos Professores Gómez-Perez e Cocho (2002)... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In the health records of the patients , as well as images linked to them , are a benchmark for access to information and knowledge with emphasis on the treatment of many diseases , and also for research purposes . These records , which before were recorded in analog media ( paper) , currently already being built in electronic media or being scanned , thanks to the integration of electronic and digital technologies of information in the context of health . Another aspect to consider in this area are the images that photographing the body so perfectly making it transparent. In this new paradigm , it is considered that the treatment of these informational documents need to be innovative , and the adoption of ontologies can be a solution . It is therefore in this context that this research fits contemplating the question: what criteria should be used to build a model of the ontology of medical images ? What is the contribution of literature Area Information Science in the process of ontology construction ? The basic objective of this research is to build a model of the ontology of medical images taking into account the images ( human and other animals ) from the terminology of healthcare and information related to images taken from the teaching sites in order to access and information retrieval imagery in health , with higher added value . The research is exploratory in which we seek to deepen our knowledge relative to the understanding of the image in the field of health, informational representation , as well as on ontologies , in general , and particularly ontology pictures . The construction methodology of ONTOLIME , was based on Methontology , prepared by Professors Gomez - Perez and trough (2002 ) . The mapping of concepts has been done manually , terminologies in the area and also in the analysis of images collected on the Internet . The ONTOLIME was built in Protégé software... (Complete abstract click electronic access below) / Mestre
82

Emprego da fotografia digital para avaliação da topografia microscópia da pele

Cordaro, Larissa Marília Chambô [UNESP] 01 September 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:27:57Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-09-01Bitstream added on 2014-06-13T20:36:39Z : No. of bitstreams: 1 cordaro_lmc_me_botfm.pdf: 603704 bytes, checksum: c88834ac9aafa63013e26147e51e24d1 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A superfície cutânea é formada por microestruturas poligonais que permitem estimar sua textura e hidratação. A avaliação quantitativa dessa topografia proporciona estimativa da organização e função de estruturas cutâneas, permitindo análise de respostas terapêuticas a intervenções. O uso da fotografia digital microscópica para avaliação do microrelevo superficial pode contribuir para quantificação de aspectos visíveis da pele. Objetivos: Desenvolvimento e validação de sistema fotográfico digital de microscopia de superfície para avaliação quantitativa da topografia microscópica da pele. Métodos: Avaliou-se uma área de 0,25 cm2 de pele dos antebraços de 47 mulheres voluntárias, de fototipos II a IV. As imagens foram coletadas de modo padronizado utilizando-se Câmera Nikon® D70, empregando objetiva macro e lente polarizadora circular acoplados a dermatoscópio sem a lâmina de contato com a pele. Foram realizados experimentos para testar a influência da luminosidade externa, melhor canal de cor e validação da técnica a partir do uso de substância hidratante, avaliação da topografia microscópica da pele em relação à faixa etária e em relação à xerose cutânea sintomática sob tratamento imediato. Não se observou interferência da iluminação externa nas leituras de luminância média e na repetitividade nas medidas de dispersão dos pixels. O modo de cor que representou melhor desempenho quanto à reprodutibilidade e capacidade discriminatória foi o Gray. Os índices de complexidade textural que apresentaram melhor performance quanto à discriminação e reprodutibilidade das Larissa M. Chambô Cordaro Emprego da fotografia digital para avaliação da topografia microscópica da pele 47 amostras foram: Entropia, Ra, Rq e Dimensão fractal. O sistema foi capaz de detectar... / The skin surface is composed of fine lines intersecting each other and forming polygons which reflect its texture and hydration. A quantitative assessment of this topography estimates organization and biological functions of skin structure, can help to evaluate effectiveness of products and surgical techniques. Microscopic digital image analysis of the skin surface may be useful to amount the visually perceived skin changes. Purpose: To develop and validate a microscopic digital image analysis system to objectively assess quantitative measurements of skin microtopography. A 0,25cm2 area from 47 voluntary women forearms which skin phototypes was II to IV has been evaluated. Pictures have taken in a standardized way by a Nikon D70 camera, using macro lens and a parallel polarized filter attached to a dermoscopy set without skin contact plate. We have tested influence of external illumination, best color channel, and the technique was validated using a moisturizing substance. Correlation to age has been attempted using validated variables. Cutaneous xerosis treatment has been also estimated. External illumination has not influenced mean luminance and the repetitivity of pixels dispersion measures. Gray channel has represented best reproductiblity and discriminatory characteristics. Entropy, Ra, Rq and Fractal dimension were complexity indexes with best textural performances. The system has been able to detect significative differences between forearms surface topography before and after moisturizing in healthy or xerotic skin patients. There has not been true correlation between validated textural indexes and age. Conclusions: A photographic method to objectively assess microscopic skin topography has been developed and validated to immediate skin moisturizing. A low Larissa M. Chambô Cordaro Emprego da fotografia... (Complete abstract click electronic access below)
83

Método de detecção e classificação de lesões de pele em imagens digitais a partir do modelo Chan-Vese e máquina de vetor de suporte

Oliveira, Roberta Barbosa [UNESP] 24 August 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-08-24Bitstream added on 2014-06-13T18:39:28Z : No. of bitstreams: 1 oliveira_rb_me_sjrp.pdf: 1430369 bytes, checksum: e333da0965de6e381ba0402fcc728db3 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho desenvolve-se um método computacional capaz de auxiliar os médicos dermatologistas no diagnóstico de lesões de pele por meio de imagens digitais. Com este método pretende-se auxiliar o dermatologista a classificar as lesões de pele utilizando a regra ABCD (Assimetria, Borda, Cor e Diâmetro) e análise de textura, bem como identificar as lesões: nevos melanocíticos, ceratose seborréica e melanoma. Para tanto, utiliza-se a técnica de difusão anisotrópica para efetuar o pré-processamento das imagens com o objetivo de eliminar os ruídos. Para a segmentação das lesões foi utilizado o método de contorno ativo sem bordas (modelo Chan-Vese). O modelo Chan-Vese é baseado na técnica de crescimento de região Mumford-Shah, para segmentar as imagens, e no modelo de contorno ativo Level Set, que possibilita a mudança topológica da curva sobreposta à imagem. Na imagem segmentada obtida é aplicado um filtro morfológico para eliminar orifícios e ruídos externos do objeto, como também para suavizar sua borda. As características de assimetria, borda e cor da regra ABCD e a característica de textura são extraídas conforme as informações das imagens segmentadas. As características extraídas das imagens são utilizadas como entradas para o classificador SVM... / A computational method to assist dermatologists in the diagnosis of skin lesions from digital images has been developed in this work. This method is intended to assist the dermatologist to classify the skin lesions using the ABCD rule (Asymmetry, Border, Color and Diameter) and texture analysis, as well as to identify lesions: melanocytic nevi, seborrheic keratosis and melanoma. Anisotropic diffusion technique is used to preprocess the images to remove noise. The active contour model without edges (Chan-Vese) is used for the segmentation of the lesions. The Chan-Vese model is based on the Mumford-Shah region growing technique, to segment the images, and the Level Set active contour model, which allows topological change of the curve superimposed on the image. A morphological filter is applied to the segmented image to eliminate holes and external noise from the object, as well as to smooth its edges. The asymmetry, border and color features of the ABCD rule and texture feature are extracted according to the information from segmented images. The extracted features from images are used as inputs to the SVM... (Complete abstract click electronic access below)
84

Avaliação dos aspectos texturais na imagem Landsat como subsídio à compartimentação fisiográfica dos municípios de Peruíbe e Itanhaém - SP /

Moreira, Mirley Ribeiro. January 2003 (has links)
Orientador: Paulina Setti Riedel / Banca: Paulo Milton Barbosa Landim / Banca: Diana Sarita Hamburger / Resumo: As imagens de satélite, por serem um registro de alvos com diferentes comportamentos espectrais e diferentes arranjos espaciais, respondem com variações tonais de cinza e variações texturais. Esta variação textural é analisada normalmente através de interpretação visual, que é uma sistematização de várias técnicas, as quais convergem para um único objetivo, a compartimentação da imagem. Em geral, a textura apresenta-se como sendo uma arma valiosa na interpretação de formas de relevo, drenagem e de padrões da cobertura vegetal e de uso da terra. Acredita-se que, a partir da utilização das técnicas de processamento digital de imagens e técnicas estatísticas multivariadas, como subsidiária na redução do caráter subjetivo da análise textural e da correspondência entre zonas homólogas, será possível favorecer a discriminação de elementos imageados, e encontrar um modelo que possibilite explicar mais satisfatoriamente a compartimentação e a relação de equivalência entre zonas que constituem texturas semelhantes. Desta forma, o objetivo geral do trabalho, é avaliar diversas metodologias, com intuito de realizar uma compartimentação fisiográfica, explorando o aspecto textural da imagem além da similaridade existentes entre as áreas após compartimentada. A área de estudo abrange os municípios de Itanhaém e Peruíbe localizados no litoral sul do Estado de São Paulo. A partir dos resultados obtidos, verificou-se que o método convencional de fotointerpretação juntamente com a aplicação da análise estatística multivariada, mostrou-se viável de ser aplicado apresentando resultados satisfatórios e inovadores. Já no processamento de alguns algoritmos de textura a redução de informações foi bastante grande, devido à redução dos valores de níveis de cinza e à homogeneização dos alvos; mostrando que o resultados não foram positivos...(Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Satellite images record surface features based on their different spectral behaviors and spatial arrangements. As such, these features are discernable from different shades of gray and textural variations seen in the images. These textural variations represent a systematic utilization of various techniques, which converge for a single objective: compartmentalization of the image. In general, texture is used as an important tool in the interpretation of relief forms, drainage patterns and vegetative cover and land-use patterns. Through the application of digital processing techniques and multivariable statistical analyses, it is possible to reduce the subjective character of textural analysis and correspondence between homologous zones, hence enhance the discrimination of different elements in an image. These methods can help find a model that allows for a better explanation of the compartmentalization and equivalence between zones that consist of similar textures. In this form, the general objective of the study is to evaluate diverse methodologies with the objective of determining the physiographic compartmentalization, exploiting the textural aspect of the image in addition to the existing similarities between areas following compartmentalization. The study area is within the municipalities of Itanhaém e Peruíbe, located along the south coastal region of São Paulo State. Based on the results obtained, it is confirmed that the conventional method of photo-interpretation, together with the application of multivariate statistical analysis, shows that it is a viable combination, yielding both satisfactory and innovative results. Already, in the processing of some textural algorithms, the reduction of information was significant, owing to the reduction of the values in the shades of gray and to the homogenization of targets, showing that the results were not positive...(Complete abstract click electronic access below) / Mestre
85

Metodologia para avaliação de rodovias extraídas computacionalmente em imagens digitais /

Maia, José Leonardo. January 2003 (has links)
Orientador : Aluir Porfírio Dal Poz / Resumo: A avaliação de feições cartográficas extraídas (semi-) automaticamente a partir de imagens digitais é de grande importância no contexto de validação de algoritmos computacionais de extração de feições. O procedimento geral para a avaliação da qualidade geométrica de feições cartográficas baseia-se na comparação entre as entidades extraídas por algoritmos computacionais e as correspondentes extraídas através da visão natural, sendo estas últimas denominadas de feições de referência. A comparação entre os dois grupos de feições é realizada através das seguintes etapas: (1) cálculo de pontos correspondentes entre as feições extraídas e as de referência; (2) cálculo de parâmetros de qualidade (completeza, correção, qualidade, erro médio (EM) e erro médio quadrático (EMQ)) com base nos pontos correspondentes; e (3) análise envolvendo os parâmetros de qualidade obtidos na etapa 2. A metodologia de avaliação foi testada numa variedade de situações, envolvendo tanto imagens com características diferentes quanto diferentes metodologias de extração. Os resultados comprovam que a metodologia permite uma avaliação bastante detalhada dos resultados dos métodos de extração. / Abstract: The evaluation of cartographic features that were (semi-) automatically extracted from digital images is of great importance in the context of validation of computational algorithms of feature extraction. The general procedure to evaluate the geometrical quality of cartographic features is based on the comparison between the entities extracted via computational algorithms and the corresponding ones extracted through natural vision, being the latter called reference features. Such comparison between the two groups of features is performed in three steps, as follows: (1) calculation of corresponding points between the extracted features and the reference features; (2) calculation of quality parameters (completeness, correcteness, quality, mean error (RM) and root mean squared (RMSE) based on the corresponding points; and (3) analysis involving the quality parameters obtained in step 2. The evaluation methodology was tested in many situations, involving different images as well as extraction methodologies with different characteristics. The results proved that the methodology enables a very detailed evaluation of the results regarding the extraction methods. / Mestre
86

Instrumento de aquisição e processamento de imagens de olhos

Figueira, Márcio Vieira January 2007 (has links)
Made available in DSpace on 2013-08-07T18:53:24Z (GMT). No. of bitstreams: 1 000396763-Texto+Parcial-0.pdf: 1226415 bytes, checksum: 34691e947acca10ed3602253a14e3f69 (MD5) Previous issue date: 2007 / This work describes the development of an innovative device designed to support the medical diagnosis and to study human balance disorders, which are responsible for manifestations like dizziness, loss of balance and nausea. Several techniques used for balance evaluation are subjective, invasive or inaccurate. The technique proposed by this research is non-invasive and objective, since it is based on digital image processing. The vestibular apparatus, located in the inner ear, is responsible for the maintenance of the human balance. Selective head movements are induced on the patient to stimulate each one of the semicircular canals that are part of the vestibular apparatus. The stimulation of the canals cause the generation of the vestibulo-ocular reflex, which produces compensatory eye movements proportional to the head movements. Images of the eyes are captured by cameras attached to an equipment, which blocks the vision and illuminates the eyes with infrared light. A personal computer digitalizes the images with a framegrabber. The digitalized eye images are processed by an algorithm developed to calculate the center of the pupil on each frame. A developed program displays on screen the result of the eye movement quantification in two graphs - one for vertical movement and the other for horizontal movement. The data displayed in the graphs can be exported to a file for posterior visualization. The correct interpretation of the graphs carried out by the specialist facilitate the diagnosis process of several vestibular and neuronal hypofunctions. In order to validate the algorithm that calculates the center of the pupil, a library was developed to generate synthetic images of the eye. This library was used to generate several synthecized images of the eye in movement in different real situations observed during this work. These images were processed by the algorithm to determine the error between the synthecized center and the calculated center. / Este trabalho descreve o desenvolvimento de um instrumento inovador para apoio ao diagnóstico medico e às pesquisas relativas às doenças que afetam o equilíbrio humano. Estas doenças são responsáveis por manifestações como tonturas, perda de equilíbrio, náuseas e enjôos. Diversas técnicas utilizadas para avaliar as funções do equilíbrio são subjetivas, invasivas ou imprecisas. A técnica proposta por este trabalho baseia-se em processamento digital de imagens dos olhos, possibilitando a confecção de um instrumento objetivo, preciso e não invasivo. O sistema vestibular humano, localizado na orelha interna, é fundamental para a manutenção do equilíbrio. Movimentos seletivos de cabeça são usados para estimular cada um dos canais semi-circulares, que compõem o sistema vestibular. Através do reflexo vestíbulo-motor, são produzidos movimentos de olhos que correspondem compensatoriamente aos estímulos dos canais semi-circulares. Imagens dos olhos são capturadas por câmeras fixas a um equipamento, que isola os olhos da luz externa e os ilumina com luz infravermelha. Um computador pessoal digitaliza as imagens com auxílio de uma placa de captura. As imagens capturadas são processadas por um algoritmo desenvolvido onde, em cada quadro, o centro da pupila é calculado. Um programa desenvolvido apresenta o resultado da quantificação do movimento dos olhos na tela em dois gráficos - um para o movimento vertical e outro para o movimento horizontal. Os dados apresentados no gráfico podem ser exportados para um arquivo para visualização posterior. A correta interpretação dos gráficos pelo médico especialista facilita o diagnóstico de hipofunções do sistema vestibular e sistema nervoso .Com o objetivo de se validar o algoritmo que calcula o centro da pupila, foi construída uma biblioteca geradora de imagens sintéticas de olho. Diversas imagens sintéticas foram geradas, que simularam diferentes situações, baseadas em situações reais observadas durante o trabalho. Estas imagens foram processadas e em cada uma avaliou-se o erro do algoritmo ao determinar o centro da pupila.
87

Desconvolução autodidata concorrente para beamformers não supervisionados em antenas controladas por reatância

Ortolan, Leonardo January 2007 (has links)
Made available in DSpace on 2013-08-07T18:52:57Z (GMT). No. of bitstreams: 1 000392290-Texto+Completo-0.pdf: 2449610 bytes, checksum: e98cfa50388a7a3f744c3841c0b5837e (MD5) Previous issue date: 2007 / The electronically steerable parasitic array radiator (ESPAR) is a smart antenna suited for low-cost user terminal applications. Beamforming is achieved by adaptively adjusting the load reactances at parasitic elements surrounding the active central element. The main goal is to establish nulls in the interfering directions of the array radiation pattern. This work presents two new blind beamformers for use with reactance domain controlled arrays, such as ESPAR antennas. The new beamformers are based on the concurrent operation of two stochastic gradient algorithms, one which minimizes a cost function that measures the received signal energy dispersion and other which minimizes the Euclidean distance between the received digital modulation symbols and the ones in the reference constellation. The first algorithm applies the principle of operation of the Concurrent Self-learning Deconvolution Process (CSDP) to the Maximum Moment Criterion (MMC) algorithm. The second algorithm uses the original architecture of the CSDP, which relies upon the Constant Modulus Algorithm (CMA). These two approaches not only evaluate the energy of the received signal, but also the signal phase, needing no transmission of any training sequence. The results show that these two concurrent approaches result not only in a smaller mean square error (MSE) in relation to the reference constellation of the digital modulation but also result in a better signal to interference ratio. / A ESPAR (Electronically Steerable Parasitic Array Radiator) é uma antena adaptativa, utilizada para recepção de sinais digitais. Esta antena, diferentemente das demais antenas inteligentes, necessita de apenas um downconverter no elemento central ativo. Todos os outros elementos da antena são parasitas e modelam o diagrama de irradiação através do ajuste independente de reatâncias controláveis. Estas reatâncias são ajustadas por meio de um algoritmo adaptativo. O objetivo deste algoritmo é buscar um conjunto de valores para as reatâncias, tal que o diagrama de irradiação seja modelado de modo a anular sinais interferentes. Neste trabalho são propostos dois novos algoritmos baseados no Gradiente Estocástico, para controle de antenas controladas por reatâncias, tal como a ESPAR. O primeiro algoritmo aplica o princípio de operação do Processo de Desconvolução Autodidata Concorrente (PDAC) ao algoritmo Maximum Moment Criterion (MMC). Já o segundo algoritmo utiliza a arquitetura original do PDAC. Esses processos avaliam não apenas a energia do sinal recebido (amplitude), mas também a fase do sinal, sem necessidade de transmissão de qualquer seqüência de treino. Os resultados obtidos demonstram que os algoritmos que utilizam a arquitetura concorrente não só resultam em um menor erro médio quadrático em relação à constelação de referência da modulação digital, como também resultam em uma melhor relação sinal-interferência.
88

Visualização e processamento digital de imagens médicas

Zaffari, Carlos Alberto January 2006 (has links)
Made available in DSpace on 2013-08-07T18:53:42Z (GMT). No. of bitstreams: 1 000383457-Texto+Completo-0.pdf: 3932744 bytes, checksum: 8275a09ab056c4ef4e381537415b569a (MD5) Previous issue date: 2006 / This text describes the theory, the project and results obtained by the Visualizador e Processador de Imagens Médicas (VPIM - in English: Visualization and Processing of the Medical Image). The mathematical base, the algorithms, the software and hardware environments, and the internal software architecture with the main objects of the VPIM are the main topics covered. Particularities of the software implementation and the means to extent the current set of features (through plug-ins) are also discussed. The results are shown mainly through images as a mean to ease its understanding. Among the main features implemented there are: image rotation, mirroring, the compliment of an image, convolution filters in space-domain (moving average lowpass, median filter, and Sobel), frequency filters (Butterworth filters), the generation of a power-specter representation of an image, total and partial grayscale remapping of an image, the association of pseudo-colors to the scales of gray in an image, image combination techniques, global threshold system, measuring tools for images, histogram, profile lines, and movie-alike image presentation using DICOM Series and Studies in order to sequence images. / Esta dissertação descreve a teoria envolvida, o projeto e os resultados obtidos com o Visualizador e Processador de Imagens Médicas (VPIM), que é voltado para a área médica e científica. Nela são cobertos o embasamento matemático, os algoritmos usados na construção das ferramentas, o ambiente usado para a implementação, a arquitetura empregada e a descrição dos principais objetos utilizados pelo VPIM. São discutidas, também, as particularidades encontradas durante a fase de implementação do projeto e o processo usado para futuras expansões (plug-in). Os resultados obtidos são apresentados mediante de uso de imagens visando um fácil entendimento dos mesmos. Entre as funções implementadas podemos ressaltar: a rotação de imagens, o espelhamento de imagens, a negação de uma imagem, os filtros de convolução no espaço (filtro da média móvel, filtro da mediana, filtro de Sobel), os filtros em freqüência (filtros de Butterworth), a obtenção do espectro de potência da imagem, o remapeamento global ou parcial de uma imagem, a aplicação de pseudo-cor, as técnicas de combinação, o threshold global, as técnicas de medidas feitas sobre a imagem, as estatísticas obtidas, o histograma, as linhas de perfil, o uso de séries e estudos para apresentação de imagens e a apresentação como filme das imagens de uma série.
89

Instrumento portátil para aquisição, digitalização e processamento de imagens a ser aplicado na avaliação do sistema de equilíbrio humano

Prestes, Lucas Plautz January 2013 (has links)
Made available in DSpace on 2013-08-07T18:53:41Z (GMT). No. of bitstreams: 1 000447552-Texto+Completo-0.pdf: 4224320 bytes, checksum: 456d05e40b6e8b81bfbe9822a9d4d73d (MD5) Previous issue date: 2013 / This thesis describes a new human balance analysis instrument for studies on the physiology of the vestibular system, support for diagnostics, patient evolution in treatment and in the adaptation process of physiotherapy and vestibular disorders. Various techniques used to evaluate balance are subjective, imprecise and invasive. In the present work, a device has been developed to objectively measure human balance in a non-invasive manner with adequate precision. The objectives of this thesis were: (1) to improve image processing techniques, (2) to reduce equipment production costs, (3) to facilitate portability, (4) to develop a robust, scalable and easily maintained software architecture. The vestibular system is located in the inner ear, and it is responsible for maintaining balance. The vestibular system is composed mainly of a network of tubes called semicircular canals, which are stimulated by selective head movements. Through vestibular-motor reflexes, eye movements are induced which correspond to head movement. The images of the eye movements are acquired by video cameras, under infrared illumination. The cameras are mounted to glasses isolated from external light developed for the purposes of this research. The camera images are digitalized by an external capture card and processed in real time by an algorithm developed to, frame by frame, locate the center of the pupil. The location of the center of the pupil in response to the vestibulo-ocular stimulus is plotted into a graph, to then be interpreted by a medical specialist. The tests carried out prove the efficiency and robustness of the algorithm in calculating the center of the pupil with a broad range of variations. The tests include a number of variations of the pupil and elliptical eye distortions with additional reflections occasioned by sources of illumination. All tests had a negligible error, thus proving their efficiency and meeting their objective. / Este trabalho descreve um novo instrumento de análise do equilíbrio humano para o estudo da fisiologia do sistema vestibular, apoio ao diagnóstico, evolução do paciente no processo adaptativo de fisioterapia e transtornos do sistema vestibular. Várias técnicas utilizadas para avaliar o equilíbrio são subjetivas, imprecisas e invasivas. Neste trabalho foi desenvolvido um equipamento para medir objetivamente o equilíbrio humano de modo não invasivo e com precisão adequada. As metas deste trabalho foram: (1) Aperfeiçoar as técnicas de processamento de imagens, (2) Reduzir os custos de produção do equipamento, (3) Facilitar sua mobilidade, (4) Desenvolver uma arquitetura de software robusta, escalável e de fácil manutenção. O sistema vestibular localiza-se no ouvido interno, sendo responsável pela manutenção do equilíbrio. O sistema vestibular é principalmente composto por uma rede de tubos chamados canais semicirculares, os quais são estimulados por movimentos seletivos da cabeça. Através do reflexo vestíbulo-motor, são induzidos movimentos oculares correspondentes ao movimento de cabeça realizado. As imagens dos movimentos oculares foram adquiridas por câmeras de vídeo, sob iluminação infravermelha. As câmeras foram adaptadas em um óculos com isolamento de luz externa desenvolvido para propiciar este trabalho. As imagens das câmeras são digitalizadas por uma placa de captura externa e processadas em tempo real por um algoritmo desenvolvido para, quadro a quadro, localizar o centro da pupila. A localização do centro da pupila em resposta ao estímulo vestíbuloocular é representada graficamente, para interpretação pelo médico especialista. Os testes realizados comprovam a eficiência e robustez do algoritmo no cálculo de centro de pupila nas suas mais diversas variações. Os testes abrangem as mais diversas variações da pupila e distorções elípticas oculares com o adicional de reflexos ocasionados por fontes de iluminação. Todos os testes obtiveram erro, desprezível, comprovando assim sua eficiência e cumprindo o seu objetivo.
90

Projeto de um descritor para o alinhamento de imagens de profundidade de superfícies com aplicação em visão robótica

Idrobo Pizo, Gerardo Antonio 07 August 2014 (has links)
Tese (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2014. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2014-11-20T13:50:20Z No. of bitstreams: 1 2014_GerardoAntonioIdroboPizo.pdf: 6784604 bytes, checksum: 2ee3508e39bb9d91e5949040ad7fae12 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-11-26T11:03:55Z (GMT) No. of bitstreams: 1 2014_GerardoAntonioIdroboPizo.pdf: 6784604 bytes, checksum: 2ee3508e39bb9d91e5949040ad7fae12 (MD5) / Made available in DSpace on 2014-11-26T11:03:55Z (GMT). No. of bitstreams: 1 2014_GerardoAntonioIdroboPizo.pdf: 6784604 bytes, checksum: 2ee3508e39bb9d91e5949040ad7fae12 (MD5) / O processo de Reconstrução 3D de objetos a partir de imagens de profundidade compreende três fases: a) aquisição, na qual a superfície do objeto é digitalizada a partir de vários pontos de vista, gerando um conjunto de imagens de profundidade; b) registro, no qual uma transformação rígida M deve ser estimada para posicionar as imagens, par a par, em um único referencial; e c) combinação ou “matching”, na qual redundâncias entre vistas registradas são tratadas para construir um modelo 3D completo único. Na etapa de registro distinguem-se ainda duas etapas: pré-alinhamento e alinhamento fino. Na primeira, uma aproximação inicial de registro é estimada através da extração de pontos característicos correspondentes de duas imagens que ocupem a mesma posição no espaço do objeto e do cálculo de uma transformação rígida de forma que a distância quadrática entre os pares de pontos característicos correspondentes seja minimizada. Na segunda etapa, iterações são aplicadas sobre a transformação obtida para que os erros de alinhamento sejam minimizados. A fase de alinhamento fino é um problema resolvido, muito diferente da etapa de pré-alinhamento, cujo problema é o desconhecimento da correspondência entre as regiões de sobreposição; por tal motivo, a solução mais usual é escolher pontos que tenham alguma característica que os distingam do resto. Nesta tese propôs-se uma metodologia que está baseada na segmentação/reconstrução de imagens de profundidade fazendo uso da técnica de detecção de bordas aliada à técnica de agrupamento usando dizimação de malhas. A partir das bordas propõe-se um descritor de propriedades invariantes sob transformações de similaridade que incluem transformações de rotação, translação e escala uniforme como também robusto a ruído. Através do descritor proposto, são extraídos pontos correspondentes de ambas as imagens, e gera-se como valor de saída uma assinatura que se relaciona diretamente ao ponto considerando a disposição geométrica de sua vizinhança. A assinatura resultante atribui um rótulo ao ponto na imagem de profundidade, o que permite que, no processo de busca, seja aumentada a eficiência de correspondências, facilitando a identificação de possíveis zonas de sobreposição e reduzindo a ambiguidade no processo de busca. Odescritor foi avaliado com diferentes imagens e seus resultados foram comparados com os de outros autores com as mesmas imagens. Para verificar a validade das transformações candidatas, cada uma delas passa por um alinhamento fino, em que se avalia os erros de ajuste entre as duas imagens de profundidade através do algoritmo ICP (iterative closest point). A transformação que alinha o maior número de pontos é considerada a solução. Destaca-se que a principal contribuição deste trabalho é o desenvolvimento de uma técnica de pré-alinhamento e de sua integração com uma técnica de alinhamento fino, definindo de forma geral uma metodologia completa para registro e reconstrução de modelos tridimensionais de superfícies que tenham variação de curvatura suave em uma vizinhança, a partir de curvas de contorno 3D de variações geométricas nesta superfície. _______________________________________________________________________________ ABSTRACT / The process of reconstruction of 3D objects from range images consists of three steps: a) acquisition, in which the surface of the object is scanned from various points of view, generating n depth images; b) registration, in which a rigid transformation M must be estimated to locate images, pair by pair, in a single framework; c) matching, in which redundancies between registered views are processed to construct a single complete 3D model. Registration is further distinguished in two stages: pre-alignment and fine alignment. First, an initial approximation of the register is estimated by extracting the corresponding feature points from the two images that occupy the same position in the object space and the computation of a rigid transformation M so that the squared distance between pairs of corresponding feature points is minimized. In the second step, iterations are applied to the transformation obtained for alignment errors to be minimized. The fine alignment stage is a solved problem, very differently from the pre-alignment step, whose problem is the lack of correspondence between the overlap regions; therefore, the most common solution is to choose points that have some characteristics that distinguish them from the rest. This thesis proposes a methodology that is based on segmentation / reconstruction of depth images making use of an edge detection technique combined with a clustering technique using mesh decimation edges. From the edges it is proposed a descriptor which is invariant to similarity transformations including rotation, translation and uniform scale as also robust to noise. Through the proposed descriptor, n corresponding points from the two images are extracted, and a signature value is generated as output that is related directly to the point considering the geometrical distribution of its neighborhood. The resulting signature assigns a label to the point in the depth image, which allows that in the search process the efficiency of the correspondences is increased, facilitating the identification of possible areas of overlapping and reducing the ambiguity in the search process. The descriptor was evaluated with different images and their results were compared with those of other authors that used the same images. To verify the validity of the candidate transformations, each of which passes through a fine alignment, in which the fitting errors are evaluated between the two depth images by the ICP (iterative closest point) algorithm. The transformation that aligns the largest number of points is considered the solution. It is noteworthy that the main contribution of this work is the development of a technique for pre-alignment and its integration with a fine alignment technique, defining a complete methodology for registration and reconstruction of three-dimensional surface models, with smooth curvature variation in a neighborhood, from the curves of 3D contours. _______________________________________________________________________________ RESUMEN / El proceso de Reconstrucción 3D de objetos a partir de imágenes de profundidad comprende tres fases: a) adquisición, en la cual la superficie del objeto es digitalizada a partir de varios puntos de vista, generando un conjunto de imágenes de profundidad. b) registro, en la cual una transformación rígida M debe ser estimada para posicionar las imágenes, par a par, en un único marco referencial. c) combinación o “matching”, en la cual redundancias entre vistas registradas son tratadas para construir un modelo 3D completo único. En la etapa de registro se distinguen dos etapas: pre-alineamiento y alineamiento fino. En la primera, una aproximación inicial de registro es estimada a través da extracción de puntos característicos correspondientes en las dos imágenes, que ocupen la misma posición en el espacio del objeto y el cálculo de una transformación rígida M de forma que la distancia cuadrada entre los pares de puntos característicos correspondientes sea minimizada. En la segunda etapa, iteraciones son aplicadas sobre la transformación obtenida para que los errores de alineamiento sean minimizados. La fase de alineamiento fino es un problema resuelto, muy diferente a la etapa de pre-alineamiento, cuyo problema es el desconocimiento de la correspondencia entre las regiones de sobre posición; por tal motivo, la solución más usual es escoger puntos que tengan alguna característica que los distingan del resto. La fase de alineamiento fino es un problema resuelto, muy diferente a la etapa de pre-alineamiento, cuyo problema es el desconocimiento de la correspondencia entre las regiones de sobre posición; por tal motivo, la solución más usual es escoger puntos que tengan alguna característica que los distingan del resto. La propuesta deste trabajo es contribuir en la búsqueda de una solución más eficaz, tratando de superar inconvenientes que hacen que otros métodos fallen. En esta tesis se plantea una metodología que está basada en la segmentación/reconstrucción de imágenes de profundidad, utilizando la técnica de detección de bordas aliada a la técnica de agrupamiento de mallas. A partir de las bordas se propuso un descriptor de propiedades invariantes sobre transformaciones de semejanza que incluye transformaciones de rotación, translación y escala uniforme como también robusto al ruido. A través del descriptor propuesto, son extraídos puntos correspondientes de las dos imágenes, generando como valor de salida un código que lo relaciona directamente al punto considerando la disposición geométrica de su vecindad. El código resultante atribuye una etiqueta al punto de la imagen de profundidad, lo que permite que en el proceso de búsqueda, sea aumentada la eficiencia de correspondencias, facilitando la identificación de posibles zonas de superposición y reduciendo la ambigüedad en el proceso de búsqueda. El descriptor fue evaluado con diferentes imágenes y sus resultados fueron comparados con los resultados de otros autores usando las mismas imágenes. Para verificar la validad de las transformaciones candidatas, cada una de ellas pasó por un alineamiento fino, en que se evalúa los errores de ajuste entre las dos imágenes de profundidad a través del algoritmo ICP (iterative closest point). La transformación que alinee el mayor número de puntos es considerada la solución. Se destaca que la principal contribución deste trabajo es el desenvolvimiento de una técnica de pre-alineamiento y su integración con una técnica de alineamiento fino, definiendo de forma general una metodología completa para el registro y reconstrucción de modelos tridimensionales de superficies, con variación de curvatura suave en una vecindad, a partir de curvas de contornos 3D de variaciones geométricas en esta superfície.

Page generated in 0.0836 seconds