• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 31
  • 9
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 236
  • 236
  • 236
  • 125
  • 124
  • 36
  • 28
  • 23
  • 21
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Процена квалитета слике и видеа кроз очување информација о градијенту / Procena kvaliteta slike i videa kroz očuvanje informacija o gradijentu / Gradient-based image and video quality assessment

Bondžulić Boban 14 April 2016 (has links)
<p>У овој дисертацији разматране су објективне мере процене квалитета<br />слике и видеа са потпуним и делимичним референцирањем на изворни<br />сигнал. За потребе евалуације квалитета развијене су поуздане,<br />рачунски ефикасне мере, засноване на очувању информација о<br />градијенту. Мере су тестиране на великом броју тест слика и видео<br />секвенци, различитих типова и степена деградације. Поред јавно<br />доступних база слика и видео секвенци, за потребе истраживања<br />формиране су и нове базе видео секвенци са преко 300 релевантних<br />тест узорака. Поређењем доступних субјективних и објективних скорова<br />квалитета показано је да је објективна евалуација квалитета веома<br />сложен проблем, али га је могуће решити и доћи до високих<br />перформанси коришћењем предложених мера процене квалитета слике<br />и видеа.</p> / <p>U ovoj disertaciji razmatrane su objektivne mere procene kvaliteta<br />slike i videa sa potpunim i delimičnim referenciranjem na izvorni<br />signal. Za potrebe evaluacije kvaliteta razvijene su pouzdane,<br />računski efikasne mere, zasnovane na očuvanju informacija o<br />gradijentu. Mere su testirane na velikom broju test slika i video<br />sekvenci, različitih tipova i stepena degradacije. Pored javno<br />dostupnih baza slika i video sekvenci, za potrebe istraživanja<br />formirane su i nove baze video sekvenci sa preko 300 relevantnih<br />test uzoraka. Poređenjem dostupnih subjektivnih i objektivnih skorova<br />kvaliteta pokazano je da je objektivna evaluacija kvaliteta veoma<br />složen problem, ali ga je moguće rešiti i doći do visokih<br />performansi korišćenjem predloženih mera procene kvaliteta slike<br />i videa.</p> / <p>This thesis presents an investigation into objective image and video quality<br />assessment with full and reduced reference on original (source) signal. For<br />quality evaluation purposes, reliable, computational efficient, gradient-based<br />measures are developed. Proposed measures are tested on different image<br />and video datasets, with various types of distorsions and degradation levels.<br />Along with publicly available image and video quality datasets, new video<br />quality datasets are maded, with more than 300 relevant test samples.<br />Through comparison between available subjective and objective quality<br />scores it has been shown that objective quality evaluation is highly complex<br />problem, but it is possible to resolve it and acchieve high performance using<br />proposed quality measures.</p>
222

Quantificação da dinâmica de estruturas em imagens de medicina nuclear na modalidade PET. / Quantification of dynamic structures in nuclear medicine images in the PET modality.

Flórez Pacheco, Edward 10 February 2012 (has links)
A presença que tem hoje a Medicina Nuclear como modalidade de obtenção de imagens médicas é muito importante e um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de conseguir analisar o comportamento metabólico do paciente, fazendo possíveis diagnósticos precoces. Este projeto está baseado em imagens médicas obtidas através da modalidade PET (Positron Emission Tomography) a qual está tendo uma crescente difusão e aceitação. Para isso, temos desenvolvido uma estrutura integral de processamento de imagens tridimensionais PET, a qual está constituída por etapas consecutivas que se iniciam na obtenção das imagens padrões (gold standard), sendo utilizados volumes simulados ou phantoms do Ventrículo Esquerdo do Coração criadas como parte do projeto, assim como geradas a partir do software NCAT-4D. A seguir, nos volumes simulados, é introduzido ruído quântico tipo Poisson que é o ruído característico das imagens PET e feita uma análise que busca certificar que o ruído utilizado corresponde efetivamente ao ruído Poisson. Em sequência é executada a parte de pré-processamento, utilizando para este fim, um conjunto de filtros tais como o filtro da mediana, o filtro da Gaussiana ponderada e o filtro que mistura os conceitos da Transformada de Anscombe e o filtro pontual de Wiener. Posteriormente é aplicada a etapa de segmentação que é considerada a parte central da sequência de processamento. O processo de segmentação é baseado na teoria de Conectividade Fuzzy e para isso temos implementado quatro diferentes abordagens: Algoritmo Genérico, Algoritmo LIFO, Algoritmo kTetaFOEMS e o Algoritmo utilizando Pesos Dinâmicos. Sendo que os três primeiros algoritmos utilizam pesos específicos selecionados pelo usuário, foi preciso efetuar uma análise para determinar os melhores pesos de segmentação que se reflitam numa segmentação mais eficiente. Finalmente, para terminar a estrutura de processamento, um procedimento de avaliação foi utilizado como métrica para obter quantitativamente três parâmetros (Verdadeiro Positivo, Falso Positivo e Máxima Distância) que permitiram conhecer o nível de eficiência e precisão de nosso processo e do projeto em geral. Constatamos que os algoritmos implementados (filtros e algoritmos de segmentação) são bastante robustos e atingem ótimos resultados chegando-se a obter, para o caso do volume do Ventrículo Esquerdo simulado, taxas de VP e FP na ordem de 98.49 ± 0.27% e 2,19 ± 0.19%, respectivamente. Com o conjunto de procedimentos e escolhas feitas ao longo da estrutura de processamento, encerramos o projeto com a análise de um grupo de volumes produto de um exame PET real, obtendo a quantificação destes volumes. / The usefulness of Nuclear medicine nowadays as a modality to obtain medical images is very important, and it has turned into one of the main procedures utilized in Health Care Centers. Its great advantage is to analyze the metabolic behavior of the patient, by allowing early diagnosis. This project is based on medical images obtained by the PET modality (Positron Emission Tomography), which has won wide acceptance. Thus, we have developed an integral framework for processing Nuclear Medicine three-dimensional images of the PET modality, which is composed of consecutive steps that start with the generation of standard images (gold standard) by using simulated images or phantoms of the Left Ventricular Heart that were generated in this project, such as the ones obtained from the NCAT-4D software. Then Poisson quantum noise is introduced into the whole volume to simulate the characteristic noises in PET images and an analysis is performed in order to certify that the utilized noise is the Poisson noise effectively. Subsequently, the pre-processing is executed by using specific filters, such as the median filter, the weighted Gaussian filter, and the filter that joins the concepts of Anscombe Transformation and the Wiener filter. Then the segmentation, which is considered the most important and central part of the whole process, is implemented. The segmentation process is based on the Fuzzy Connectedness theory and for that purpose four different approaches were implemented: Generic algorithm, LIFO algorithm, kTetaFOEMS algorithm, and Dynamic Weight algorithm. Since the first three algorithms used specific weights that were selected by the user, an extra analysis was performed to determine the best segmentation constants that would reflect an accurate segmentation. Finally, at the end of the processing structure, an assessment procedure was used as a measurement tool to quantify some parameters that determined the level of efficiency and precision of our process and project. We have verified that the implemented algorithms (filters and segmentation algorithms) are fairly robust and achieve optimal results, assist to obtain, in the case of the Left Ventricular simulated, TP and FP rates in the order of 98.49 ± 0.27% and 2.19 ± 0.19%, respectively. With the set of procedures and choices made along of the processing structure, the project was concluded with the analysis of a volumes group from a real PET exam, obtaining the quantification of the volumes.
223

Quantificação da dinâmica de estruturas em imagens de medicina nuclear na modalidade PET. / Quantification of dynamic structures in nuclear medicine images in the PET modality.

Edward Flórez Pacheco 10 February 2012 (has links)
A presença que tem hoje a Medicina Nuclear como modalidade de obtenção de imagens médicas é muito importante e um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de conseguir analisar o comportamento metabólico do paciente, fazendo possíveis diagnósticos precoces. Este projeto está baseado em imagens médicas obtidas através da modalidade PET (Positron Emission Tomography) a qual está tendo uma crescente difusão e aceitação. Para isso, temos desenvolvido uma estrutura integral de processamento de imagens tridimensionais PET, a qual está constituída por etapas consecutivas que se iniciam na obtenção das imagens padrões (gold standard), sendo utilizados volumes simulados ou phantoms do Ventrículo Esquerdo do Coração criadas como parte do projeto, assim como geradas a partir do software NCAT-4D. A seguir, nos volumes simulados, é introduzido ruído quântico tipo Poisson que é o ruído característico das imagens PET e feita uma análise que busca certificar que o ruído utilizado corresponde efetivamente ao ruído Poisson. Em sequência é executada a parte de pré-processamento, utilizando para este fim, um conjunto de filtros tais como o filtro da mediana, o filtro da Gaussiana ponderada e o filtro que mistura os conceitos da Transformada de Anscombe e o filtro pontual de Wiener. Posteriormente é aplicada a etapa de segmentação que é considerada a parte central da sequência de processamento. O processo de segmentação é baseado na teoria de Conectividade Fuzzy e para isso temos implementado quatro diferentes abordagens: Algoritmo Genérico, Algoritmo LIFO, Algoritmo kTetaFOEMS e o Algoritmo utilizando Pesos Dinâmicos. Sendo que os três primeiros algoritmos utilizam pesos específicos selecionados pelo usuário, foi preciso efetuar uma análise para determinar os melhores pesos de segmentação que se reflitam numa segmentação mais eficiente. Finalmente, para terminar a estrutura de processamento, um procedimento de avaliação foi utilizado como métrica para obter quantitativamente três parâmetros (Verdadeiro Positivo, Falso Positivo e Máxima Distância) que permitiram conhecer o nível de eficiência e precisão de nosso processo e do projeto em geral. Constatamos que os algoritmos implementados (filtros e algoritmos de segmentação) são bastante robustos e atingem ótimos resultados chegando-se a obter, para o caso do volume do Ventrículo Esquerdo simulado, taxas de VP e FP na ordem de 98.49 ± 0.27% e 2,19 ± 0.19%, respectivamente. Com o conjunto de procedimentos e escolhas feitas ao longo da estrutura de processamento, encerramos o projeto com a análise de um grupo de volumes produto de um exame PET real, obtendo a quantificação destes volumes. / The usefulness of Nuclear medicine nowadays as a modality to obtain medical images is very important, and it has turned into one of the main procedures utilized in Health Care Centers. Its great advantage is to analyze the metabolic behavior of the patient, by allowing early diagnosis. This project is based on medical images obtained by the PET modality (Positron Emission Tomography), which has won wide acceptance. Thus, we have developed an integral framework for processing Nuclear Medicine three-dimensional images of the PET modality, which is composed of consecutive steps that start with the generation of standard images (gold standard) by using simulated images or phantoms of the Left Ventricular Heart that were generated in this project, such as the ones obtained from the NCAT-4D software. Then Poisson quantum noise is introduced into the whole volume to simulate the characteristic noises in PET images and an analysis is performed in order to certify that the utilized noise is the Poisson noise effectively. Subsequently, the pre-processing is executed by using specific filters, such as the median filter, the weighted Gaussian filter, and the filter that joins the concepts of Anscombe Transformation and the Wiener filter. Then the segmentation, which is considered the most important and central part of the whole process, is implemented. The segmentation process is based on the Fuzzy Connectedness theory and for that purpose four different approaches were implemented: Generic algorithm, LIFO algorithm, kTetaFOEMS algorithm, and Dynamic Weight algorithm. Since the first three algorithms used specific weights that were selected by the user, an extra analysis was performed to determine the best segmentation constants that would reflect an accurate segmentation. Finally, at the end of the processing structure, an assessment procedure was used as a measurement tool to quantify some parameters that determined the level of efficiency and precision of our process and project. We have verified that the implemented algorithms (filters and segmentation algorithms) are fairly robust and achieve optimal results, assist to obtain, in the case of the Left Ventricular simulated, TP and FP rates in the order of 98.49 ± 0.27% and 2.19 ± 0.19%, respectively. With the set of procedures and choices made along of the processing structure, the project was concluded with the analysis of a volumes group from a real PET exam, obtaining the quantification of the volumes.
224

Signal Processing Algorithms For Digital Image Forensics

Prasad, S 02 1900 (has links)
Availability of digital cameras in various forms and user-friendly image editing softwares has enabled people to create and manipulate digital images easily. While image editing can be used for enhancing the quality of the images, it can also be used to tamper the images for malicious purposes. In this context, it is important to question the originality of digital images. Digital image forensics deals with the development of algorithms and systems to detect tampering in digital images. This thesis presents some simple algorithms which can be used to detect tampering in digital images. Out of the various kinds of image forgeries possible, the discussion is restricted to photo compositing (Photo montaging) and copy-paste forgeries. While creating photomontage, it is very likely that one of the images needs to be resampled and hence there will be an inconsistency in some of its underlying characteristics. So, detection of resampling in an image will give a clue to decide whether the image is tampered or not. Two pixel domain techniques to detect resampling have been presented. The rest of them exploits the property of periodic zeros that occur in the second divergences due to interpolation during resembling. It requires a special condition on the resembling factor to be met. The second technique is based on the periodic zero-crossings that occur in the second divergences, which does not require any special condition on the resembling factor. It has been noted that this is an important property of revamping and hence the decay of this technique against mild counter attacks such as JPEG compression and additive noise has been studied. This property has been repeatedly used throughout this thesis. It is a well known fact that interpolation is essentially low-pass filtering. In case of photomontage image which consists of resample and non resample portions, there will be an in consistency in the high-frequency content of the image. This can be demonstrated by a simple high-pass filtering of the image. This fact has also been exploited to detect photomontaging. One approach involves performing block wise DCT and reconstructing the image using only a few high-frequency coercions. Another elegant approach is to decompose the image using wavelets and reconstruct the image using only the diagonal detail coefficients. In both the cases mere visual inspection will reveal the forgery. The second part of the thesis is related to tamper detection in colour filter array (CFA) interpolated images. Digital cameras employ Bayer filters to efficiently capture the RGB components of an image. The output of Bayer filter are sub-sampled versions of R, G and B components and they are completed by using demosaicing algorithms. It has been shown that demos icing of the color components is equivalent to resembling the image by a factor of two. Hence, CFA interpolated images contain periodic zero-crossings in its second differences. Experimental demonstration of the presence of periodic zero-crossings in images captured using four digital cameras of deferent brands has been done. When such an image is tampered, these periodic zero-crossings are destroyed and hence the tampering can be detected. The utility of zero-crossings in detecting various kinds of forgeries on CFA interpolated images has been discussed. The next part of the thesis is a technique to detect copy-paste forgery in images. Generally, while an object or a portion if an image has to be erased from an image, the easiest way to do it is to copy a portion of background from the same image and paste it over the object. In such a case, there are two pixel wise identical regions in the same image, which when detected can serve as a clue of tampering. The use of Scale-Invariant-Feature-Transform (SIFT) in detecting this kind of forgery has been studied. Also certain modifications that can to be done to the image in order to get the SIFT working effectively has been proposed. Throughout the thesis, the importance of human intervention in making the final decision about the authenticity of an image has been highlighted and it has been concluded that the techniques presented in the thesis can effectively help the decision making process.
225

New Algorithms for Macromolecular Structure Determination / Neue Algorithmen zur Strukturbestimmung von Makromolekülen

Heisen, Burkhard Clemens 08 September 2009 (has links)
No description available.
226

Restauração de imagens digitais com texturas utilizando técnicas de decomposição e equações diferenciais parciais

Casaca, Wallace Correa de Oliveira [UNESP] 25 February 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:56Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-02-25Bitstream added on 2014-06-13T19:06:36Z : No. of bitstreams: 1 casaca_wco_me_sjrp.pdf: 5215634 bytes, checksum: 291e2a21fdb4d46a11de22f18cc97f93 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Neste trabalho propomos quatro novas abordagens para tratar o problema de restauração de imagens reais contendo texturas sob a perspectiva dos temas: reconstrução de regiões danificadas, remoção de objetos, e eliminação de ruídos. As duas primeiras abor dagens são designadas para recompor partes perdias ou remover objetos de uma imagem real a partir de formulações envolvendo decomposiçãode imagens e inpainting por exem- plar, enquanto que as duas últimas são empregadas para remover ruído, cujas formulações são baseadas em decomposição de três termos e equações diferenciais parciais não lineares. Resultados experimentais atestam a boa performace dos protótipos apresentados quando comparados à modelagens correlatas da literatura. / In this paper we propose four new approaches to address the problem of restoration of real images containing textures from the perspective of reconstruction of damaged areas, object removal, and denoising topics. The first two approaches are designed to reconstruct missing parts or to remove objects of a real image using formulations based on image de composition and exemplar based inpainting, while the last two other approaches are used to remove noise, whose formulations are based on decomposition of three terms and non- linear partial di®erential equations. Experimental results attest to the good performance of the presented prototypes when compared to modeling related in literature.
227

Restauração de imagens digitais com texturas utilizando técnicas de decomposição e equações diferenciais parciais /

Casaca, Wallace Correa de Oliveira. January 2010 (has links)
Orientador: Maurílio Boaventura / Banca: Evanildo Castro Silva Júnior / Banca: Alagacone Sri Ranga / Resumo: Neste trabalho propomos quatro novas abordagens para tratar o problema de restauração de imagens reais contendo texturas sob a perspectiva dos temas: reconstrução de regiões danificadas, remoção de objetos, e eliminação de ruídos. As duas primeiras abor dagens são designadas para recompor partes perdias ou remover objetos de uma imagem real a partir de formulações envolvendo decomposiçãode imagens e inpainting por exem- plar, enquanto que as duas últimas são empregadas para remover ruído, cujas formulações são baseadas em decomposição de três termos e equações diferenciais parciais não lineares. Resultados experimentais atestam a boa performace dos protótipos apresentados quando comparados à modelagens correlatas da literatura. / Abstract: In this paper we propose four new approaches to address the problem of restoration of real images containing textures from the perspective of reconstruction of damaged areas, object removal, and denoising topics. The first two approaches are designed to reconstruct missing parts or to remove objects of a real image using formulations based on image de composition and exemplar based inpainting, while the last two other approaches are used to remove noise, whose formulations are based on decomposition of three terms and non- linear partial di®erential equations. Experimental results attest to the good performance of the presented prototypes when compared to modeling related in literature. / Mestre
228

An?lise e classifica??o de imagens de les?es da pele por atributos de cor, forma e textura utilizando m?quina de vetor de suporte

Soares, Heliana Bezerra 22 February 2008 (has links)
Made available in DSpace on 2014-12-17T14:54:49Z (GMT). No. of bitstreams: 1 HelianaBS_da_capa_ate_cap4.pdf: 2361373 bytes, checksum: 3e1e43e8ba1aadc274663b8b8e3de72f (MD5) Previous issue date: 2008-02-22 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / The skin cancer is the most common of all cancers and the increase of its incidence must, in part, caused by the behavior of the people in relation to the exposition to the sun. In Brazil, the non-melanoma skin cancer is the most incident in the majority of the regions. The dermatoscopy and videodermatoscopy are the main types of examinations for the diagnosis of dermatological illnesses of the skin. The field that involves the use of computational tools to help or follow medical diagnosis in dermatological injuries is seen as very recent. Some methods had been proposed for automatic classification of pathology of the skin using images. The present work has the objective to present a new intelligent methodology for analysis and classification of skin cancer images, based on the techniques of digital processing of images for extraction of color characteristics, forms and texture, using Wavelet Packet Transform (WPT) and learning techniques called Support Vector Machine (SVM). The Wavelet Packet Transform is applied for extraction of texture characteristics in the images. The WPT consists of a set of base functions that represents the image in different bands of frequency, each one with distinct resolutions corresponding to each scale. Moreover, the characteristics of color of the injury are also computed that are dependants of a visual context, influenced for the existing colors in its surround, and the attributes of form through the Fourier describers. The Support Vector Machine is used for the classification task, which is based on the minimization principles of the structural risk, coming from the statistical learning theory. The SVM has the objective to construct optimum hyperplanes that represent the separation between classes. The generated hyperplane is determined by a subset of the classes, called support vectors. For the used database in this work, the results had revealed a good performance getting a global rightness of 92,73% for melanoma, and 86% for non-melanoma and benign injuries. The extracted describers and the SVM classifier became a method capable to recognize and to classify the analyzed skin injuries / O c?ncer de pele ? o mais comum de todos os c?nceres e o aumento da sua incid?ncia deve-se, em parte, ao comportamento das pessoas em rela??o ? exposi??o ao sol. No Brasil, o c?ncer de pele n?o melanoma ? o mais incidente na maioria das regi?es. A dermatoscopia e ideodermatoscopia s?o os principais tipos de exames para o diagn?stico de doen?as da pele dermatol?gicas. O campo que envolve o uso de ferramentas computacionais para o aux?lio ou acompanhamento do diagn?stico m?dico em les?es dermatol?gicas ainda ? visto como muito recente. V?rios m?todos foram propostos para classifica??o autom?tica de patologias da pele utilizando imagens. O presente trabalho tem como objetivo apresentar uma nova metodologia inteligente para an?lise e classifica??o de imagens de c?ncer de pele, baseada nas t?cnicas de processamento digital de imagens para extra??o de caracter?sticas de cor, forma e textura, utilizando a Transformada Wavelet Packet (TWP) e a t?cnicas de aprendizado de m?quina denominada M?quina de Vetor de Suporte (SVM Support Vector Machine). A Transformada Wavelet Packet ? aplicada para extra??o de caracter?sticas de textura nas imagens. Esta consiste de um conjunto de fun??es base que representa a imagem em diferentes bandas de freq??ncia, cada uma com resolu??es distintas correspondente a cada escala. Al?m disso, s?o calculadas tamb?m as caracter?sticas de cor da les?o que s?o dependentes de um contexto visual, influenciada pelas cores existentes em sua volta, e os atributos de forma atrav?s dos descritores de Fourier. Para a tarefa de classifica??o ? utilizado a M?quina de Vetor de Suporte, que baseia-se nos princ?pios da minimiza??o do risco estrutural, proveniente da teoria do aprendizado estat?stico. A SVM tem como objetivo construir hiperplanos ?timos que apresentem a maior margem de separa??o entre classes. O hiperplano gerado ? determinado por um subconjunto dos pontos das classes, chamado vetores de suporte. Para o banco de dados utilizado neste trabalho, os resultados apresentaram um bom desempenho obtendo um acerto global de 92,73% para melanoma, e 86% para les?es n?o-melanoma e benigna. O potencial dos descritores extra?dos aliados ao classificador SVM tornou o m?todo capaz de reconhecer e classificar as les?es analisadas
229

T?cnicas de computa??o natural para segmenta??o de imagens m?dicas

Souza, Jackson Gomes de 28 September 2009 (has links)
Made available in DSpace on 2014-12-17T14:55:35Z (GMT). No. of bitstreams: 1 JacksonGS.pdf: 1963039 bytes, checksum: ed3464892d7bb73b5dcab563e42f0e01 (MD5) Previous issue date: 2009-09-28 / Image segmentation is one of the image processing problems that deserves special attention from the scientific community. This work studies unsupervised methods to clustering and pattern recognition applicable to medical image segmentation. Natural Computing based methods have shown very attractive in such tasks and are studied here as a way to verify it's applicability in medical image segmentation. This work treats to implement the following methods: GKA (Genetic K-means Algorithm), GFCMA (Genetic FCM Algorithm), PSOKA (PSO and K-means based Clustering Algorithm) and PSOFCM (PSO and FCM based Clustering Algorithm). Besides, as a way to evaluate the results given by the algorithms, clustering validity indexes are used as quantitative measure. Visual and qualitative evaluations are realized also, mainly using data given by the BrainWeb brain simulator as ground truth / Segmenta??o de imagens ? um dos problemas de processamento de imagens que merece especial interesse da comunidade cient?fica. Neste trabalho, s?o estudado m?todos n?o-supervisionados para detec??o de algomerados (clustering) e reconhecimento de padr?es (pattern recognition) em segmenta??o de imagens m?dicas M?todos baseados em t?cnicas de computa??o natural t?m se mostrado bastante atrativos nestas tarefas e s?o estudados aqui como uma forma de verificar a sua aplicabilidade em segmenta??o de imagens m?dicas. Este trabalho trata de implementa os m?todos GKA (Genetic K-means Algorithm), GFCMA (Genetic FCM Algorithm) PSOKA (Algoritmo de clustering baseado em PSO (Particle Swarm Optimization) e K means) e PSOFCM (Algoritmo de clustering baseado em PSO e FCM (Fuzzy C Means)). Al?m disso, como forma de avaliar os resultados fornecidos pelos algoritmos s?o utilizados ?ndices de valida??o de clustering como forma de medida quantitativa Avalia??es visuais e qualitativas tamb?m s?o realizadas, principalmente utilizando dados do sistema BrainWeb, um gerador de imagens do c?rebro, como ground truth
230

Sistema de teleoftalmologia para aux?lio ao pr?-diagn?stico de disfun??es oculomotoras

Batista, Jess? Haniel do Nascimento 18 October 2012 (has links)
Made available in DSpace on 2014-12-17T14:56:07Z (GMT). No. of bitstreams: 1 JesseHNB_DISSERT.pdf: 2206144 bytes, checksum: 191ca3ce00f97e4019b5bdb2bc9ab914 (MD5) Previous issue date: 2012-10-18 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / The vision is one of the five senses of the human body and, in children is responsible for up to 80% of the perception of world around. Studies show that 50% of children with multiple disabilities have some visual impairment, and 4% of all children are diagnosed with strabismus. The strabismus is an eye disability associated with handling capacity of the eye, defined as any deviation from perfect ocular alignment. Besides of aesthetic aspect, the child may report blurred or double vision . Ophthalmological cases not diagnosed correctly are reasons for many school abandonments. The Ministry of Education of Brazil points to the visually impaired as a challenge to the educators of children, particularly in literacy process. The traditional eye examination for diagnosis of strabismus can be accomplished by inducing the eye movements through the doctor s instructions to the patient. This procedure can be played through the computer aided analysis of images captured on video. This paper presents a proposal for distributed system to assist health professionals in remote diagnosis of visual impairment associated with motor abilities of the eye, such as strabismus. It is hoped through this proposal to contribute improving the rates of school learning for children, allowing better diagnosis and, consequently, the student accompaniment / A vis?o ? um dos cinco sentidos do corpo humano e, em crian?as, ? respons?vel por at? 80% da percep??o do mundo ao redor. Estudos revelam que 50% das crian?as com m?ltiplas defici?ncias possuem alguma defici?ncia visual, sendo que 4% de todas as crian?as s?o diagnosticadas com estrabismo. O estrabismo ? uma defici?ncia ocular associada ? capacidade de movimenta??o dos olhos, caracterizada por qualquer desvio no alinhamento ocular perfeito. Al?m do aspecto est?tico, a crian?a pode relatar vista emba?ada ou dupla . Problemas oftalmol?gicos n?o diagnosticados corretamente s?o motivos de muitos abandonos da escola. O Minist?rio da Educa??o do Brasil aponta as defici?ncias visuais como um grande desafio aos educadores de crian?as, principalmente no processo de alfabetiza??o. O exame oftalmol?gico tradicional para diagn?stico do estrabismo pode ser realizado induzindo os movimentos oculares atrav?s de instru??es do m?dico ao paciente. Esse procedimento pode ser reproduzido com aux?lio computacional atrav?s da an?lise de imagens capturadas em v?deo. Este trabalho apresenta uma proposta de sistema de teleoftalmologia para auxiliar profissionais da sa?de no diagn?stico a dist?ncia de defici?ncias visuais associadas ? capacidade motora dos olhos, como o estrabismo. Espera-se atrav?s deste trabalho contribuir diretamente para a melhoria dos ?ndices do aprendizado escolar infantil, permitindo melhores condi??es de diagn?stico e, consequentemente, acompanhamento do aluno

Page generated in 0.1295 seconds