• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 40
  • 40
  • 27
  • 23
  • 23
  • 17
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Sobre o cálculo de atenuação e de atividade em tomografia por emissão a partir de dados de atividade / Activity and attenuation reconstruction for emission computed tomography using emisssion data only

Pereira, Fabiana Crepaldi 07 January 2004 (has links)
Orientadores: Alvaro Rodolfo De Piero, Julio Cesar Hadler Neto / Tese (doutorado) - Universidade Estadual de Campinas. Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-05T10:59:51Z (GMT). No. of bitstreams: 1 Pereira_FabianaCrepaldi_D.pdf: 53871488 bytes, checksum: 48e21ff9ca1abbb0f20a15dd735bf597 (MD5) Previous issue date: 2004 / Resumo: Esta tese aborda o problema e estimar a atenuação a partir de ados e emissão,em tomografia computadorizada por emissão.São apresentados novos métodos visando solucionar o problema mais persistente:uma interferência,em forma e sombra --crosstalk --entre as imagens e ativi ade e atenuação.O primeiro grupo e métodos se baseia na minimização a verossimilhança e forma iterativa e o segundo,no uso e condições e consistência.Nossas simulações chegaram a resultados que indicam novas direções para a solução do problema da sombra / Abstract: This thesis eals with the problem of estimating the attenuation from activity ata in emission computed tomography.We present several new methods aiming at solving the main rawback of the problem:the 'crosstalk'between activity and attenuation images.The first group of methods is base on iteratively solving a regularized maximum likelihood model and the second on using consistency conditions.Our simulations show results that indicate new directions for the solution of the 'crosstalk' problem / Doutorado / Física Geral / Doutor em Ciências
22

Um estudo sobre algoritmos de interpolação de sequencias numericas / A study of algorithms for interpolation of numerical sequences

Delgado, Eric Magalhães 14 August 2018 (has links)
Orientador: Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T19:10:17Z (GMT). No. of bitstreams: 1 Delgado_EricMagalhaes_M.pdf: 9006828 bytes, checksum: 1af1a945e326c075901fa8c1f0341128 (MD5) Previous issue date: 2009 / Resumo: Esta dissertação apresenta um estudo sobre algoritmos de interpolação e dizimação de sequências numéricas, cujos filtros são derivados do filtro de reconstrução ideal. É proposto um algoritmo adaptativo de interpolação cúbica e avaliado os ganhos deste algoritmo quando comparado aos algoritmos clássicos. A idéia é explorar o compromisso entre qualidade e complexidade dos filtros de interpolação. A adaptação do filtro, obtida através de estimativas espaciais e espectrais da sequência a ser interpolada, é útil já que proporciona um uso eficiente de filtros complexos em regiões criticas como, por exemplo, regiões de borda de uma imagem. Simulações em imagens típicas mostram um ganho quantitativo significativo do algoritmo adaptativo quando comparado aos algoritmos clássicos. Além disso, é analisado o algoritmo de interpolação quando existe informação do processo de aquisição da sequência a ser interpolada. / Abstract: This dissertation presents a study on interpolation and decimation algorithms of numerical sequences, whose filters are derived from the ideal reconstruction filter. An adaptive algorithm of cubic interpolation is proposed and the gains of this algorithm is analized by comparing with the classic algorithms. The idea is to explore the trade-off between quality and complexity of the interpolation filters. The adaptation of the filter, obtained from spacial and spectral estimates of the sequence to be interpolated, is useful because it provides an efficient use of complex filter in critical regions as, for example, regions of edge of an image. Simulations in typical images show a significant quantitative gain of the adaptive algorithm when compared to classical algorithms. Furthermore, an interpolation algorithm is analyzed based on the knowledge of the acquisition process of the sequence to be interpolated. / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
23

Ampliando horizontes da missão espacial Gaia graças à análise de objetos extensos / Plus loin avec la mission spatiale Gaia grâce à l\'analyse des objets étendus

Alberto Garcez de Oliveira Krone Martins 18 March 2011 (has links)
Ce travail a comme objectif principal de vérifier s\'il est possible de faire de la science avec les observations d\'objets étendus qui seront réalisées par la mission spatiale Gaia. Cette mission, l\'un des plus ambitieux projets de l\'Astronomie moderne, observera plus d\'un milliard d\'objets dans tout le ciel avec des précisions inédites, fournissant des données astrométriques, photométriques et spectroscopiques. Naturellement, en fonction de sa priorité astrométrique, Gaia a été optimisé pour l\'étude d\'objets ponctuels. Néanmoins, diverses sources associées à des émissions étendues seront observées. Ces émissions peuvent avoir une origine intrinsèque, telles que les galaxies, ou extrinsèque, telles que les projections d\'objets distincts sur la même ligne de visée, et présenteront probablement de solutions astrométriques moins bonnes. Pour étudier ces émissions, leurs images bidimensionnelles doivent être analysées. Néanmoins, comme Gaia ne produit pas de telles données, nous avons commencé ce travail en vérifiant si à partir de ses observations unidimensionnelles il serait possible de reconstruire des images 2D d\'objets dans tout le ciel. Nous avons ainsi estimé la quantité de cas sujets à la présence démissions étendues extrinsèques, et nous avons présenté une méthode que nous avons développée pour analyser leurs images reconstruites. Nous avons montré que l\'utilisation de cette méthode permettra détendre le catalogue final de façon fiable à des millions de sources ponctuelles dont beaucoup dépasseront la magnitude limite de l\'instrument. Dun autre coté, dans le cas démissions intrinsèques, nous avons premièrement obtenu une estimation supérieure du nombre de cas que Gaia pourra observer. Nous avons alors vérifié qu\'après les reconstructions d\'images, les codes que nous avons développés permettront de classifier morphologiquement des millions de galaxies dans les types précoce/tardif et elliptique/spirale/irrégulière. Nous avons de plus présenté une méthode que nous avons développée pour réaliser la décomposition bulbe/disque directement à partir des observations unidimensionnelles de Gaia de façon complètement automatique. Finalement nous avons conclu qu\'il est possible d\'utiliser beaucoup de ces données qui pourraient être ignorées pour faire de la science. Et que le fait de les exploiter permettra aussi bien la détection de millions d\'objets qui dépassent la limite de magnitude de Gaia, que de mener des études sur la morphologie de millions de galaxies dont les structures ne peuvent être révélées qu\'à partir de l\'espace ou au moyen d\'optique adaptative, augmentant un peu plus les horizons de cette mission déjà immense. / Este trabalho tem como objetivo principal verificar se é possível fazer ciência com as observações de objetos extensos que serão realizadas pela missão espacial Gaia. Um dos mais ambiciosos projetos da Astronomia moderna, essa missão observará mais de um bilhão de objetos em todo o céu com precisões inéditas, fornecendo dados astrométricos, fotométricos e espectroscópicos. Naturalmente, devido à sua prioridade astrométrica o Gaia foi optimizado para o estudo de objetos pontuais. Contudo, diversas fontes associadas a emissões extensas serão observadas. Essas emissões podem ter origem intrínseca, como galáxias, ou extrínseca, como projeções de objetos distintos na mesma linha de visada, e deverão ter soluções astrométricas aquém do ideal. Para estudar essas emissões suas imagens bidimensionais devem ser analisadas. Contudo, como o Gaia não obtém tais dados, iniciamos este trabalho verificando se a partir de suas observações unidimensionais seria possível reconstruir imagens de objetos em todo céu. Dessa forma, por um lado, nós estimamos a quantidade de casos sujeitos à presença de emissões extensas extrínsecas, apresentamos um método que desenvolvemos para segregar fontes astronômicas em imagens reconstruídas, e mostramos que sua utilização possibilitará estender o catálogo final de forma confiável em milhões de fontes pontuais, muitas das quais estarão além da magnitude limite do instrumento. Por outro lado, no caso de emissões intrínsecas, primeiro obtivemos uma es- timativa superior para o número de casos que o Gaia poderá observar. Então verificamos que após reconstruções de imagens, os códigos aqui desenvolvidos per- mitirão classificar morfologicamente milhões de galáxias nos tipos precoce/tardio e elíptico/espiral/irregular. Mostramos ainda um método que construímos para realizar a decomposição bojo/disco diretamente a partir das observações unidimensionais do Gaia de forma completamente automática. Finalmente concluímos que sim, é possível aproveitar muitos desses dados que poderiam ser ignorados para fazer ciência. E que salva-los possibilitará tanto a detecção de milhões de objetos além do limite de magnitude do Gaia, quanto estudos da morfologia de milhões de galáxias cujas estruturas podem ser apenas reveladas do espaço ou por meio de óptica adaptativa, expandindo um pouco mais os horizontes dessa já abrangente missão.
24

Uma técnica multimalhas para eliminação de ruídos e retoque digita\" / An-edge preserving multigrid-like for image denoising and inpainting

Ferraz, Carolina Toledo 14 September 2006 (has links)
Técnicas baseadas na Equação de Fluxo Bem-Balanceada têm sido muitas vezes empregadas como eficientes ferramentas para eliminação de ruídos e preservação de arestas em imagens digitais. Embora efetivas, essas técnicas demandam alto custo computacional. Este trabalho objetiva propor uma técnica baseada na abordagem multigrid para acelerar a solução numérica da Equação de Fluxo Bem-Balanceada. A equação de difusão é resolvida em uma malha grossa e uma correção do erro na malha grossa para as mais finas é aplicada para gerar a solução desejada. A transferência entre malhas grossas e finas é feita pelo filtro de Mitchell, um esquema bem conhecido que é projetado para preservação de arestas. Além disso, a equação do transporte e a Equação do Fluxo de Curvatura são adaptadas à nossa técnica para retoque em imagens e eliminação de ruí?dos. Resultados numéricos são comparados quantitativamente e qualitativamente com outras abordagens, mostrando que o método aqui introduzido produz qualidade de imagens similares com muito menos tempo computacional. / Techniques based on the Well-Balanced Flow Equation have been employed as an efficient tool for edge preserving noise removal. Although effective, this technique demands high computational effort, rendering it not practical in several applications. This work aims at proposing a multigrid-like technique for speeding up the solution of the Well- Balanced Flow equation. In fact, the diffusion equation is solved in a coarse grid and a coarse-to-fine error correction is applied in order to generate the desired solution. The transfer between coarser and finer grids is made by the Mitchell-Filter, a well known interpolation scheme that is designed for preserving edges. Furthermore, the solution of the transport and the Mean Curvature Flow equations is adapted to the multigrid like technique for image inpainting and denoising. Numerical results are compared quantitative and qualitatively with other approaches, showing that our method produces similar image quality with much lower computational time.
25

Identificação de descontinuidades em peças metálicas utilizando sinais ultrassônicos e técnicas de problemas inversos

Guarneri, Giovanni Alfredo 17 July 2015 (has links)
CNPQ; LASCA / Este trabalho propõe um algoritmo para identificar descontinuidades internas em uma peça metálica a partir de sinais A-scan provenientes de um ensaio não-destrutivo por ultrassom. As descontinuidades são identificadas por seu formato, dimensões, orientação e localização. Esse algoritmo é baseado na resolução de problemas inversos. O problema da identificação de descontinuidades é modelado utilizando uma abordagem inédita, em que a descontinuidade é caracterizada por dois elementos distintos: a sua amplitude de espalhamento e a localização de seu centro. Com essa nova forma de representação, o problema de identificação da descontinuidade passa a ser dividido em dois subproblemas. O primeiro é o problema de reconstrução para encontrar a localização do centro da descontinuidade e o segundo é o problema de caracterização para estimar os parâmetros geométricos da descontinuidade. Os ensaios realizados comprovam que o problema de localização é resolvido de forma satisfatória utilizando o algoritmo de reconstrução de imagens esparsas UTSR (ultrasonic sparse reconstruction). A caracterização da descontinuidade é realizada por um algoritmo baseado no método dos mínimos quadrados não-lineares, com a inclusão de um termo de regularização não-quadrático utilizando norma l1. Os resultados obtidos tanto com dados simulados como com dados experimentais mostram que esse algoritmo estima as descontinuidades de forma satisfatória. / The present work proposes an algorithm to identify internal discontinuities in metallic specimen from A-scan ultrasonic signals. Discontinuities are identified by their shape, size, orientation and location. This algorithm is based on inverse problems. The identification of discontinuities is modeled using a novel approach. The discontinuity is modeled by two distinct elements: its scattering amplitude and its center location. Through this approach, the identification problem is split into two sub problems. The first is a reconstruction problem to find the location of the discontinuity. The second is a model identification problem to estimate geometric parameters of the discontinuity. Simulations and experimental validation show that the localization problem is satisfactorily solved using the UTSR (ultrasonic sparse reconstruction) algorithm. The characterization of discontinuities is carried out by an algorithm based on non-linear least squares with l1 norm regularization. The results obtained with simulated data as well with experimental data show a fine estimation of discontinuities.
26

Paralelização do algoritmo FDK para reconstrução 3D de imagens tomográficas usando unidades gráficas de processamento e CUDA-C / Parallelization of the FDK algotithm for 3D reconstruction of tomographic images using graphic processing units and CUDA-C

Joel Sánchez Domínguez 12 January 2012 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos). / The imaging using computed tomography has revolutionized the diagnosis of diseases in medicine and is widely used in different areas of scientific research. As part of the process to obtained three-dimensional tomographic images a set of x-rays are processed by a computer algorithm, the most widely used algorithm is Feldkamp, David and Kress (FDK). The use of parallel processing to speed up calculations on computer algorithms with the different available technologies, showing their usefulness to decrease processing times. In the present paper presents the parallelization of the algorithm for three-dimensional image reconstruction FDK using graphics processing units (GPU) and CUDA-C. GPUs are shown as a viable option to perform parallel computing and addressed the introductory concepts associated with computed tomographic, GPUs, CUDA-C and parallel processing. The parallel version of the FDK algorithm is executed on the GPU and compared to a serial version of the same, showing higher processing speed. Performance tests were made in two GPUs with different capacities, the NVIDIA GeForce 9400GT (16 cores) and NVIDIA GeForce 2000 (192 cores).
27

Paralelização do algoritmo FDK para reconstrução 3D de imagens tomográficas usando unidades gráficas de processamento e CUDA-C / Parallelization of the FDK algotithm for 3D reconstruction of tomographic images using graphic processing units and CUDA-C

Joel Sánchez Domínguez 12 January 2012 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos). / The imaging using computed tomography has revolutionized the diagnosis of diseases in medicine and is widely used in different areas of scientific research. As part of the process to obtained three-dimensional tomographic images a set of x-rays are processed by a computer algorithm, the most widely used algorithm is Feldkamp, David and Kress (FDK). The use of parallel processing to speed up calculations on computer algorithms with the different available technologies, showing their usefulness to decrease processing times. In the present paper presents the parallelization of the algorithm for three-dimensional image reconstruction FDK using graphics processing units (GPU) and CUDA-C. GPUs are shown as a viable option to perform parallel computing and addressed the introductory concepts associated with computed tomographic, GPUs, CUDA-C and parallel processing. The parallel version of the FDK algorithm is executed on the GPU and compared to a serial version of the same, showing higher processing speed. Performance tests were made in two GPUs with different capacities, the NVIDIA GeForce 9400GT (16 cores) and NVIDIA GeForce 2000 (192 cores).
28

Restauração de imagens com precisão subpixel utilizando restrições convexas / Restoring images with subpixel precision using restrictions

Antunes Filho, Amauri 09 December 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:27:18Z No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:27:31Z (GMT) No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:39:27Z (GMT) No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Made available in DSpace on 2017-06-01T14:39:33Z (GMT). No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) Previous issue date: 2016-12-09 / Não recebi financiamento / The super-resolution aims to obtain a higher resolution image, using information from one or more low resolution images. There are different applications where super-resolution may be used, such as medical and forensic images. This work proposes a study and development of algorithms, based on Tekalp and Sezan’s algorithm, using the projection onto convex sets theory, in order to obtain super-resolution, therefore obtaining a higher resolution image, from a low resolution images set, with subpixel informations. We proposed the adition of a convex restriction based on Richardon-Lucy’s algorithm, modified to be weighted by Canny’s filter, along with total variation regularization, aiming to restore frequencies lost during high resolution images decimation and degradation processes . Therefore, we have a hybrid approach, that implements spatial and spectral super-resolution simultaneously, based on projection onto convex sets. The obtained results by the proposed algorithms were compared to Tekalp and Sezan’s base algorithm. The visual analysis of the images, along with the mean square error were taken in consideration for comparisons. In development, grayscale images were used, but the methods are extensible for color images. Results showed improvement in the obtained images, with less noise, blurring and more edge definition than the low resolution images. We conclude that the approach has potential for medical applications and forensic computation. / A super-resolução tem por objetivo a obtenção de uma imagem de maior resolução, utilizando informações de uma ou mais imagens de baixa resolução. Existem diferentes aplicações onde a utilização da super-resolução é empregada, como imagens médicas e forenses. A proposta deste trabalho é o estudo e desenvolvimento de algoritmos, baseados no algoritmo de Tekalp e Sezan, que utilizam a teoria de projeções sobre conjuntos convexos com o objetivo de super-resolução, obtendo uma imagem de maior resolução a partir de um conjunto de imagens com informações subpixel. Propomos também, uma restrição convexa baseada no algoritmo de Richardson-Lucy, modificado para ser ponderado pelo filtro de Canny, juntamente com regularização total variation, com o intuito de restaurar frequências perdidas durante os processos de decimação e degradação das imagens de alta resolução. Com isso temos uma abordagem híbrida, que implementa super-resolução espacial e espectral simultaneamente, baseada em projeções sobre conjuntos convexos. Os resultados obtidos pelos algoritmos propostos foram comparados com o algoritmo base de Tekalp e Sezan. Para as comparações, levou-se em consideração a análise visual das imagens juntamente com o erro quadrático médio. No desenvolvimento, foram utilizadas imagens em tons de cinza, mas os métodos são extensíveis para imagens coloridas. Os resultados apresentaram melhoria nas imagens obtidas em relação as imagens de baixa resolução, minimizando o ruído, o borramento e melhor definição das bordas. Concluímos que a abordagem possui potencial para aplicações médicas e em computação forense.
29

Mapeamento de ambientes utilizando sonares e problemas inversos

Dias, Eduardo Tondin Ferreira 10 July 2015 (has links)
CAPES-DS / Em robótica móvel, um robô autônomo deve se deslocar por um ambiente sem colidir com os obstáculos ao seu redor. Com essa finalidade, várias pesquisas tem sido efetuadas ao longo dos anos, utilizando-se principalmente de sensores sonares para a aquisição de dados de distância aos obstáculos presentes no ambiente. A abordagem tradicional utilizada nesse conceito é baseada no tempo de voo do sinal ultrassônico, em que a distância entre robô e obstáculo é calculada através do período de tempo entre o envio e retorno do sinal. Essa técnica visa somente identificar a presença ou não de um obstáculo, resultando em representações de baixa resolução do ambiente, por não considerar características inerentes às reflexões ultrassônicas. Neste trabalho é apresentada uma nova abordagem, inspirada nas recentes pesquisas de imageamento através de ultrassom na área médica, com foco em problemas inversos. O objetivo é efetuar mapeamento de ambientes com uma melhor resolução e sem a necessidade da aquisição de múltiplas ondas ultrassônicas. As reconstruções das imagens foram realizadas a partir da aquisição das reflexões ultrassônicas utilizando sonares em um ambiente de testes controlado com apenas um obstáculo presente. Os experimentos efetuados visaram a comparação entre os principais métodos de reconstrução de imagens existentes, com foco em mapeamento de ambientes. Os métodos de reconstrução por problemas inversos apresentaram resultados promissores, principalmente se comparados ao método tradicional de reconstrução de imagens, delay and sum beamforming, da área médica. / An autonomous mobile robot must be able to move through an environment without colliding with obstacles. This subject has been investigated by researchers over the years, mainly using sonar sensors to acquire distance data. The traditional approach used in this concept is based on the time of flight technique, in which the distances between the robot and obstacles are computed using the period of time between sending and receiving the ultrasonic wave. This technique aims only at the detection of obstacles, reconstructing the environment in low resolution since it does not consider inherent characteristics of ultrasonic reflections. The present work introduces a new approach, based on recent research on medical image reconstruction. The goal is to achieve environmental mapping in higher resolution, but without the need to acquire multiple ultrasonic bursts. The image reconstructions were made through the acquisition of ultrasonic reflections using sonars in a controlled test environment containing only one obstacle. Experiments were conducted to compare some of the existing image reconstruction methods, focusing on environment mapping. Inverse problems showed promising results, especially when compared to the traditional method of medical image reconstruction, delay and sum beamforming.
30

Mapeamento de ambientes utilizando sonares e problemas inversos

Dias, Eduardo Tondin Ferreira 10 July 2015 (has links)
CAPES-DS / Em robótica móvel, um robô autônomo deve se deslocar por um ambiente sem colidir com os obstáculos ao seu redor. Com essa finalidade, várias pesquisas tem sido efetuadas ao longo dos anos, utilizando-se principalmente de sensores sonares para a aquisição de dados de distância aos obstáculos presentes no ambiente. A abordagem tradicional utilizada nesse conceito é baseada no tempo de voo do sinal ultrassônico, em que a distância entre robô e obstáculo é calculada através do período de tempo entre o envio e retorno do sinal. Essa técnica visa somente identificar a presença ou não de um obstáculo, resultando em representações de baixa resolução do ambiente, por não considerar características inerentes às reflexões ultrassônicas. Neste trabalho é apresentada uma nova abordagem, inspirada nas recentes pesquisas de imageamento através de ultrassom na área médica, com foco em problemas inversos. O objetivo é efetuar mapeamento de ambientes com uma melhor resolução e sem a necessidade da aquisição de múltiplas ondas ultrassônicas. As reconstruções das imagens foram realizadas a partir da aquisição das reflexões ultrassônicas utilizando sonares em um ambiente de testes controlado com apenas um obstáculo presente. Os experimentos efetuados visaram a comparação entre os principais métodos de reconstrução de imagens existentes, com foco em mapeamento de ambientes. Os métodos de reconstrução por problemas inversos apresentaram resultados promissores, principalmente se comparados ao método tradicional de reconstrução de imagens, delay and sum beamforming, da área médica. / An autonomous mobile robot must be able to move through an environment without colliding with obstacles. This subject has been investigated by researchers over the years, mainly using sonar sensors to acquire distance data. The traditional approach used in this concept is based on the time of flight technique, in which the distances between the robot and obstacles are computed using the period of time between sending and receiving the ultrasonic wave. This technique aims only at the detection of obstacles, reconstructing the environment in low resolution since it does not consider inherent characteristics of ultrasonic reflections. The present work introduces a new approach, based on recent research on medical image reconstruction. The goal is to achieve environmental mapping in higher resolution, but without the need to acquire multiple ultrasonic bursts. The image reconstructions were made through the acquisition of ultrasonic reflections using sonars in a controlled test environment containing only one obstacle. Experiments were conducted to compare some of the existing image reconstruction methods, focusing on environment mapping. Inverse problems showed promising results, especially when compared to the traditional method of medical image reconstruction, delay and sum beamforming.

Page generated in 0.5007 seconds