• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • Tagged with
  • 14
  • 14
  • 10
  • 10
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconstrução tomográfica utilizando o FPSIRT (Fast Article System Interative Reconstruction Technique)

MOREIRA, Ícaro Valgueiro Malta 04 March 2015 (has links)
Submitted by Luiza Maria Pereira de Oliveira (luiza.oliveira@ufpe.br) on 2015-05-18T12:07:21Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação ivmm versão final.pdf: 5845365 bytes, checksum: 59b97eea615b9e0bea49e3c6eeb45a38 (MD5) / Made available in DSpace on 2015-05-18T12:07:21Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação ivmm versão final.pdf: 5845365 bytes, checksum: 59b97eea615b9e0bea49e3c6eeb45a38 (MD5) Previous issue date: 2015-03-04 / O PSIRT - Particle System Iterative Reconstruction Technique – é um método de reconstrução tomográfica de imagens primariamente desenvolvido para configurações compatíveis com aplicações industriais. Sistema de partícula é uma técnica de otimização inspirada em características da real física de sistemas que associa ao material reconstruído um conjunto de partículas com certas características físicas, sujeitas a um campo de força, que pode produzir movimento. O sistema constantemente atualiza a rede de partículas reposicionando-as numa forma que elas se aproximam do equilíbrio. A potencial elástica ao longo de um raio é uma função da diferença do coeficiente de atenuação de uma determinada configuração e a entrada correspondente. O PSIRT tem sido usado com sucesso para reconstruir objetos simulados e reais para configurações paralelas e fanbeam em diferentes ângulos, representando os arranjos comuns de tomografia de raios gama. Uma das limitações do PSIRT era o seu desempenho muito aquém da reconstrução em tempo real, e assim, neste trabalho a sua modelagem computacional foi inteiramente reformulada, dando origem ao FPSIRT - Fast System Iterative Reconstruction Technique, capaz de aumentar sua velocidade por um fator de até 200 vezes em alguns experimentos mantendo a mesma qualidade de reconstrução. / The PSIRT – Particle System Iterative Reconstruction Technique– is a method of tomographic image reconstruction primarily designed to work with configurations suitable for industrial applications. A particle system is an optimization technique inspired in real physical systems that associates to the reconstructing material a set of particles with certain physical features, subject to a force field, which can produce movement. The system constantly updates the set of particles by repositioning them in such a way as to approach the equilibrium. The elastic potential along a trajectory is a function of the difference between the attenuation coefficient in the current configuration and the corresponding input data. PSIRT has been successfully used to reconstruct simulated and real objects subject to sets of parallel and fanbeam lines in different angles, representing typical gamma-ray tomographic arrangements. One of the limitations was that its performance performance is very slow when compared to real time. In this dissertation, PSIRT is totally redesigned, giving origin to FPSIRT – Fast System Iterative Reconstruction Technique. The FPSIRT can reconstruct until 200 times faster than PSIRT in some experiments.
2

Reconstrução Tomográfica com superfícies B-splines

Ferreira de Oliveira, Eric 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:14:42Z (GMT). No. of bitstreams: 2 arquivo2690_1.pdf: 6789118 bytes, checksum: 05cc3d356f57a760866a4fc16453b6e0 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Vários estudos têm indicado que, das várias classes de algoritmos de reconstrução aplicáveis para dados limitados, os baseados na técnica de reconstrução algébrica são mais flexíveis e precisos. Infelizmente, estas técnicas, geralmente, sofrem de ruídos ocasionados por processos de correção durante a reconstrução e também por inconsistências nos dados adquiridos pelos tomógrafos. O pós - processamento da imagem reconstruída com a aplicação de filtros pode ser feito para atenuar a presença de ruídos, mas geralmente atenuam também as descontinuidades presentes em bordas que distinguem objetos ou falhas. O presente trabalho propõe a redução de ruídos assegurando a continuidade (das derivadas) da superfície antes da reconstrução, representando cada incógnita por uma combinação linear de pontos de controle e suas bases B-splines. São aplicadas três bases Bsplines: B1 , B2 e B3, assegurando as continuidade C0, C1 e C2, respectivamente. Para validação da técnica, foram utilizadas simulações de modelos propostos na literatura e medidas experimentais por tomografia gama. Os resultados foram comparados com as técnicas algébricas ART, SIRT, MART e SMART, sendo validada satisfatoriamente para todos os phantoms propostos. Todas as bases B-splines aplicadas obtiveram erros menores que as técnicas de correção ART e SIRT, sendo a B3, a de melhor desempenho. Este resultado pode ser explicado pelas restrições de suavidade impostas à superfície reconstruída pelas bases Bsplines e a inclinação das técnicas aditivas a ruídos, principalmente para um número limitado de dados (5 e 10 vistas). A performance das técnicas multiplicativas para essa situação é a melhor, mostrando uma imagem sem artefatos e com pouco ruído. Devido a esse fato, a técnica b-spline não tem bons resultados, apresentando na maioria dos casos, erros maiores. Para todos os testes realizados, as técnicas de representação B-splines superaram os filtros de mesma natureza aplicados no pós-processamento, sugerindo que a técnica seja utilizada no lugar da filtragem pós-processamento
3

Reconstrução Quantitativa de SPECT: Avaliação de Correções / Quantitative Reconstruction of SPECT: Evaluation of Corrections

Silva, Ana Maria Marques da 23 October 1998 (has links)
O objetivo deste trabalho foi avaliar a influência das correções de atenuação e espalhamento na reconstrução quantitativa em SPECT. O estudo foi baseado em diversas simulações de Monte Carlo, com ênfase especial no modelo torso-cardíaco matemático (MCAT). Para a reconstrução, foi utilizado o algoritmo iterativo ML-EM com projetor-retroprojetor modificado pelo mapa de atenuação. Para avaliar a correção de espalhamento, foram simulados os espectros energéticos, com múltiplas ordens de espalhamento Compton. O método da dupla janela de energia (Jaszczak) foi aplicado, devido a sua simplicidade, e as imagens corrigidas foram comparadas com as de fótons primários. Foram analisadas as escolhas das janelas do fotopico e espalhamento, além da dependência do fator de espalhamento k com a distribuição de atividades do objeto. Duas abordagens foram adotadas para a obtenção dos mapas de atenuação: a estimativa do mapa uniforme diretamente dos dados de emissão, sem o uso de imagens de transmissão; e o borramento de mapas não-uniformes, reconstruídos a partir das projeções por transmissão. A estimativa do mapa de atenuação diretamente dos sinogramas de emissão baseou-se nas condições de consistência da transformada de Radon atenuada. Neste caso, foram estudados os efeitos de diferentes contagens e vários coeficientes de atenuação iniciais sobre as imagens corrigidas. Os mapas de atenuação não-uniformes foram borrados com um \"kernei\" gaussiano, aplicados nas correções e os efeitos na quantificação foram analisados. Os espectros energéticos emitidos pelo modelo MCAT mostraram que os fótons espalhados não poderiam ser excluídos a contento, mesmo que fossem utilizadas janelas de aquisição estreitas sobre o fotopico. Em relação a correção de Jaszczak, verificou-se que a escolha das janelas de fotopico e espalhamento é crucial e confirmou-se que o valor de k é altamente dependente do objeto examinado. Dada uma estimativa inicial do mapa de atenuação, o uso das condições de consistência para estimar o mapa de atenuação uniforme, consistente com os dados de emissão do modelo MCAT simulado, resultou sempre em uma mesma forma, para quaisquer valores iniciais do conjunto de parâmetros. Apesar do erro diminuir com o aumento da contagem, o melhor coeficiente de atenuação não pôde ser obtido, mesmo em altas contagens. Isto se deve a presença dos fótons espalhados, que alteraram a solução das condições de consistência, reduzindo as dimensões do mapa. Os resultados indicaram que a correção de espalhamento é o fator mais importante na reconstrução quantitativa em SPECT. Com referência aos efeitos quantitativos da correção de atenuação, não foram observadas diferenças significativas com a utilização dos mapas borrados, enquanto que a correção com mapas uniformes mostrou-se menos eficaz. / The goal of this work is to evaluate the influence of scatter and attenuation correction methods in quantitative SPECT reconstruction. The study was based on several Monte Carlo simulations, with special emphasis on the mathematical cardiac-torso phantom (MCAT). Iterative ML-EM reconstruction with modified projector-backprojector was used. To evaluate the scatter correction, energy spectra were simulated for SPECT imaging including multiple order Compton scattered photons. The dual energy window method proposed by Jaszczak was applied and scatter corrected images were compared with primary photons images. The choice of the scattering and photopeak windows and the dependence of the scatter factor k with the activity distribution were also analysed. Two approaches were adopted for obtaining the maps for attenuation correction: the estimation of the attenuation maps directly from the emission data, without transmission imaging, and the blurring of non-uniform attenuation maps, reconstructed from transmission data. The estimation of attenuation maps directly from the emission sinograms was based on the consistency conditions of attenuated Radon transform. In this case, the effects of different counting rates and various initial attenuation coefficients on the corrected images were studied. The non-uniform attenuation maps were blurred with a gaussian kernel with different variances, applied in further corrections and their effects on quantitation were examined. Analysis of energy spectra emitted from the MCAT phantom showed that scattered photons cannot be totally excluded, even when narrow acquisition windows were used. As far as the Jaszczak correction is concerned, results showed that the choice of photopeak and secondary windows is crucial and that the value of k is highly dependent on the imaged object. Given an initial estimation of the attenuation map with a constant coefficient, the use of consistency conditions to estimate the uniform map, consistent with the emission data of simulated MCAT phantom, resulted in the same shape for any set of initial parameters. In spite of the fact that the error falls with increasing counting rate, higher counts are not able to determine the best attenuation coefficient. This is due to scattered photons, which alter the solution of consistency conditions, reducing the size of estimated maps. Results indicated that the scatter correction is the most important factor inquantitative SPECT reconstruction. Furthermore, no significant differences were observed in the quantitation, when using the blurred non- uniform attenuation maps in attenuation correction, while corrections with uniform maps proved to be less efficient
4

Métodos híbridos para reconstrução tomográfica de imagens usando POCS e teoria da estimação / Hybrid methods for tomographic image reconstruction using POCs and estimation theory

Salina, Fernando Vernal 16 April 2007 (has links)
Nesta tese é apresentado um novo método de reconstrução de imagens, por tomografia de transmissão, de projeções sujeitas a ruído na contagem de fótons. O método de reconstrução selecionado utiliza a técnica POCS (Projections Onto Convex Sets). A estimação das projeções originais a partir das observações ruidosas se dá por meio de quatro métodos: a) estimação utilizando o critério MAP (Maximum a Posteriori); b) filtragem nos coeficientes wavelets das projeções ruidosas; c) aplicação do filtro de Wiener pontual e d) aplicação do filtro de Goodman-Belsher. É apresentado o resultado da reconstrução após a estimação das projeções, mostrando o ISNR (Improvement Signal-to-Noise Ratio) entre as imagens reconstruídas, a partir das projeções ruidosas, com a técnica POCS, estimando as projeções e sem a realização da estimação. Foram utilizados, para reconstrução tomográfica, projeções de corpos de prova obtidos por meio de simulação e também projeções obtidas experimentalmente no minitomógrafo do CNPDIA - EMBRAPA. O uso de estimação sobre as projeções ruidosas mostrou-se eficaz para melhorar a relação sinal-ruído na imagem final, pois esse pré-processamento faz com que os conjuntos impostos pelas projeções sejam mais restritivos. Deve-se observar que a melhoria das imagens obtidas com o uso de filtragem das projeções é obtida com uma relação custo-benefício bastante baixa, pois a maior parte do custo computacional está na fase de reconstrução das imagens. / In this thesis is pesented a new method for image reconstruction, by transmission tomography, for projections under noise in the counting of photons. The selected method of reconstruction uses the POCS (Projections Onto Convex Sets) technique. The estimation of the original projections from the noisy projections observed is performed through four methods: a) estimation using the MAP (Maximum a Posteriori) criteria; b) through of filtering of the wavelets coefficients of the noisy projections; c) using the pointwise Wiener filter and d) using the Goodman-Belsher filter. We present the result of reconstruction after projection estimation, showing the ISNR (Improvement Signal-to-Noise Ratio) between the reconstructed images on noisy projections, using POCS technique after the estimated projections and without this estimation. We use, for tomographic reconstruction, test body projections obtained through simulation and also projections obtained experimentally in the minitomograph scanner of CNPDIA-EMBRAPA. The use of estimation on noisy projections demonstrated to be efficient in improving the signalnoise ratio in the final image, since this pre-processing makes the sets that projections more restrictive. We should observe that the use of projection filtering is obtained with a cost-benefit ratio rather low, since the largest part of the computational effort is in the image reconstruction phase.
5

Métodos híbridos para reconstrução tomográfica de imagens usando POCS e teoria da estimação / Hybrid methods for tomographic image reconstruction using POCs and estimation theory

Fernando Vernal Salina 16 April 2007 (has links)
Nesta tese é apresentado um novo método de reconstrução de imagens, por tomografia de transmissão, de projeções sujeitas a ruído na contagem de fótons. O método de reconstrução selecionado utiliza a técnica POCS (Projections Onto Convex Sets). A estimação das projeções originais a partir das observações ruidosas se dá por meio de quatro métodos: a) estimação utilizando o critério MAP (Maximum a Posteriori); b) filtragem nos coeficientes wavelets das projeções ruidosas; c) aplicação do filtro de Wiener pontual e d) aplicação do filtro de Goodman-Belsher. É apresentado o resultado da reconstrução após a estimação das projeções, mostrando o ISNR (Improvement Signal-to-Noise Ratio) entre as imagens reconstruídas, a partir das projeções ruidosas, com a técnica POCS, estimando as projeções e sem a realização da estimação. Foram utilizados, para reconstrução tomográfica, projeções de corpos de prova obtidos por meio de simulação e também projeções obtidas experimentalmente no minitomógrafo do CNPDIA - EMBRAPA. O uso de estimação sobre as projeções ruidosas mostrou-se eficaz para melhorar a relação sinal-ruído na imagem final, pois esse pré-processamento faz com que os conjuntos impostos pelas projeções sejam mais restritivos. Deve-se observar que a melhoria das imagens obtidas com o uso de filtragem das projeções é obtida com uma relação custo-benefício bastante baixa, pois a maior parte do custo computacional está na fase de reconstrução das imagens. / In this thesis is pesented a new method for image reconstruction, by transmission tomography, for projections under noise in the counting of photons. The selected method of reconstruction uses the POCS (Projections Onto Convex Sets) technique. The estimation of the original projections from the noisy projections observed is performed through four methods: a) estimation using the MAP (Maximum a Posteriori) criteria; b) through of filtering of the wavelets coefficients of the noisy projections; c) using the pointwise Wiener filter and d) using the Goodman-Belsher filter. We present the result of reconstruction after projection estimation, showing the ISNR (Improvement Signal-to-Noise Ratio) between the reconstructed images on noisy projections, using POCS technique after the estimated projections and without this estimation. We use, for tomographic reconstruction, test body projections obtained through simulation and also projections obtained experimentally in the minitomograph scanner of CNPDIA-EMBRAPA. The use of estimation on noisy projections demonstrated to be efficient in improving the signalnoise ratio in the final image, since this pre-processing makes the sets that projections more restrictive. We should observe that the use of projection filtering is obtained with a cost-benefit ratio rather low, since the largest part of the computational effort is in the image reconstruction phase.
6

Reconstrução Quantitativa de SPECT: Avaliação de Correções / Quantitative Reconstruction of SPECT: Evaluation of Corrections

Ana Maria Marques da Silva 23 October 1998 (has links)
O objetivo deste trabalho foi avaliar a influência das correções de atenuação e espalhamento na reconstrução quantitativa em SPECT. O estudo foi baseado em diversas simulações de Monte Carlo, com ênfase especial no modelo torso-cardíaco matemático (MCAT). Para a reconstrução, foi utilizado o algoritmo iterativo ML-EM com projetor-retroprojetor modificado pelo mapa de atenuação. Para avaliar a correção de espalhamento, foram simulados os espectros energéticos, com múltiplas ordens de espalhamento Compton. O método da dupla janela de energia (Jaszczak) foi aplicado, devido a sua simplicidade, e as imagens corrigidas foram comparadas com as de fótons primários. Foram analisadas as escolhas das janelas do fotopico e espalhamento, além da dependência do fator de espalhamento k com a distribuição de atividades do objeto. Duas abordagens foram adotadas para a obtenção dos mapas de atenuação: a estimativa do mapa uniforme diretamente dos dados de emissão, sem o uso de imagens de transmissão; e o borramento de mapas não-uniformes, reconstruídos a partir das projeções por transmissão. A estimativa do mapa de atenuação diretamente dos sinogramas de emissão baseou-se nas condições de consistência da transformada de Radon atenuada. Neste caso, foram estudados os efeitos de diferentes contagens e vários coeficientes de atenuação iniciais sobre as imagens corrigidas. Os mapas de atenuação não-uniformes foram borrados com um \"kernei\" gaussiano, aplicados nas correções e os efeitos na quantificação foram analisados. Os espectros energéticos emitidos pelo modelo MCAT mostraram que os fótons espalhados não poderiam ser excluídos a contento, mesmo que fossem utilizadas janelas de aquisição estreitas sobre o fotopico. Em relação a correção de Jaszczak, verificou-se que a escolha das janelas de fotopico e espalhamento é crucial e confirmou-se que o valor de k é altamente dependente do objeto examinado. Dada uma estimativa inicial do mapa de atenuação, o uso das condições de consistência para estimar o mapa de atenuação uniforme, consistente com os dados de emissão do modelo MCAT simulado, resultou sempre em uma mesma forma, para quaisquer valores iniciais do conjunto de parâmetros. Apesar do erro diminuir com o aumento da contagem, o melhor coeficiente de atenuação não pôde ser obtido, mesmo em altas contagens. Isto se deve a presença dos fótons espalhados, que alteraram a solução das condições de consistência, reduzindo as dimensões do mapa. Os resultados indicaram que a correção de espalhamento é o fator mais importante na reconstrução quantitativa em SPECT. Com referência aos efeitos quantitativos da correção de atenuação, não foram observadas diferenças significativas com a utilização dos mapas borrados, enquanto que a correção com mapas uniformes mostrou-se menos eficaz. / The goal of this work is to evaluate the influence of scatter and attenuation correction methods in quantitative SPECT reconstruction. The study was based on several Monte Carlo simulations, with special emphasis on the mathematical cardiac-torso phantom (MCAT). Iterative ML-EM reconstruction with modified projector-backprojector was used. To evaluate the scatter correction, energy spectra were simulated for SPECT imaging including multiple order Compton scattered photons. The dual energy window method proposed by Jaszczak was applied and scatter corrected images were compared with primary photons images. The choice of the scattering and photopeak windows and the dependence of the scatter factor k with the activity distribution were also analysed. Two approaches were adopted for obtaining the maps for attenuation correction: the estimation of the attenuation maps directly from the emission data, without transmission imaging, and the blurring of non-uniform attenuation maps, reconstructed from transmission data. The estimation of attenuation maps directly from the emission sinograms was based on the consistency conditions of attenuated Radon transform. In this case, the effects of different counting rates and various initial attenuation coefficients on the corrected images were studied. The non-uniform attenuation maps were blurred with a gaussian kernel with different variances, applied in further corrections and their effects on quantitation were examined. Analysis of energy spectra emitted from the MCAT phantom showed that scattered photons cannot be totally excluded, even when narrow acquisition windows were used. As far as the Jaszczak correction is concerned, results showed that the choice of photopeak and secondary windows is crucial and that the value of k is highly dependent on the imaged object. Given an initial estimation of the attenuation map with a constant coefficient, the use of consistency conditions to estimate the uniform map, consistent with the emission data of simulated MCAT phantom, resulted in the same shape for any set of initial parameters. In spite of the fact that the error falls with increasing counting rate, higher counts are not able to determine the best attenuation coefficient. This is due to scattered photons, which alter the solution of consistency conditions, reducing the size of estimated maps. Results indicated that the scatter correction is the most important factor inquantitative SPECT reconstruction. Furthermore, no significant differences were observed in the quantitation, when using the blurred non- uniform attenuation maps in attenuation correction, while corrections with uniform maps proved to be less efficient
7

Estudo sobre a viabilidade da tomografia eletromagnética na medição do perfil de velocidades de escoamentos monofásicos em dutos / Study on viability of the electromagnetic tomography in the velocity profile measurements on monophase flow in pipe

Figueroa, Teodora Pinheiro 09 September 2005 (has links)
Este trabalho apresenta um estudo prospectivo referente ao desenvolvimento de um medidor eletromagnético inteligente de vazão, cuja finalidade é determinar a vazão de escoamento a partir da reconstrução do perfil de velocidade utilizando técnicas tomográficas. Em conseqüência disso, o medidor de vazão será capaz de corrigir a vazão dada, através da integração do perfil de velocidade correto reconstruído por tomografia. A técnica de reconstrução tomográfica utilizada é baseada na construção de um funcional de erro, gerado a partir da diferença entre voltagens simuladas numericamente para uma condição experimental, conhecidos os parâmetros determinantes da velocidade no interior da tubulação, e voltagens aproximadas simuladas numericamente para aproximações destes parâmetros. Neste trabalho, o modelo físico do medidor eletromagnético de vazão é baseado em um número de eletrodos colocados sobre as paredes do tubo sob uma estratégia de excitação específica, sem injeção de corrente, considerando o campo magnético uniforme. A partir da expansão do funcional de erro, sobre um conjunto de funções conhecidas, uma superfície de erro é gerada. As características da patologia desta superfície requerem outros tipos de técnicas de otimização. Técnicas tradicionais de otimização não são viáveis, pois o processo de busca pára no primeiro mínimo local encontrado. Essa convergência para mínimos locais é justificada devido à presença de regiões planas e vales apresentando vários mínimos locais circundando o ponto de mínimo global (ou ponto referente aos parâmetros ótimos da velocidade). Em vista da ocorrência deste fato, técnicas baseadas em algoritmos evolucionários são testadas e apresentadas para uma série de casos demonstrando a praticidade de nossa pesquisa. / This work presents a prospective study on the development of an intelligent electromagnetic flow meter intended to determine output based on the reconstruction of velocity profile using tomographic techniques. As a result, the flow meter will be able to correct the output measure through the integration of the right velocity profile produced by tomography. The tomographic reconstruction technique utilized is based on the definition of an error functional generated from the difference between voltages simulated numerically for a experimental condition, being known the parameters which define the velocity within the pipe and approximate voltages simulated numerically for approaches of these parameters. In this work the physical model of the electromagnetic flow meter is based on a number of electrodes flush mounted on pipe walls and under a specific strategy of excitement, without electrical current input and considering the magnetic field uniform. From the expansion of the error functional over a set of known functions an error surface is generated. The characteristics of the pathology of this surface require other types of optimization techniques. Traditional optimization techniques are not viable since the search stops at the first local minimum. This convergence to local minimums is justified due to the presence of flat regions and valleys presenting several local minimums around the global minimum point (or point relative to the optimum parameters of velocity). Due to this fact techniques based on evolutionary algorithms are tested and presented for a series of cases demonstrating the usefulness of our research.
8

Um modelo de reconstrução tomográfica 3D para amostras agrícolas com filtragem de Wiener em processamento paralelo / A 3D Tomographic Reconstruction Model for Agricultural Samples with Wiener Filtering and Parallel Processing

Pereira, Mauricio Fernando Lima 19 June 2007 (has links)
Neste trabalho, é apresentado um novo modelo de reconstrução tridimensional (3D) para amostras agrícolas com filtragem de Wiener em processamento paralelo, o qual é obtido a partir de reconstruções tomográficas bidimensionais (2D). No desenvolvimento, foram modelados algoritmos paralelos de retroprojeção filtrada e reconstrução tridimensional, baseando-se na inserção de um conjunto de planos virtuais entre pares de planos reais obtidos em ensaios tomográficos de raios X na faixa de energia de 56 keV a 662 keV. No modelo, os planos virtuais gerados em algoritmo paralelo são implementados com base na técnica de interpolação por B-Spline-Wavelet. Para validação do modelo desenvolvido, foi utilizada uma plataforma paralela composta de 4 processadores DSP, a qual possibilitou a troca de dados entre os processadores DSP e o envio de informações para o host, um computador desktop com processador Pentium III operando em 800 MHz. A extração de medidas de eficiência, de ganho e de precisão dos algoritmos paralelos foi realizada com base em um conjunto de amostras agrícolas (solo, vidro e madeiras) e de phantoms de calibração. Nessa avaliação, observou-se que o algoritmo de reconstrução 2D, utilizado como base para o algoritmo de reconstrução 3D, possibilitou uma alta eficiência para imagens de maior resolução, atingindo um pico de 92% de eficiência na resolução de 181X181 pixels. O algoritmo paralelo de reconstrução 3D foi analisado para um conjunto de amostras, sob diferentes configurações de planos reais e virtuais, organizados de forma a possibilitarem a avaliação do impacto causado pelo aumento da granularidade da comunicação e da carga de trabalho. Um melhor desempenho, com ganho médio igual a 3,4, foi obtido na reconstrução de objetos que demandaram o cálculo de um maior número de planos. Também, buscou-se conhecer a adaptabilidade do modelo para uso em arquitetura convencional, sendo que neste caso o uso de MPI permitiu a comunicação entre as tarefas projetadas em cada algoritmo paralelo. Adicionamente, foram incluídas ferramentas de visualização 2D e 3D para que usuários possam analisar as imagens e as características das amostras agrícolas em ambiente tridimensional. Os resultados obtidos indicam que o modelo de reconstrução 3D paralela trouxe contribuições originais para a área de tomografia agrícola aplicada à física de solos, bem como para a criação de ferramentas que viabilizem explorar recursos computacionais disponíveis em arquiteturas paralelas que demandem elevada capacidade de processamento. / This work presents a new method for three dimensional (3D) image reconstruction dedicated to the investigation in soil physics by means of X-ray tomography which is obtained using two-dimensional (2D) tomographic image reconstructed slices. The conception of the 3D model for reconstruction and visualization was based on the filtered back projection algorithm, operating under parallel environment together the insertion of virtual planes between pairs of real planes obtained by X-Ray tomography under energies varying from 56 keV to 662 keV. In this model, the virtual planes were generated by interpolation with the use of B-Spline-Wavelets. The evaluation of the 3D reconstruction model was established by using a set of agricultural samples (i.e., soil, glass, wood and calibration phantoms) having different configuration for the planes. Such configuration was based on setting not only the sizes and the number of the real but also the virtual planes in the volume. This procedure allows the impact measurements as a function of the increasing in workload and the communication granularity. To validate the reconstruction model, a dedicated parallel architecture composed of 4 DSP processors was used. This board enables data exchange between DSP processors and communication with host computer. A measurement of efficiency with a speed up equal to 3.4 was obtained using the same set of samples and a better performance was observed with a higher number of planes. Also, to understand about its adaptability, the model was implemented in conventional architecture, using MPI library to enable communication between designed tasks. Additionally, 2D and 3D visualization tools based on Vizualization ToolKit were included in order to help users to analyze images and their characteristics. Results have shown that the 3D parallel model reconstruction brought original contributions for the soil science diagnosis by X-Ray tomography, as well as to explore the available computational resources in parallel architectures, which demands great processing capacity.
9

Um modelo de reconstrução tomográfica 3D para amostras agrícolas com filtragem de Wiener em processamento paralelo / A 3D Tomographic Reconstruction Model for Agricultural Samples with Wiener Filtering and Parallel Processing

Mauricio Fernando Lima Pereira 19 June 2007 (has links)
Neste trabalho, é apresentado um novo modelo de reconstrução tridimensional (3D) para amostras agrícolas com filtragem de Wiener em processamento paralelo, o qual é obtido a partir de reconstruções tomográficas bidimensionais (2D). No desenvolvimento, foram modelados algoritmos paralelos de retroprojeção filtrada e reconstrução tridimensional, baseando-se na inserção de um conjunto de planos virtuais entre pares de planos reais obtidos em ensaios tomográficos de raios X na faixa de energia de 56 keV a 662 keV. No modelo, os planos virtuais gerados em algoritmo paralelo são implementados com base na técnica de interpolação por B-Spline-Wavelet. Para validação do modelo desenvolvido, foi utilizada uma plataforma paralela composta de 4 processadores DSP, a qual possibilitou a troca de dados entre os processadores DSP e o envio de informações para o host, um computador desktop com processador Pentium III operando em 800 MHz. A extração de medidas de eficiência, de ganho e de precisão dos algoritmos paralelos foi realizada com base em um conjunto de amostras agrícolas (solo, vidro e madeiras) e de phantoms de calibração. Nessa avaliação, observou-se que o algoritmo de reconstrução 2D, utilizado como base para o algoritmo de reconstrução 3D, possibilitou uma alta eficiência para imagens de maior resolução, atingindo um pico de 92% de eficiência na resolução de 181X181 pixels. O algoritmo paralelo de reconstrução 3D foi analisado para um conjunto de amostras, sob diferentes configurações de planos reais e virtuais, organizados de forma a possibilitarem a avaliação do impacto causado pelo aumento da granularidade da comunicação e da carga de trabalho. Um melhor desempenho, com ganho médio igual a 3,4, foi obtido na reconstrução de objetos que demandaram o cálculo de um maior número de planos. Também, buscou-se conhecer a adaptabilidade do modelo para uso em arquitetura convencional, sendo que neste caso o uso de MPI permitiu a comunicação entre as tarefas projetadas em cada algoritmo paralelo. Adicionamente, foram incluídas ferramentas de visualização 2D e 3D para que usuários possam analisar as imagens e as características das amostras agrícolas em ambiente tridimensional. Os resultados obtidos indicam que o modelo de reconstrução 3D paralela trouxe contribuições originais para a área de tomografia agrícola aplicada à física de solos, bem como para a criação de ferramentas que viabilizem explorar recursos computacionais disponíveis em arquiteturas paralelas que demandem elevada capacidade de processamento. / This work presents a new method for three dimensional (3D) image reconstruction dedicated to the investigation in soil physics by means of X-ray tomography which is obtained using two-dimensional (2D) tomographic image reconstructed slices. The conception of the 3D model for reconstruction and visualization was based on the filtered back projection algorithm, operating under parallel environment together the insertion of virtual planes between pairs of real planes obtained by X-Ray tomography under energies varying from 56 keV to 662 keV. In this model, the virtual planes were generated by interpolation with the use of B-Spline-Wavelets. The evaluation of the 3D reconstruction model was established by using a set of agricultural samples (i.e., soil, glass, wood and calibration phantoms) having different configuration for the planes. Such configuration was based on setting not only the sizes and the number of the real but also the virtual planes in the volume. This procedure allows the impact measurements as a function of the increasing in workload and the communication granularity. To validate the reconstruction model, a dedicated parallel architecture composed of 4 DSP processors was used. This board enables data exchange between DSP processors and communication with host computer. A measurement of efficiency with a speed up equal to 3.4 was obtained using the same set of samples and a better performance was observed with a higher number of planes. Also, to understand about its adaptability, the model was implemented in conventional architecture, using MPI library to enable communication between designed tasks. Additionally, 2D and 3D visualization tools based on Vizualization ToolKit were included in order to help users to analyze images and their characteristics. Results have shown that the 3D parallel model reconstruction brought original contributions for the soil science diagnosis by X-Ray tomography, as well as to explore the available computational resources in parallel architectures, which demands great processing capacity.
10

Estudo sobre a viabilidade da tomografia eletromagnética na medição do perfil de velocidades de escoamentos monofásicos em dutos / Study on viability of the electromagnetic tomography in the velocity profile measurements on monophase flow in pipe

Teodora Pinheiro Figueroa 09 September 2005 (has links)
Este trabalho apresenta um estudo prospectivo referente ao desenvolvimento de um medidor eletromagnético inteligente de vazão, cuja finalidade é determinar a vazão de escoamento a partir da reconstrução do perfil de velocidade utilizando técnicas tomográficas. Em conseqüência disso, o medidor de vazão será capaz de corrigir a vazão dada, através da integração do perfil de velocidade correto reconstruído por tomografia. A técnica de reconstrução tomográfica utilizada é baseada na construção de um funcional de erro, gerado a partir da diferença entre voltagens simuladas numericamente para uma condição experimental, conhecidos os parâmetros determinantes da velocidade no interior da tubulação, e voltagens aproximadas simuladas numericamente para aproximações destes parâmetros. Neste trabalho, o modelo físico do medidor eletromagnético de vazão é baseado em um número de eletrodos colocados sobre as paredes do tubo sob uma estratégia de excitação específica, sem injeção de corrente, considerando o campo magnético uniforme. A partir da expansão do funcional de erro, sobre um conjunto de funções conhecidas, uma superfície de erro é gerada. As características da patologia desta superfície requerem outros tipos de técnicas de otimização. Técnicas tradicionais de otimização não são viáveis, pois o processo de busca pára no primeiro mínimo local encontrado. Essa convergência para mínimos locais é justificada devido à presença de regiões planas e vales apresentando vários mínimos locais circundando o ponto de mínimo global (ou ponto referente aos parâmetros ótimos da velocidade). Em vista da ocorrência deste fato, técnicas baseadas em algoritmos evolucionários são testadas e apresentadas para uma série de casos demonstrando a praticidade de nossa pesquisa. / This work presents a prospective study on the development of an intelligent electromagnetic flow meter intended to determine output based on the reconstruction of velocity profile using tomographic techniques. As a result, the flow meter will be able to correct the output measure through the integration of the right velocity profile produced by tomography. The tomographic reconstruction technique utilized is based on the definition of an error functional generated from the difference between voltages simulated numerically for a experimental condition, being known the parameters which define the velocity within the pipe and approximate voltages simulated numerically for approaches of these parameters. In this work the physical model of the electromagnetic flow meter is based on a number of electrodes flush mounted on pipe walls and under a specific strategy of excitement, without electrical current input and considering the magnetic field uniform. From the expansion of the error functional over a set of known functions an error surface is generated. The characteristics of the pathology of this surface require other types of optimization techniques. Traditional optimization techniques are not viable since the search stops at the first local minimum. This convergence to local minimums is justified due to the presence of flat regions and valleys presenting several local minimums around the global minimum point (or point relative to the optimum parameters of velocity). Due to this fact techniques based on evolutionary algorithms are tested and presented for a series of cases demonstrating the usefulness of our research.

Page generated in 0.4447 seconds