• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 325
  • 10
  • 3
  • 2
  • 1
  • Tagged with
  • 344
  • 344
  • 203
  • 160
  • 155
  • 93
  • 83
  • 77
  • 43
  • 40
  • 30
  • 30
  • 30
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Geoprocessamento e sensoriamento remoto aplicados ao estudo da dinâmica urbana da Província Ciudad de La Habana e na avaliação de ameaças de escorregamentos no município de Habana del Este, Cuba / Not available.

Carral Chao, Rey Gaspar 11 March 1998 (has links)
A presente pesquisa avalia o comportamento da ocupação do terreno, no período de 1956 a 1996, na província de Ciudad de La Habana, Cuba, através de dados orbitais e informações temáticas dentro de um ambiente SIG. Ainda faz um estudo sobre a localização de áreas suscetíveis de escorregamentos no município de Habana del Este. Para o estudo da dinâmica de ocupação de Ciudad de La Habana, o desenvolvimento desta pesquisa baseia-se na possibilidade de verificação das mudanças, das classes de ocupação do terreno selecionadas, ocorridas no período de análise, através da utilização de fotografias aéreas de 1956, de imagem XS-SPOT de 1987 e de imagem TM-LANDSAT de 1996. A partir da análise multitemporal-multiproduto foi possível a identificação das transformações ocorridas no espaço urbano. As composições coloridas XS-SPOT (3/2/1-RGB) e TM4/TM3/TM2 (RGB) e TM3/TM2/TM1, conjuntamente com os resultados dos índices de vegetação, e em menor medida, a classificação pelo método da máxima verossimilhança, permitiram separar os diferentes tipos de ocupação do terreno (classes muito urbanizada, pouco urbanizada e rural, principalmente) e gerar os mapas de ocupação de 1987 e 1996, os que foram comparados em ambiente SIG para a análise da dinâmica. As operações de divisão de bandas utilizadas na determinação dos índices de vegetação permitiram verificar as reduções de cobertura vegetal acontecida entre os anos de 1987 e 1996. O estudo das ameaças de escorregamentos no município de Habana del Este foi feito a partir dos fatores condicionantes, a dizer, grau de declividade, tipos de ocupação, assim como profundidade e grau de saturação dos solos. Essas informações foram analisadas num Sistema de Informação Georreferenciada (SIG-IDRIS), gerando o mapa de ameaças potenciais de escorregamentos, o qual mostra, de forma geral (devido à escala de trabalho), as áreas mais suscetíveis à ocorrência de instabilidade de encostas. Verificou-se que esses locais estão localizados pontualmente, ocupando pequenas áreas dispersas pelo território, principalmente sob os Planaltos tectonico-estruturais (Fig. 5) que se localizam paralelos à costa em toda a área do município. / The dissertation evaluates the behavior of land occupation, from 1956 to 1996, of Ciudad de La Habana county, Cuba, through remote sensing data (orbital and aerial data) and thematic information in a Geographical Information System (GIS). It still presents a study about the location of landslides susceptible areas in the Habana del Este district. For the study of the Ciudad de La Habana occupation dynamics, the research was based on the verification possibility of changes in the selected land classes of occupation, occurred in the studied period, through the use of panchromatic aerial pictures of 1956, XS-SPOT 1987 image and TM-LANDSAT 1996 image. Based on multitemporal - multiproduct analysis was possible to recognize the transformations occurred in the urban space. The false-color compositions XS-SPOT (3/2/1-RGB) and TM-Landsat (4/3/2 and 3/2/1 - RGB), jointly with the vegetation indexes results, and, secondarily, with maximum likehood classifications, allowed to separate the different types of land occupation (very urbanized, urbanized, not very urbanized and rural classes, mainly) and to generate the occupation maps of 1987 and 1996. These maps were compared among them and with the 1956 occupation map, obtained by visual interpretation of the aerial pictures, in GIS environment, for the urban dynamic analysis. The study of the landslides hazards in the district of Habana del Este was based in the main conditioning factors: declivity degree, occupation types and depth and saturation degree of the soil. Those information were analyzed in a GIS environment, generating a regional map of potential landslides hazards, which shows, in a general view (due to the work scale), the most susceptible areas to the occurrence of slope instabilities. It was verified those locals are punctual, occupying small dispersed areas in the whole territory, mainly under the tectonic-structural Plateau, that are located parallel to the coast.
12

A Formação Guaritas na porção centro-sudeste da Bacia do Camaquã-RS / Not available.

Wellington Ferreira da Silva Filho 17 February 1998 (has links)
Este trabalho apresenta os resultados do estudo geológico da Formação Guaritas, na porção centro-sudeste da Bacia do Camaquã. A área localiza-se na porção central do Escudo Sul-Riograndense, entre os paralelos 30º 50\' 33\" e 31º 00\' 00\" de latitude sul e os meridianos 53º 27\' 03\" e 53º 10\' 30\" de longitude oeste. Imagens TM-Landsat (bandas 02, 03, 04, 05 e 07), abrangendo a área em foco, foram processadas digitalmente, tendo em vista o realce de feições litológicas e estruturais. Os melhores resultados foram obtidos através de uma Análise por Principais Componentes, combinando as PC1, PC2 e PC4 no espaço RGB. Os milonitos do Complexo Porongos afloram no lado leste da área estudada, em contato erosivo e tectônico com a Formação Guaritas. No lado oeste da área aflora a Formação Santa Bárbara, com seu depósitos areníticos e rudíticos divididos em cinco associações faciológicas. A porção mapeada da Formação Guaritas foi dividida em sete associações faciológicas, geradas pela dinâmica de sistemas deposicionais alúvio-flúvio-deltaicos e desérticos, refletindo as variações climáticas no ambiente continental eopaleozóico. A análise de paleocorrentes e paleoventos permitiu a separação das associações faciológicas em duas sequências sedimentares, denominadas, neste trabalho, de Formação Guaritas Inferior e Superior. As áreas-fontes da Formação Guaritas Inferior foram, principalmente, sedimentos e milonitos, aflorantes a sul-sudoeste e leste, além de rochas da Formação Santa Bárbara na região das Minas do Camaquã. As áreas fontes da Formação Guaritas Superior foram principalmente sedimentares, a leste e norte. Também ocorreu uma mudança no sentido dos paleoventos, entre as duas sequências, de norte na inferior para sul na superior. Os principais trends de falhas da região têm direção NNE-SSW, WNW-ESSE e NW-SE. A análise gráfica de falhas transcorrentes sinistrais do trend NW-SE, na Mina Uruguai, revelou um esforço compressivo ESE-WNW, sin-mineralização. Este eixo compressivo ocasionou transpressão no interior de um bloco em forma de cunha na região das Minas do Camaquã, resultado de movimentação destral da Zona de Falhas Tapera-Emiliano. O bloco soerguido, denominado neste trabalho de Alto das Minas do Camaquã, comportou-se como feição positiva no início da deposição da Formação Guaritas, a qual deu-se, provavelmente, a partir de meados do Ordoviciano. / This work presents the results of the Guaritas Formation geological study, in the Camaquã Basin central-southeastern portion. The area is located in the Gaucho Shield centre, between the 30º 50\' 33\" and 31 00\' 00\" parallels and the 53º 27\' 03\" and 53º 10\' 30\" meridians. TM-Landsat images (bands 02, 03, 04, 05 and 07), which comprise the study area, where digitally processed in order to heighten litological and tectonic features. The best results where obtained through the Principal Component Analysis, combining PC1, PC2 and PC4 in the RGB space. The Porongos Complex milonites outcrop in the easthern side of the study area, in erosional and tectonic contact with the Guaritas Formation. The sandstones and conglomerates of Santa Barbara Formation outcrops in the westhern side of the area, comprising five faciologic associations. The Guaritas Formation mapped portion where divided in seven faciologic associations which where generated by alluvial, fluvial, deltaic and desertic depositional systems, reflecting climatic variations in the eopaleozoic continental environment. The paleocurrents and paleowinds analysis allowed the separation of the faciologic associations in two sedimentary sequences. They are denominated Lower and Upper Guaritas Formation. The Lower Guaritas Formation source areas where mainly sediments and milonites, localized at south-southest and east, in adition to rocks of Santa Barbara Formation in the Camaquã Mines region. The Upper Guaritas Formation source areas where at east and north, comprising mainly sedimentary rocks. The paleowinds sense also changed, from north in the lower sequence to south in the upper one. The main fault trends have NNE-SSW, WNW-ESSE and NW-SE directions. Graphical analysis of NW-SE sinistral strike-slip faults of the Uruguai reveald a sin-mineralization ESE-WNW compressive stress. This axis provoked transpression inside a wedge-shaped block in the Camaquã Mines region, as a result of destral strike slip in the Tapera-Emiliano Fault Zone. The uplifted block (Camaquã Mines High) acted as positive feature in the early Guaritas Formation deposition, after the middle of the Ordovician.
13

Projecto e implementação de um inversor multinível

Pereira, Ivo Filipe Barroso de Freitas January 2009 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major de Automação). Faculdade de Engenharia. Universidade do Porto. 2009
14

Processamento digital de sinais ultrassom Doppler para o cálculo do débito cardíaco

Brandão, Bruno Barros 29 November 2012 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2013-12-06T13:31:40Z No. of bitstreams: 1 Dissertação PPGM Bruno B Brandão versão digital final.pdf: 2314378 bytes, checksum: e62125e067cc06d897023386e50e1df9 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2013-12-06T13:31:55Z (GMT) No. of bitstreams: 1 Dissertação PPGM Bruno B Brandão versão digital final.pdf: 2314378 bytes, checksum: e62125e067cc06d897023386e50e1df9 (MD5) / Made available in DSpace on 2013-12-06T13:31:55Z (GMT). No. of bitstreams: 1 Dissertação PPGM Bruno B Brandão versão digital final.pdf: 2314378 bytes, checksum: e62125e067cc06d897023386e50e1df9 (MD5) / Uma das principais variáveis hemodinâmicas do organismo humano é o Débito Cardíaco (DC). Este é definido como o volume de sangue bombeado pelo coração por minuto para a artéria Aorta e constitui um elemento diagnóstico básico para determinação da melhor conduta clínica, influenciando as indicações para internamentos em Unidades de Tratamento Intensivo, para as intervenções cirúrgicas e outros procedimentos. O método referência para medição e monitorização do DC é a Termodiluição, realizada através da introdução do cateter de Swan-Ganz. Porém, por este método ser invasivo, alternativas são buscadas, sendo uma delas a utilização de equipamentos para a medição do DC por ultrassom Doppler. Assim, neste trabalho, é implementado um algoritmo que através do processamento digital do sinal de ultrassom Doppler calcula o débito cardíaco (DC) de forma não-invasiva e automática, ou seja, sem necessidade de realizar medições em imagens e cálculos manuais. A coleta das amostras apenas começou após aprovação de projeto por Comitê de Ética em Pesquisa, e foi realizada por especialista do Instituto Cárdio Pulmonar. A estimação espectral do sinal é realizada através da Transformada de Fourier de Tempo Curto. Os valores dos débitos cardíacos calculados pelo algoritmo, para todas as amostras, são apresentados e avaliados em relação ao exame ecocardiográfico padrão (EEP), baseando-se em trabalho referência, na área médica, para aferir se o algoritmo proposto é clinicamente aceitável. O resultado desta pesquisa preliminar revela-se satisfatório conforme premissa medica: erro percentual geral, igual a 17,8%, inferior ao limite aceitável clinicamente de 20%. O coeficiente de correlação entre os DC calculados pelo EEP é igual a 0,93. Portanto, o algoritmo é considerado promissor, mas faz-se necessário a coleta de mais amostras e a expansão da abrangência dos critérios de inclusão para aferir se o algoritmo pode substituir o EEP.
15

Projeto e implementação de um sistema de instrumentação eletro-eletrônica para caracterização de escoamentos através de processamento digital de imagens

Nunes, Roger Pizzato January 2005 (has links)
Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.
16

Localização de imagens ao microscópio utilizando processamento digital de imagem

Bandeira, Marcos Vinícius January 2005 (has links)
O exame de sangue é um dos procedimentos de análises clínicos mais utilizados pelo largo espectro de anomalias que consegue detectar. A contagem de células de sangue, objeto deste trabalho, é um destes exames. A contagem manual é feita por um operador que examina ao microscópio, com ampliação adequada, uma amostra eventualmente tratada ou colorida. Ainda hoje há casos em que contagem manual é necessária mas é cada vez mais freqüente a utilização da contagem automática, feita através de citômetro de fluxo. Esta dissertação aborda um sistema de contagem de células do sangue por processamento digital de imagens e pode ser automático ou semi-automático. O projeto é fruto de uma parceria entre o LaPSIDELET e o HCPA. Deste projeto surgiu o SAIMO (Sistema de Aquisição de Imagens para uso em Microscopia Óptica). No estágio atual o SAIMO possui algumas limitações no controle de posicionamento e no campo de visão limitado. O controle de posicionamento atual fica a cargo do operador: não há informação sobre as imagens já adquiridas, podendo ocorrer sobreposição. Devido à limitação do campo de visão, várias aquisições devem ser feitas para se obter o número mínimo de células recomendado. Além disso, há um possível aumento de erro de contagem associado às imagens parciais de célula presentes nas bordas das imagens. Este trabalho tem como proposta solucionar o problema de controle de posicionamento das aquisições, com a localização da cena durante a captura da imagem. Além disso, é proposta uma técnica de composição de mosaico com as imagens adquiridas, reduzindo os problemas causados pelo campo de visão limitado. Também são propostos métodos de préprocessamento apropriados às imagens adquiridas, que proporcionam a redução do tempo das tarefas subseqüentes. O método de validação das localizações verifica se as coordenadas encontradas por este processo são consistentes. Os resultados obtidos mostraram que o método é rápido na localização e eficiente na composição do mosaico, podendo ser utilizado como parte de um sistema de contagem de células por processamento digital de imagens.
17

Medição de campos de velocidade em fluídos com técnicas "intraframe" de processamento digital de imagens (PIV)

Laan, Flavio Tadeu van der January 2001 (has links)
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
18

Medição de campos de velocidade em fluídos com técnicas "intraframe" de processamento digital de imagens (PIV)

Laan, Flavio Tadeu van der January 2001 (has links)
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
19

Medição de campos de velocidade em fluídos com técnicas "intraframe" de processamento digital de imagens (PIV)

Laan, Flavio Tadeu van der January 2001 (has links)
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
20

Reconstrução de imagens de ressonância magnética com base em compreensive sensing usando informação a priori estrutural em abordagem estocástica

Almeida, Daniel Lucas Ferreira e 15 February 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2017. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-05-03T17:41:24Z No. of bitstreams: 1 2017_DanielLucasFerreiraeAlmeida.pdf: 15210206 bytes, checksum: df62328627085f382c7eff9dbdf98b0f (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-11T16:40:09Z (GMT) No. of bitstreams: 1 2017_DanielLucasFerreiraeAlmeida.pdf: 15210206 bytes, checksum: df62328627085f382c7eff9dbdf98b0f (MD5) / Made available in DSpace on 2017-09-11T16:40:09Z (GMT). No. of bitstreams: 1 2017_DanielLucasFerreiraeAlmeida.pdf: 15210206 bytes, checksum: df62328627085f382c7eff9dbdf98b0f (MD5) Previous issue date: 2017-09-11 / A utilização de imagens obtidas por meio da ressonância magnética (do inglês magneticresonance, ou MR) auxilia no diagnóstico e no acompanhamento das mais diversas patologias que afetam o corpo humano. Ela apresenta, contudo, um custo mais elevado do que outras técnicas de imageamento que não são capazes de gerar imagens com a mesma qualidade objetiva, e isso pode dificultar o trabalho dos profissionais de saúde. Esse custo mais elevado se deve ao alto valor do equipamento e de sua manutenção, bem como ao baixo número de exames que podem ser realizados por dia, quando comparados com os de técnicas como a tomografia computadorizada. Além de seu processo de aquisição ser inerentemente mais lento, uma vez que sua duração depende da alta quantidade de medidas extraídas pelo scanner. De modo a diminuir a quantidade de medidas necessária, técnicas de reconstrução alternativas às tradicionais vêm sendo estudadas, como as que se baseiam em compressive sensing (CS). O CS permite reconstruir um sinal a partir de uma quantidade de medidas muito inferior `a estabelecida pelo critério de Nyquist. Além disso, o imageamento por ressonância magnética atende aos requisitos mínimos para a aplicação dessa técnica: o sinal possui uma representação esparsa num domínio transformado e as medidas adquiridas pelo scanner já são naturalmente codificadas. Essas técnicas têm sido eficientes ao diminuir a quantidade de medidas e garantir uma boa qualidade objetiva da imagem reconstruída, mas ainda há potencial para que essa diminuição seja maior. Uma das alternativas é encontrar a transformada esparsificante que torne o sinal o mais esparso possível, como a transformada de Fourier bidimensional, transformadas baseadas em wavelets e a pré-filtragem. Além disso, a utilização de informação a priori aliada aos algoritmos de reconstrução que se baseiam em compressive sensing também é utilizada para diminuir a quantidade de medidas. Essa informação pode ser caracterizada por dados estatísticos prévios da imagem ou com base em informações determinísticas sobre ela. Neste trabalho, propomos uma modelagem estocástica da informação a priori a ser utilizada em algoritmos de reconstrução de imagens de ressonância magnéticas baseados em compressive sensing com pré-filtragem. Nossa abordagem gera um espalhamento probabilístico em torno de um ponto que apresenta o potencial de pertencer ao suporte da versão esparsa da imagem a ser reconstruída. Esse espalhamento proposto tem o objetivo de garantir que a imagem possa ser reconstruída, mesmo em situações nas quais o ponto do suporte pode mudar de posição – quando um paciente se movimenta dentro do scanner, por exemplo. De modo a validar essa técnica, n´os a aplicamos a sinais de domínio unidimensional, bidimensional, imagens de fantomas de Shepp-Logan e imagens reais de RM. Os resultados dos testes sistemáticos em sinais de domínio unidimensional mostram que essa abordagem estocástica apresenta melhores resultados de reconstrução do que aquele que não utiliza informação a priori, apresentando um SER superior em cerca de 100dB para alguns valores de medidas ℓ. Em sinais de domínio bidimensional e de fantomas, apresentamos os resultados de um estudo de caso envolvendo a reconstrução de um sinal de cada tipo. Os resultados corroboram o que foi encontrado com os sinais de domínio unidimensional, com a abordagem estocástica apresentado valores de SER superiores em cerca de 10dB quando comparada com a abordagem determinística, apesar da pouca significância estatística. Os testes em imagens de MR incluíram a reconstrução de imagens deslocadas para simular uma possível situação de movimento do paciente durante a aquisição do exame. Além disso, foi analisada a influência do número de linhas radiais na reconstrução, bem como da matriz de covariância usada para gerar a função de espalhamento. Os resultados mostram que a abordagem estocástica apresenta sempre um bom desempenho quando comparada com as demais e, muitas vezes, esse desempenho é superior ao das outras técnicas. Em alguns pontos críticos, por exemplo, o valor do SER para a abordagem estocástica chega a ser superior em 6dB com relação ao caso ideal e em mais de 10dB para o caso não-ideal. Algo importante de se destacar é o fato de a abordagem estocástica apresentar um bom desempenho constantemente (um valor médio de SER de 21dB e do índice SSIM de 0,7), inclusive em casos em que as demais falham. Os resultados encontrados permitem agora que outras formas de explorar essa informação a priori possam ser investigados, para diminuir ainda mais a quantidade de medidas necessária para a reconstrução. Mas é também importante realizar um estudo teórico para quantificar a probabilidade de reconstrução em função da representação estocástica da informação a priori e da quantidade de medidas disponível. / The use of images obtained through MRI helps in the diagnosis and follow-up of the most diverse pathologies that affect the human body. However, it presents a higher cost than other imaging techniques that are not capable of generating images with the same objective quality, and this may hinder the work of health professionals. This higher cost is due to the high value of the equipment and its maintenance, as well as to the low number of tests that can be carried out per day, when compared to techniques such as the computed tomography. Besides its acquisition process is inherently slower, since its duration depends on the high amount of measurements extracted by the scanner. In order to reduce the amount of measurements required, alternatives to traditional reconstruction techniques have been studied, such as those based on compressive sensing. The CS allows you to reconstruct a signal from a quantity of measures much lower than the one established by the Nyquist theorem. In addition, magnetic resonance imaging meets the minimum requirements for the application of this technique: the signal has a sparse representation in a transformed domain and the measurements acquired by the scanner are already encoded naturally. These techniques have been effective in decreasing the number of measurements and ensuring a good objective quality of the reconstructed image, but there is still potential for such a decrease. One of the alternatives is to find a sparsifying transform that makes the signal as sparse as possible, such as the two-dimensional Fourier transform, wavelet-based transforms, and pre-filtering. Besides, the use of a prior information coupled with reconstruction algorithms based on compressive sensing is also used to decrease the number of measurements. This information may be characterized by prior statistical data of the image or based on deterministic information about it. In this work, we propose a stochastic modeling of the prior information to be used in reconstruction algorithms of magnetic resonance images based on compressive sensing with pre-filtering. Our approach generates a probabilistic spreading around a point that has the potential to belong to the support of the sparse version of the image to be reconstructed. This proposed spread is intended to ensure that the image can be reconstructed, even in situations when the position of the support point may change - when a patient moves within the scanner, for example. In order to validate this technique, we apply it to one-dimensional, two-dimensional domain signals, Shepp-Logan phantom images, and real MRI images. The results of the systematic tests on one-dimensional domain signals show that this stochastic approach presents better reconstruction results than those that do not use the prior information, with a SER 100dB greater for some number of measures ℓ. In two-dimensional domain signals and phantoms, we present the results of a case study involving the reconstruction of a signal of each type. The results corroborate what was found with one-dimensional domain signals, with the SER for the stochastic approach being 10dB higher than when the deterministic approach was used, despite the low statistical significance. The MR imaging tests included the reconstruction of shifted images to simulate a possible patient movement situation during the acquisition of the examination. In addition, the influence of the number of radial lines in the reconstruction was analyzed, as well as the covariance matrix used to generate the spreading function. The results show that the stochastic approach always performs well when compared to the others, and this performance is often superior to other techniques. When considering some critic points, for instance, the SER value for the stochastic approach is 6dB higher than the ideal prior approach, and more than 10dB higher than the non-ideal. Something important to emphasize is that the stochastic approach performs consistently well (a SER mean value of around 21dB and a SSIM index of around 0,7), even when the others fail. Those results will now allow the investigation of other ways to explore this prior information in order to further reduce the amount of measures required for reconstruction. But it is also important to carry out a theoretical study to quantify the reconstruction probability as a function of the stochastic representation of the prior information and of the quantity of measures available.

Page generated in 0.1082 seconds