• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 3
  • Tagged with
  • 29
  • 29
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Compressão de texturas utilizando síntese de texturas

Leal Brayner, Fernando 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:52:47Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Apesar dos avanços no campo de hardware gráfico, a memória destes dispositivos ainda é um recurso escasso para aplicações usuais. Além disso, para a maioria das aplicações baseadas em rasterização a largura de banda disponível no sistema é um importante fator limitante para o aumento da performance nesses sistemas. Compressão de Texturas tem como objetivo resolver ambos os problemas. Nós apresentamos uma nova técnica para compressão de texturas baseada em síntese de texturas a partir de amostras. A textura comprimida armazena a amostra mais alguns dados, coletados durante a síntese, permitindo a descompressão em tempo-real da textura em maior resolução. Com esse esquema nós somos capazes de alcançar taxas de compressão elevadas. Uma vez que a textura é sintetizada, nosso esquema comprime a textura em alta resolução sem perda de qualidade. Nossa solução explora um espectro de texturas onde algoritmos gerais de compressão de textura não alcançam taxas ótimas de compressão. Essas geralmente são texturas com padrões repetidos, regulares ou quase-regulares, as estocásticas, exatamente os tipos de texturas onde síntese de texturas tende a funcionar bem. Também apresentamos uma formulação analítica para nosso esquema de compressão que permite a computação exata das taxas de compressão alcançadas
2

Algoritmos paralelos exatos e otimizações para alinhamento de sequências biológicas longas em plataformas de alto desempenho

Sandes, Edans Flávius de Oliveira 09 September 2015 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-01-21T13:09:08Z No. of bitstreams: 1 2015_EdansFlaviusOliveiraSandes.pdf: 8651626 bytes, checksum: eb6970a8085ba3a4dc141481620451c6 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2016-05-15T13:57:40Z (GMT) No. of bitstreams: 1 2015_EdansFlaviusOliveiraSandes.pdf: 8651626 bytes, checksum: eb6970a8085ba3a4dc141481620451c6 (MD5) / Made available in DSpace on 2016-05-15T13:57:40Z (GMT). No. of bitstreams: 1 2015_EdansFlaviusOliveiraSandes.pdf: 8651626 bytes, checksum: eb6970a8085ba3a4dc141481620451c6 (MD5) / O alinhamento de sequências biológicas é uma das operações mais importantes em Bioinformática, sendo executado milhares de vezes a cada dia ao redor do mundo. Os algoritmos exatos existentes para este fim possuem complexidade quadrática de tempo. Logo, quando a comparação é realizada com sequências muito longas, tais como no escopo do genoma humano, matrizes na ordem de petabytes devem ser calculadas, algo considerado inviável pela maioria dos pesquisadores. O principal objetivo desta tese de Doutorado é propor e avaliar algoritmos e otimizações que permitam que o alinhamento ótimo de sequências muito longas de DNA seja obtido em tempo reduzido em plataformas de alto desempenho. Os algoritmos propostos utilizam técnicas paralelas de dividir e conquistar com complexidade de memória reduzida mantendo a complexidade quadrática do tempo de execução. O CUDAlign, em suas versões 2.0, 2.1, 3.0 e 4.0, é a principal contribuição desta tese, onde os algoritmos propostos estão integrados na mesma ferramenta, permitindo a recuperação eficiente do alinhamento ótimo entre duas sequências longas de DNA em múltiplas GPUs (Graphics Processing Unit) da NVIDIA. As otimizações propostas neste trabalho permitem que o nível máximo de paralelismo seja mantido durante quase todo o processamento. No cálculo do alinhamento em uma GPU, as otimizações Orthogonal Execution, Balanced Partition e Block Pruning foram propostas, aumentando o desempenho no cálculo da matriz e descartando áreas que não contribuem para o alinhamento ótimo. A análise formal do Block Pruning mostra que sua eficácia depende de vários fatores, tais como a similaridade entre as sequências e a forma de processamento da matriz. No cálculo do alinhamento com várias GPUs, a otimização Incremental Speculative Traceback é proposta para acelerar a obtenção do alinhamento utilizando valores especulados com alta taxa de acerto. Também são propostos métodos de balanceamento dinâmico de carga que se mostraram eficientes em ambientes simulados. A arquitetura de software chamada de Multi-Platform Architecture for Sequence Aligners (MASA) foi proposta para facilitar a portabilidade do CUDAlign para diferentes plataformas de hardware ou software. Com esta arquitetura, foi possível portar o CUDAlign para plataformas de hardware como CPUs e Intel Phi e utilizando plataformas de software como OpenMP e OmpSs. Nesta tese, sequências reais são utilizadas para validar a eficácia dos algoritmos e otimizações nas várias arquiteturas suportadas. Por meio do desempenho das ferramentas implementadas, avançou-se o estado da arte para permitir o alinhamento, em tempo viável, de todos os cromossomos homólogos do homem e do chimpanzé, utilizando algoritmos exatos de comparação de sequências com um desempenho de até 10,35 TCUPS (Trilhões de Células Atualizadas por Segundo). Até onde sabemos, esta foi a primeira vez que tal tipo de comparação foi realizada com métodos exatos. / Biological sequence alignment is one of the most important operations in Bioinformatics, executing thousands of times every day around the world. The exact algorithms for this purpose have quadratic time complexity. So when the comparison involves very long sequences, such as in the human genome, matrices with petabytes must be calculated, and this is still considered unfeasible by most researchers. The main objective of this Thesis is to propose and evaluate algorithms and optimizations that produce the optimal alignment of very long DNA sequences in a short time using high-performance computing platforms. The proposed algorithms use parallel divide-and-conquer techniques with reduced memory complexity, whilst with quadratic time complexity. CUDAlign, in its versions 2.0, 2.1, 3.0 and 4.0, is the main contribution of this Thesis. The proposed algorithms are integrated into the same tool, allowing efficient retrieval of the optimal alignment between two long DNA sequences using multiple GPUs (Graphics Processing Unit) from NVIDIA. The proposed optimizations maintain the maximum parallelism during most of the processing time. To accelerate the matrix calculation in a single GPU, the Orthogonal Execution, Balanced Partition and Block Pruning optimizations were proposed, increasing the performance of the matrix computation and discarding areas that do not contribute to the optimal alignment. The formal analysis of Block Pruning shows that its effectiveness depends on factors such as the sequences similarity and the matrix processing order. During the alignment computation with multiple GPUs, the Incremental Speculative Traceback optimization is proposed to accelerate the alignment retrieval, using speculated values with high accuracy rate. A dynamic load balancing method has also been proposed and its effectiveness has been shown in simulated environments. Finally, the software architecture called Multi-Platform Architecture for Sequence aligners (MASA) was proposed to simplify the portability of CUDAlign to different hardware and software platforms. With this architecture, it was possible to port CUDAlign to hardware platforms such as CPU and Intel Phi, and using software platforms such as OpenMP and OmpSs. In this Thesis, real sequences are used to validate the effectiveness of the proposed algorithms and optimizations in several supported architectures. Our proposed tools were able to advance the state-of-the-art of sequence alignment algorithms, allowing a fast retrieval of all human and chimpanzee homologous chromosomes, using exact algorithms at an unprecedented rate of up to 10.35 TCUPS (Trillions of Cells Updated Per Second). As far as we know, this was the first time that this type of comparison was carried out with exact sequence comparison algorithms.
3

MASA-OpenCL : comparação paralela de sequências biológicas longas em GPU

Figueirêdo Júnior, Marco Antônio Caldas de 05 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2016-02-04T15:52:54Z No. of bitstreams: 1 2015_MarcoAntônioCaldasdeFigueirêdoJúnior.pdf: 2211162 bytes, checksum: 999b7a9af378fd239a06877f9dbd003b (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-04T15:56:38Z (GMT) No. of bitstreams: 1 2015_MarcoAntônioCaldasdeFigueirêdoJúnior.pdf: 2211162 bytes, checksum: 999b7a9af378fd239a06877f9dbd003b (MD5) / Made available in DSpace on 2016-02-04T15:56:38Z (GMT). No. of bitstreams: 1 2015_MarcoAntônioCaldasdeFigueirêdoJúnior.pdf: 2211162 bytes, checksum: 999b7a9af378fd239a06877f9dbd003b (MD5) / A comparação de sequências biológicas é uma tarefa importante executada com frequência na análise genética de organismos. Algoritmos que realizam este procedimento utilizando um método exato possuem complexidade quadrática de tempo, demandando alto poder computacional e uso de técnicas de paralelização. Muitas soluções têm sido propostas para tratar este problema em GPUs, mas a maioria delas são implementadas em CUDA, restringindo sua execução a GPUs NVidia. Neste trabalho, propomos e avaliamos o MASA-OpenCL, solução desenvolvida em OpenCL capaz de executar a comparação paralela de sequências biológicas em plataformas heterogêneas de computação. O MASA-OpenCL foi testado em diferentes modelos de CPUs e GPUs, avaliando pares de sequências de DNA cujos tamanhos variam entre 10 KBP (milhares de pares de bases) e 47 MBP (milhões de pares de bases), com desempenho superior a outras soluções existentes baseadas em CUDA. A solução obteve um máximo de 179,2 GCUPS (bilhões de células atualizadas por segundo) em uma GPU AMD R9 280X. Até onde temos conhecimento, esta é única solução implementada em OpenCL que realiza a comparação de sequências longas de DNA, e o desempenho alcançado é, até o momento, o melhor já obtido com uma única GPU. ______________________________________________________________________________________________ ABSTRACT / The comparison of biological sequences is an important task performed frequently in the genetic analysis of organisms. Algorithms that perform biological comparison using an exact method require quadratic time complexity, demanding high computational power and use of parallelization techniques. Many solutions have been proposed to address this problem on GPUs, but most of them are implemented in CUDA, restricting its execution to NVidia GPUs. In this work, we propose and evaluate MASA-OpenCL, which is developed in OpenCL and capable of performing parallel comparison of biological sequences in heterogeneous computing platforms. The application was tested in different families of CPUs and GPUs, evaluating pairs of DNA sequences whose sizes range between 10 KBP (thousands of base pairs) and 47 MBP (millions of base pairs) with superior performance to other existing solutions based on CUDA. Our solution achieved a maximum of 179.2 GCUPS (billions of cells updated per second) on an AMD R9 280X GPU. As far as we know, this is the only solution implemented in OpenCL that performs long DNA sequence comparison, and the achieved performance is, so far, the best ever obtained on a single GPU.
4

Classificação de tráfego baseado em mineração de fluxos de dados

Lopes Junior, Petrônio Gomes 31 January 2012 (has links)
Made available in DSpace on 2014-06-12T16:01:31Z (GMT). No. of bitstreams: 2 arquivo9422_1.pdf: 1276132 bytes, checksum: 3774a722066d704630a96e348e110df1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2012 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / Existem diversos tipos de aplicações de redes de computadores que produzem diferentes perfis de tráfego. Para aperfeiçoar o desempenho destas aplicações ou da rede em que elas estão incluídas, é interessante fazer medições e caracterizações do tráfego gerado por elas. Nesse contexto, existem várias formas para classificação de tráfego como técnicas baseadas em portas, técnicas baseadas em inspeção de pacotes e técnicas baseadas em fluxos. De acordo com o cenário em que será aplicada, cada uma das técnicas apresenta vantagens e desvantagens. Adicionalmente, a classificação tem que lidar com restrições de tempo, sendo capaz de tratar os dados em tempo real. Um possível método a ser utilizado é a classificação de tráfego baseada em fluxos utilizando aprendizagem de máquina. No entanto, é notório que, quando se fala na classificação de fluxos usando aprendizagem de máquina, a caracterização de tráfego ainda necessita de uma abordagem que seja capaz de fornecer uma forma adaptativa de treinamento além de equilibrar precisão e desempenho em um cenário de fluxo contínuo de dados. Este trabalho apresenta um algoritmo voltado para classificação do tráfego baseado em técnicas de mineração de fluxos de dados aplicado a redes de alta velocidade, denominado GSDT (GPU-based Streaming Decision Tree), além de um arcabouço para sua aplicação. Esse algoritmo visa combinar a precisão das árvores de decisão tradicionais com as características da mineração de fluxos de dados. O GSDT também explora o potencial computacional fornecido por uma unidade de processamento gráfico. O arcabouço proposto alia treinamento e classificação, a fim de obter ganhos no desempenho da utilização do algoritmo em um ambiente real. Os experimentos realizados avaliam a precisão do GSDT em relação às técnicas tradicionais e o desempenho das abordagens propostas, demonstrando a viabilidade da aplicação do GSDT nos cenários considerados e a alta performance obtida através da unidade de processamento gráfico
5

Algoritmos paralelos em GPUS para problemas de programação quadrática binária irrestrita

Moreira, Eduardo Batista Gomes January 2013 (has links)
Orientador: Cláudio Nogueira de Meneses / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Pós-Graduação em Ciências da Computação, 2013
6

Diagnóstico de glaucoma em retinografias utilizando funções geoestatística / Diagnosing Glaucoma in Retinopathy Using Geostatistical Functions

Sousa, Jefferson Alves de 26 January 2017 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-05-30T20:52:23Z No. of bitstreams: 1 JeffersonSousa.pdf: 2049556 bytes, checksum: f9f7046416ba8b0f024d06906537417f (MD5) / Made available in DSpace on 2017-05-30T20:52:23Z (GMT). No. of bitstreams: 1 JeffersonSousa.pdf: 2049556 bytes, checksum: f9f7046416ba8b0f024d06906537417f (MD5) Previous issue date: 2017-01-26 / Glaucoma is one of the diseases that mopstly causes blindness, according to estimates by the World Health Organization (WHO). The Brazilian Council of Ophthalmology (CBO) estimates that in Brazil there are 985 thousand glaucoma patients with more than 40 years of age. The use of computer aided detection and diagnosis systems (CAD - Computer Aided Detection and CADx - Computer Aided Diagnosis) has contributed to increase the chances of detection and correct diagnoses. They provide a second opinion, assisting the experts in making decisions about the treatment of glaucoma. The main objective of this work is to present a method for automatic diagnosis of glaucoma in retinography images using texture characteristics. The Local Binary Pattern is used to generate a representation of the texture patterns of the image. The geostatistical functions, semivariogram, semimagram, covariogram and correlogram, are used as texture extractors. With the generated characteristics, a step is made to select the best classification model using the genetic algorithm. Then sorting is performed using the Support Vector Machine. The best result was an accuracy of 91%, sensitivity of 95% and specificity of 88%, proving that the characteristics generated by the geostatistical functions for texture extraction generate a satisfactory discriminant set. / O glaucoma e uma das doenças que mais causam cegueira em todo o mundo segundo estimativa da Organização Mundial da Saúde (OMS). O Conselho Brasileiro de Oftalmologia (CBO) estima que no Brasil existam 985 mil portadores de glaucoma com mais de 40 anos de idade. A utilização de sistemas de detecção e diagnóstico auxiliados por computador (CAD - Computer Aided Detection e CADx -Computer Aided Diagnosis) tem contribuído para aumentar as chances de detecção e diagnósticos corretos, que proporcionam, uma opinião preliminar, auxiliando os especialistas na tomada de decisões sobre o tratamento do glaucoma. O principal objetivo deste trabalho e apresentar um método para diagnóstico automático de glaucoma em imagens de retinografia utilizando características de textura. Neste trabalho, o Local Binary Pattern é usado para gerar uma representação do padrões de textura da imagem. As funções geoestatísticas, semivariograma, semimadograma, covariograma e correlograma, sao utilizadas como extratores de textura. Com as características geradas e realizada uma etapa para selecionar o melhor modelo de classificação utilizando o algoritmo genético. Em seguida é realizada a classificação usando a Maquina de Vetores de Suporte. O método apresentou como melhor resultado uma acurácia de 91%, sensibilidade de 95% e especificidade de 88%, comprovando que as características geradas pelas funções geoestatísticas para extração de textura geram um conjunto discriminante satisfatório.
7

Detecção de regiões de massas em mamografias usando índices de diversidade, geoestatísticas e geometria côncava / Detection of mass regions in mammograms using diversity indexes, geostatistics and concave geometry

BRAZ JUNIOR, Geraldo 10 March 2014 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-08-17T17:18:53Z No. of bitstreams: 1 GeraldoBraz.pdf: 4561857 bytes, checksum: de79b8d705a7a3132f4a83979788cf8b (MD5) / Made available in DSpace on 2017-08-17T17:18:53Z (GMT). No. of bitstreams: 1 GeraldoBraz.pdf: 4561857 bytes, checksum: de79b8d705a7a3132f4a83979788cf8b (MD5) Previous issue date: 2014-03-10 / Breast cancer is configured as a global health problem that affects mainly the female population. It is known that early detection increases the chances of an effective treatment and improves the prognosis of the disease. With this goal, computacional tools have been proposed in order to assist the physician in the interpretation of mammography features providing detection and diagnosis of lesions. The challenge is to detect any lesios with high sensitivity rate while maintaining a small number of false positives. The main objective of this research is the development of an efficient methodology for mass detection in digitized mammograms. The detection task involves aspects of computer vision like find suspicious areas and describe them in a discriminatory way. This research evaluates the approaches of feature extraction using diversity analysis, geostatistics and concave geometry for the classification of previously identified suspicious regions using Support Vector Machine as a classifier techinique. The results are promising and reaches a high sensitivity rate jointly with a low mean rate of false positives per image when using concave geometry as features extraction approach. / O câncer de mama se configura como um problema de saúde mundial, que afeta principalmente a população feminina. É conhecido que a detecção precoce aumenta as chances de um tratamento efetivo, melhorando o prognóstico da doença. Com este objetivo, ferramentas computacionais têm sido propostas com a finalidade de auxiliar o especialista na interpretação do exame de mamografia, provendo funcionalidades de detecção e diagnóstico de lesões. Todavia, continua sendo um grande desafio detectar a lesão com alta taxa de sensibilidade, e garantir ao mesmo tempo que um número reduzido de falso positivos sejam gerados. Para tanto, metodologias que abordam extração de características textuais, probabilísticas ou baseada em modelo têm sido propostas para este fim. A pesquisa que remete este trabalho tem como objetivo principal a proposição de uma metodologia eficiente de detecção de regiões de massas em mamografias digitalizadas. A tarefa de detecção envolve aspectos de visão computacional relacionados a necessidade de encontrar regiões suspeitas e descrevê-las de maneira discriminatória. Esta pesquisa avalia a extração de características usando as abordagens de análise de diversidade, geoestatística e geométrica para a classificação das regiões suspeitas detectadas usando a Máquina de Vetores de Suporte como classificador. Os resultados encontrados são promissores ao obterem alta sensibilidade e baixa taxa média de falso positivos quando usando geometria côncava para extrair características.
8

Exploração de processamento gráfico para o posicionamento de formas irregulares em problemas de corte

Sampaio, Sofia Isabel Araújo January 2012 (has links)
Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2012
9

Segmentação de Embarcação em Ambientes Fluviais

Pimentel, Fagner de Assis Moura 07 August 2015 (has links)
Submitted by FAGNER PIMENTEL (fagnerpimentel@gmail.com) on 2016-01-21T21:11:46Z No. of bitstreams: 1 Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / Approved for entry into archive by Alda Lima da Silva (sivalda@ufba.br) on 2016-01-26T19:14:11Z (GMT) No. of bitstreams: 1 Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / Made available in DSpace on 2016-01-26T19:14:12Z (GMT). No. of bitstreams: 1 Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / FAPESB / Este trabalho apresenta uma pesquisa e o estudo de técnicas de visão computacional voltadas para a segmentação de embarcações utilizando câmeras Pan-Tilt-Zoom de modo a auxiliar a automação e otimização do processo de eclusagem nas represas do rio Tietê no estado de São Paulo, Brasil. São apresentadas e comparadas técnicas de Subtração de Fundo e Classificação utilizando SVM (Support Vector Machine) como classificador. Com este estudo foi possível definir um conjunto de técnicas que melhor se adequam a segmentação de embarcações em ambientes fluviais. Foram realizados testes extensivos para selecionar as melhores técnicas e parâmetros para cada fase e descrever um estudo comparativo das técnicas utilizadas. A metodologia utilizada neste trabalho se divide em coleta e classificação de dados (vídeos), criação de datasets, avaliação de métodos de detecção de movimento da câmera PTZ, avaliação de métodos para segmentação de região de água e avaliação de métodos de detecção de objetos móveis por subtração de fundo. Para a detecção de movimento de câmera visando a reinicialização do método de subtração de fundo usado neste trabalho, foi realizada a comparação de 8 métodos variando seus thresholds. O método BorderTracer (BT) desenvolvido neste trabalho, apresentou os melhores resultados com accuracy (ACC) médio = 99.71% (threshold = 8). Para a segmentação da região de água, usada como informação de contexto para a etapa seguinte, foram realizadas variações de pré-processamento e espaço de cor das imagens selecionadas, além da otimização dos parâmetros para os kernels do classificador SVM em um total de 112 combinações. O espaço de cor YCbCr sem pré-processamento e com o uso do kernel com Função de Base Radial (RBF) apresentou os melhores resultados com Balanced Acurracy (BAC) médio = 94.53%. Para a segmentação das embarcações foi realizada uma otimização de parâmetros dos dois melhores algoritmos pré-selecionados da BGSlibrary em um total de 175 combinações. O algoritmo StaticFrameDifferenceBGS, juntamente com a técnica de histerese (baixo limiar = 15 e e alto limiar = 100) apresentou um Balanced Acurracy (BAC) médio = 88.77% enquanto o DPEigenbackgroundBGS com ℎ𝑖𝑠𝑡𝑜𝑟𝑦𝑆𝑖𝑧𝑒 = 10 e 𝑒𝑚𝑏𝑒𝑑𝑑𝑒𝑑𝐷𝑖𝑚 = 20 juntamente com a técnica de histerese (baixo limiar = 15 e alto limiar = 100) apresentou um melhor Balanced Acurracy (BAC) médio = 91.25%, e portanto foi selecionado para esta etapa. Entre os resultados deste projeto, encontrase também o desenvolvimento de uma ferramenta semi-automática de anotação de vídeos em máscara binária, a criação de um novo dataset, inédito, de embarcações em ambientes fluviais anotados em máscara binária e o desenvolvimento de uma rotina de detecção de movimento da câmera, o BorderTracer apresentado anteriormente;
10

Reconstrução de imagens de ressonância magnética acelerada por placas de processamento gráfico / Magnetic resonance image reconstruction accelerated by general purpose graphic processing units

Dantas, Thales Henrique 27 June 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-11-20T17:20:35Z No. of bitstreams: 1 2015_ThalesHenriqueDantas.pdf: 3537939 bytes, checksum: 20f1179054479db12fcfe14d4e20b397 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-12T20:20:38Z (GMT) No. of bitstreams: 1 2015_ThalesHenriqueDantas.pdf: 3537939 bytes, checksum: 20f1179054479db12fcfe14d4e20b397 (MD5) / Made available in DSpace on 2016-05-12T20:20:38Z (GMT). No. of bitstreams: 1 2015_ThalesHenriqueDantas.pdf: 3537939 bytes, checksum: 20f1179054479db12fcfe14d4e20b397 (MD5) / Fourier velocity encoding (FVE) é útil no diagnóstico de doenças valvulares, visto que pode eliminar os efeitos de volume parcial que podem causar perda de informação de diagnóstico no imageamento de fluxo cardiovascular por contraste de fase. FVE também foi proposto como método para a medição da taxa de cisalhamento da superfície das artérias carótidas. Apesar de o tempo de aquisição para FVE no espaço de Fourier bi-dimensional(2DFT) ser proibitivamente longo, o uso de FVE espiral se mostra bastante promissor, uma vez que este é substancialmente mais rápido. Contudo, a reconstrução dos dados de FVE em espiral é longo, devido à sua multi-dimensionalidade e ao uso de amostragem não Cartesiana. Isso é particularmente importante para aquisições de múltiplos cortes, volumes e(ou) de múltiplos canais. Os conjuntos de dados de FVE em espiral consistem em pilhas de espirais resolvidas no espaço kx-ky-kv. A distribuição de velocidade espaço-temporal, m(x, y, v, t), é tipicamente obtida a partir dos dados no espaço-k, M(kx, ky, kv, t), aplicando uma transformada inversa de Fourier não uniforme ao longo de kx-ky, seguida de uma transformada Cartesiana ao longo de kv. Com esta abordagem, toda a matriz m(x, y, v, t) é calculada. Entretanto estamos tipicamente interessados nas distribuições de velocidade associadas com uma pequena região de interesse dentro do plano x-y. Nós propomos o uso da reconstrução de um único voxel usando a transformada direta de Fourier (DrFT) para reconstruir os dados da FVE espiral. Ao passo que o tempo de reconstrução por DrFT de toda a imagem é ordens de magnitude maior que a reconstrução por gridding ou Non Uniform Fast Fourier Transform(NUFFT), a equação da DrFT permite a reconstrução de voxels individuais com uma quantidade consideravelmente reduzida de esforço computacional. Adicionalmente, propomos o uso de placas de processamento gráfico de uso geral (GPGPUs) para acelerar ainda mais a reconstrução e alcançar reconstruções de FVE espirais de maneira aparentemente instantânea. É apresentada também uma proposta para, potencialmente, acelerar também a reconstrução por gridding ou NUFFT utilizando o algoritmo de Goertzel para reconstruir uma quantidade limitada de pontos também por estes métodos. _______________________________________________________________________________________________ ABSTRACT / Fourier velocity encoding (FVE) is useful in the assessment of valvular disease, as it eliminates partial volume effects that may cause loss of diagnostic information in phase-contrast imaging. FVE has also been proposed as a method for measuring wall shear rate in the carotid arteries. Although the scan-time of Two-dimensional Fourier Transform (2DFT) FVE is prohibitively long for clinical use, the spiral FVE method shows promise, as it is substantially faster. However, the reconstruction of spiral FVE data is time-consuming, due to its multidimensionality and the use of non- Cartesian sampling. This is particularly true for multi-slice/3D and/or multi-channel acquisitions. Spiral FVE datasets consist of temporally-resolved stacks-of-spirals in kx-ky-kv space. The spatial-temporal-velocity distribution, m(x, y, v, t), is typically obtained from the k-space data, M(kx, ky, kv, t), by first using a non-Cartesian inverse Fourier transform along kx-ky, followed by a Cartesian inverse Fourier transform along kv. With this approach, the entire m(x, y, v, t) matrix is calculated. However, we are typically only interested in the velocity distributions associated with a small regionof- interest within the x-y plane. We propose the use of single-voxel direct Fourier transform (DrFT) to reconstruct spiral FVE data. While whole-image DrFT is orders of magnitude slower than the gridding and Non Uniform Fast Fourier Transform( NUFFT) algorithms, the DrFT equation allows the reconstruction of individual voxels of interest, which considerably reduces the computation time. Additionally, we propose the use of general-purpose computing on graphics processing units (GPGPUs) to further accelerate computation and achieve seemingly instantaneous spiral FVE reconstruction. We also propose a method that shows potential to accelerate reconstructions using gridding and NUFFT by means of using the Goertzel algorithm to reconstruct onlya small number of pixels.

Page generated in 0.0976 seconds