• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 50
  • 47
  • 47
  • 47
  • 32
  • 15
  • 15
  • 14
  • 14
  • 8
  • 1
  • 1
  • Tagged with
  • 468
  • 468
  • 439
  • 332
  • 187
  • 156
  • 127
  • 108
  • 101
  • 91
  • 81
  • 78
  • 73
  • 73
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Caracterização de nódulos pulmonares em imagens de tomografia computadorizada para fins de auxílio ao diagnóstico

Froner, Ana Paula Pastre January 2015 (has links)
Made available in DSpace on 2015-11-13T01:05:20Z (GMT). No. of bitstreams: 1 000476008-Texto+Completo-0.pdf: 3175485 bytes, checksum: c834edcf4b177f48ac857f5651107461 (MD5) Previous issue date: 2015 / Morphological attributes, intensity and texture, are essential to aid the diagnosis of pulmonary nodules. To improve the accuracy of diagnosis, as well as the interpretation of radiological imaging, computer-aided diagnostic systems are used, which help to reduce the interpretation variability. The aim of this study was to evaluate the use of patient data and quantitative attributes of pulmonary nodules in lung computed tomography to build a classification model in terms of malignancy. The study was based on the analysis of 51 patients computed tomography images of lung, 33 patients diagnosed with malignant lesions and 18 patients with benign lesions, all confirmed through anatomo-pathological report of lung tissue. The study included a diagnostic interpretation stage made from a blind study with radiologists and the use of logistic regression to analyze the predictive power of qualitative and quantitative variables extracted from computed tomography lung images. The quantitative attributes of the nodules consisted of twelve morphological attributes (volume, area, perimeter, compactness, roughness and invariant moments of order 1 to 7), five intensity attributes (mass, density, CT number average, fat and calcification indexes) and three texture attributes (homogeneity, entropy and variance).The results showed that in the visual interpretation of radiologists, only the most experienced doctor showed a correlation with the pathology report (64. 5%), when excluding the hits due to chance. The model which better predicts the nodules malignancy included a quantitative attribute of localization, the intensity attribute ‘calcification index’ developed in this work, and the compactness, a morphological attribute related to the nodule form. The predictive value of the classification model (86. 3%) was much higher than the predictive value based on the visual assessment of the most experienced doctor (65. 3%), regardless of the chance, being close to the accuracy of the same doctor (85. 1%). This emphasizes the importance of this type of research in the search for a quantitative model that allows the classification of pulmonary nodules. / Atributos morfológicos, de intensidade e textura são essenciais para o auxilio ao diagnóstico de nódulos em imagens de tomografia computadorizada de pulmão. Para melhorar a acurácia do diagnóstico, assim como a interpretação da imagem radiológica, são utilizados sistemas de diagnóstico auxiliado por computador, que ajudam a diminuir a variabilidade de interpretação. O objetivo geral deste estudo foi avaliar a utilização de dados de pacientes e atributos quantitativos de nódulos pulmonares em imagens de tomografia computadorizada de pulmão para a construção de um modelo de classificação em termos de malignidade. O estudo foi baseado em uma análise das imagens de tomografia computadorizada de pulmão de 51 pacientes, sendo 33 pacientes diagnosticados com lesões malignas e 18 pacientes com lesões benignas, todos confirmados por meio do laudo anatomopatológico do tecido pulmonar. O estudo contou com uma etapa de interpretação diagnóstica realizada a partir de um estudo cego com médicos radiologistas e a utilização da regressão logística para análise do poder preditivo de variáveis qualitativas e quantitativas extraídas das imagens de tomografia computadorizada de pulmão. Os atributos quantitativos dos nódulos foram constituídos de: doze atributos morfológicos (volume, área, perímetro, compacidade, irregularidade e os momentos invariantes de ordem 1 a 7), cinco atributos de intensidade (massa, densidade, média do número TC, índice de gordura e índice de calcificação) e três atributos de textura (homogeneidade, entropia e variância).Os resultados mostraram que na interpretação visual dos radiologistas, apenas o médico com maior experiência apresentou uma concordância com o laudo anatomopatológico (64,5%), quando se excluem os acertos devido ao acaso. Concluiu-se que o modelo que melhor classifica a malignidade dos nódulos incluiu um atributo qualitativo de localização, um atributo de intensidade relacionado ao índice de calcificação, desenvolvido neste trabalho, e um atributo morfológico relacionado à compacidade do nódulo. O valor preditivo do modelo (86,3%) foi muito maior do que o valor preditivo baseado na avaliação visual do médico mais experiente (65,3%), sem considerar o acaso, estando próximo da acurácia desse mesmo médico (85,1%), incluído o acerto devido ao acaso. Este fato revela a importância deste tipo de pesquisa na busca de um modelo quantitativo, baseado em imagens de tomografia computadorizada, que permita a classificação dos nódulos pulmonares.
142

Suncounter : programa computacional para contagem automatizada de horas de brilho solar registradas por heliógrafos /

Raniero, Matheus Rodrigues January 2020 (has links)
Orientador: Alexandre Dal Pai / Resumo: O objetivo do trabalho foi o desenvolvimento de um programa computacional para processamento e gerenciamento de dados de brilho solar registrados por heliógrafos, monitorados em estações meteorológicas. O código-fonte do programa foi elaborado a partir da linguagem de programação Java EE 7 (Java Enterprise Edition), baseada em aplicações para internet. O armazenamento e gerenciamento das informações foi realizado pelo Sistema de Gerenciamento de Banco de Dados (SGBD) MySQL 5.7. Por meio de técnicas de processamento digital de imagens, incorporadas ao programa, dados de brilho solar foram contabilizados de maneira automatizada e padronizada, possibilitando a formação de uma base de dados na partição de tempo diária, comum em estações meteorológicas, e uma base de dados horária, o que representa novidade devido à complexidade do processo de coleta realizado manualmente. Para ajustes e validação do programa, utilizou-se um conjunto de dados de brilho solar no período de 01/01/2015 a 31/12/2015, fornecidos pela Estação Meteorológica Lageado da Faculdade de Ciências Agronômicas (UNESP) de Botucatu - SP. Comparações entre coletas realizadas pelo programa computacional e coletas realizadas de maneira manual apresentaram valores anuais de MBE de 0,393 horas (rMBE = 6,301 %), RMSE de 2,148 horas (rRMSE = 34,432 %) e R de 0,841. Em relação ao tempo de coleta, o programa computacional despendeu, em média, 41,825 segundos a menos que o método manual. Estimativas de irradiação solar globa... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The objective of this study was the development of a computer program for processing and management of sunshine data recorded by heliographers, monitored in meteorological stations. The source code for the program is based on the Java EE 7 (Java Enterprise Edition) programming language, based on internet applications. The information was stored and managed by the MySQL 5.7 Database Management System (DBMS). Through digital image processing techniques, incorporated into the program, sunshine data were accounted for an automated and standardized method, enabling the formation of a daily database, common in meteorological stations, and an hourly database. This is new due to the complexity of the manual collection process. To adjust the PDI techniques and validation of the computer program, a paper-based sunshine data set was used from 01/01/2015 to 12/31/2015, provided by the Lageado Meteorological Station of the School of Agricultural Sciences (UNESP) Botucatu - SP. Comparisons between collections performed by the computer program and collections performed manually presented annual MBE values of 0,393 hours (rMBE = 6,301 %), RMSE of 2,148 hours (rRMSE = 34,432 %) and R is 0,841. Regarding the collection time, the computer program spent, on average, 41. 825 seconds less compared to the manual collection method. Estimates of global solar irradiation generated with sunshine data obtained by the computer program showed better results in relation to estimates with sunshine data coll... (Complete abstract click electronic access below) / Mestre
143

Aplicação do método de fusão para verificação de locutor independente de texto

Silva, Mayara Ferreira da January 2015 (has links)
Made available in DSpace on 2016-01-05T01:03:29Z (GMT). No. of bitstreams: 1 000476876-Texto+Completo-0.pdf: 2803272 bytes, checksum: 9305b74451ec83ddca38d1c444ffb3dd (MD5) Previous issue date: 2015 / This work presents an overview of text independent speaker verification, describing the basic operation of the system and the reviewing some important developments in speaker modeling and feature extraction from speech. Following, a point of improvement identified within the feature extraction stage leads to the main objective of this work: to determine one or more sets of coefficients relevant to speaker discrimination while minimizing the equal error rate (EER). The proposal is to replace the delta(Δ) and double-delta(Δ²) coefficients by a linear predictor code (LPC) for the mel frequency cepstral coefficients (MFCC). In addition, score level fusion is employed to combine the ouputs of MFCC-only and MFCC-LPC systems, as well as MFCC-only and MFCC-Δ-Δ² systems. In all cases, performance is evaluated with respect to variations of the signal to noise-ratio (SNR) in the tested audio. In addition, the work introduces a new Brazilian Portuguese speech repository containing free-speech from 155 males. Results and discussions are presented with a reflection on the expected outcomes, as well as general comments and observations. Finally, concludings remarks are made about the work, featuring future prospects regarding text independent speaker verification research. This work attained a 4% reduction in the EER compared to the reference system (MFCC-only), with best results occuring in the case fusion of MFCC-only and MFCC-Δ-Δ² scores. / Este trabalho apresenta uma visão geral acerca de verificação de locutor independente de texto, demonstrando o funcionamento básico do sistema e as principais referências de métodos já utilizados ao longo de anos para extração de características da fala e modelamento do locutor. Detectado um ponto a ser trabalhado dentro da etapa de extração de características, objetiva-se determinar coeficientes ou um conjunto destes relevantes para discriminação do locutor, com o intuito de minimizar a EER (Equal Error Rate). A proposta consiste em substituir os coeficientes delta(Δ) e double-delta(Δ2) por coeficientes de um preditor LPC (Linear Predictor Coding) o qual realiza a predição dos coeficientes MFCC (Mel Frequency Cepstral Coeficients). Além disso, aplica-se uma fusão a nível de score em função de sistemas baseados em MFCC e LPC. Outra análise discutida no trabalho é a fusão de um sistema MFCC com Δ e Δ².Um tópico também avaliado é com relação a variações de SNRs (Signal to Noise Ratios) nos áudios testados. Além disso, é elaborado um banco de falas em português brasileiro. Por fim, são expostos os resultados obtidos e é feita a análise dos mesmos, a fim de refletir sobre o que era esperado e levantar alguns comentários. Enfim, são feitas as considerações a respeito do trabalho, e elencadas as perspectivas futuras em torno das pesquisas de verificação de locutor independente de texto. Com este trabalho atingiu-se uma redução de 4% na taxa de erro igual (EER) em comparação ao sistema de referência, sendo que os melhores resultados foram apresentados pelo sistema que realiza um fusão do sistema MFCC com o Δ e Δ².
144

Detecção de Crateras de Impacto em Imagens Digitais. Estudo de caso : Superfície de Marte /

Pedrosa, Miriam Maria. January 2011 (has links)
Orientador: Erivaldo Antônio da Silva / Coorientador: Pedro Miguel Berardo Duarte Pina / Banca: Ana Lucia Bezerra Candeias / Banca: Maurício Araújo Dias / Resumo: Atualmente, o estudo da superfície de Marte é de interesse de muitos programas de exploração espacial, o que justifica o número relevante de sondas enviadas ao planeta com o intuito de coletar amostras e produzir imagens da superfície. Com a melhora gradual dos sistemas sensores, os dados coletados pelas sondas podem produzir imagens com riqueza de detalhes que facilitam a identificação de alvos presentes nessas imagens. Consequentemente, existe um grande arquivo de imagens digitais da superfície marciana, sendo que esse arquivo cresce a uma taxa maior do que a capacidade do ser humano em extrair dados relevantes dessas imagens. Dentre os alvos presentes nas superfícies planetárias e lunar, as crateras de impacto se destacam, não só na superfície de Marte, mas na maioria delas. A identificação e contagem dessas crateras têm importância crucial no estudo dos planetas, devido à grande quantidade de informações que uma análise detalhada de sua distribuição e morfologia podem trazer. As crateras de impacto representam a única ferramenta disponível para medir, remotamente, a idade relativa de formações geológicas em planetas. Além disso, elas são importantes para a exploração espacial, visto que o homem tem se preparado para o envio de uma futura missão espacial, tripulada, para o planeta Marte... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Currently, the study of Mars' surface has been interesting to a sort of space exploration programs which justify the relevant number of probes launched to this planet. Consequently, there's a huge orbital image file from Martian surface. With sensors whose spatial resolution has been getting better and better, the amount of information contained on these images grows on a rate higher than the capability of human being on extracting relevant data from these images. Among the present targets on planetary and lunar surface, impact craters stand out, not only on the surface of Mars, but on most of them. Identifying and counting these craters have a crucial significance on the study of planets, due the great amount of information available on a detailed analysis of them. They represent the only available tool to make remote measures about the relative age from geological formations on planets. Besides, they are important to space exploration since man has been prepared to send a future manned space mission to Mars. Given these relevancies, it had been developed on this dissertation a methodology that includes techniques for digital image processing and pattern recognition, aiming to detect impact craters on the surface of Mars... (Complete abstract click electronic access below) / Mestre
145

Detecção automática de crateras de impacto em imagens de alta resolução espacial da superfície de Marte /

Oliveira, Renan Furlan de. January 2019 (has links)
Orientador: Erivaldo Antonio da Silva / Banca: Almir Olivette Artero / Banca: José Roberto Nogueira / Banca: Wallace Correia de Oliveira Casaca / Banca: Miriam Maria Pedrosa / Resumo: Crateras de impacto são as estruturas mais estudadas na área de ciências planetárias, devido à grande quantidade de informações que podem revelar sobre o passado, a geologia e os processos físicos de um corpo planetário. Apesar de haver várias propostas de algoritmos para automatizar o processo de detecção de crateras, esta tarefa ainda não é realizada de maneira completamente automatizada. A necessidade de investigações por métodos eficientes para detecção automática dessas estruturas é cada vez maior, visto que muitas missões estão sendo enviadas ao espaço e com os dados adquiridos cada vez mais ricos em detalhes e mais abundantes, o trabalho manual tem se tornado inviável. Nesse sentido, a presente pesquisa propõe o desenvolvimento de uma abordagem para detectar e delinear automaticamente crateras de impacto em imagens de alta resolução espacial da superfície de Marte. A abordagem baseia-se nos princípios da morfologia matemática e na utilização de técnicas e estratégias de processamento morfológico de imagens, com foco na detecção de crateras de impacto subquilométricas. Do ponto de vista metodológico, quatro etapas principais são realizadas: i) pré-processamento visando a remoção de ruídos e o realce de bordas das estruturas presentes nas cenas; ii) detecção e delineamento das estruturas candidatas a crateras de impacto, a partir da transformação watershed e estratégias da dinâmica dos contornos; iii) pós-processamento com foco no refinamento da detecção das crateras de ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Impact craters are the most studied structures in planetary sciences, due to the large amount of information they can provide about the history, geology and physical processes of a planet. Although there are several approaches to automate the crater detection, such a task is not fully automated. The need for investigations of efficient methods to automate crater detection is increasing, as many missions have been launched into space, so as to acquire rich and detailed data, thus making the manual work impossible. In this thesis, we develop approach to detect and delineate automatically impact craters in high spatial resolution images of the surface of Mars. The particular proposed is based on the principles of mathematical morphology and the use of techniques and strategies of morphological image processing, with focuses on the detection of subkilometric craters. From the methodological point of view, four main steps are performed: i) pre-processing for noise removal and edge enhancement of structures present in the images; ii) detection and segmentation of crater candidates from the watershed transformation and contour dynamic strategies; iii) post-processing focusing on the refinement of impact crater detection and the removal of irrelevant structures; and (iv) evaluation of detection performance. Two experiments are performed, the first one for the HRSC images with spatial resolution of 12.5 m/pixel and the second for the HiRISE images with spatial resolution of 1 m/pixel.... (Complete abstract click electronic access below) / Doutor
146

Barroco paulista : novas possibilidades de documentação /

Garcia, Luciara Bruno, 1978- January 2015 (has links)
Orientador: Percival Tirapeli. / Banca: Pelópidas Cypriano de Oliveira / Banca: Maria Eliza Cezaretti / Resumo: Esta pesquisa trata do trabalho do fotógrafo Germano Graeser, que juntamente com Mário de Andrade e Luiz Saia iniciaram as atividades do Serviço do Patrimô- nio Histórico e Artístico Nacional - SPHAN em São Paulo. Foram levantados, identificados e registrados com documentação fotográfica os patrimônios arquitetônicos do Estado de São Paulo pesquisados pelo Serviço, entre os anos de 1937 - 1966. A pesquisa também propõe uma atualização documental dos registros criados durante aqueles anos, com a utilização da tecnologia da fotografia digital e da técnica da fotografia panorâmica 360 graus, com as quais criaram-se tour virtuais pelos lugares fotografados. / Abstract: This research is about the work of photographer Germano Graeser who along with Mario de Andrade and Luiz Saia started the activities of the National Historical and Artistic Heritage Service - SPHAN in Sao Paulo. It was collected, identified and recorded with photographic documentation the architectural heritage of the State of Sao Paulo surveyed by SPHAN between the years 1937 - 1966. The research also proposes a documentary update of records created during those years, with the use of photography digital technology and technique of photography panoramic 360 degrees, used to create a virtual tour of the places photographed. / Mestre
147

Uso de imagens digitais para a determinação da concentração e do comprimento de onda de analitos de interesse ambiental

BARROS, Juan Antônio Vázquez de Almeida 26 July 2013 (has links)
A presente dissertação apresenta uma alternativa ao uso de espectrofotômetros aplicados a determinação do comprimento de onda de absorção máxima e concentração de substâncias que absorvem radiação eletromagnética na região do visível (400-800 nm), empregando-se imagens digitais para tal fim. Câmeras digitais foram usadas para obter todas as imagens digitais, sendo utilizada em um primeiro momento uma câmera e como segunda abordagem, visando diminuir os custos e aumentar a portabilidade, uma web cam. As variáveis fotográficas foram obtidas utilizando-se um software desenvolvido utilizando a linguagem JAVA®. Ferramentas matemáticas foram desenvolvidas utilizando-se o Método dos Mínimos Quadrados (MMQ), considerando as variáveis fotográficas: R (Vermelho), G (Verde), B (Azul), H (Matiz), S (Saturação) e Br (Brilho). Utilizando-se ANOVA verificou-se que todos os modelos foram viáveis em um nível de confiança de 95%. Para verificar a exatidão, em um primeiro momento o método foi aplicado em três amostras comerciais: Isotônico (Amarelo Tartrazina), Antiácido (Amarelo Crepúsculo) e Suplemeto de Ferro (Ferro total). Também foram coletadas amostras de água de mina, represas e corregos da região focando a determinação dos seguintes analitos: Alumínio, Ferro, Fósforo e Nitrito. Os limites de detecção (LOD) e de quantificação (LOQ) obtidos foram semelhantes aos resultados obtidos pelos métodos de referência. Foram efetuados testes de adição e recuperação, sendo as taxas de recuperação obtidas entre 93,50 e 108,30%. A precisão foi avaliada com o coeficiente de variação (n=3), sendo menor que 1,53%. As determinações com o método proposto e o método espectrofotométrico foram concordantes (teste-t pareado com 95% de confiabilidade). Em conclusão, este é um método simples e versátil, e mostra que imagens digitais podem ser aplicadas em determinações de concentração e ou comprimento de onda de máximo de absorção de analitos coloridos em solução aquosa. / This dissertation presents an alternative to the use of spectrophotometers applied to determine the wavelength of maximum absorbance and concentration of substances that absorb electromagnetic radiation in the visible region (400-800 nm), using for this purpose digital images. Digital cameras were used to obtain all the digital images being used at first a camera and, as second approach in order to reduce costs and increase portability, a web cam. The photographic variables were obtained using software developed using JAVA®. Mathematical tools were developed using the least squares method (LSM), considering the photographic variables: R (Red), G (Green), B (blue), H (Hue), S (Saturation) and Br (Brightness). Thru the use of ANOVA all models were feasible on a confidence level of 95%. To verify accuracy, at first, the method was applied to three commercial samples: Isotonic (Yellow Tartrazine), Antacid (Sunset Yellow) and Suplemeto Iron (Iron total). Also, samples of mine water, dams and streams of the region focusing on the determination of the following analytes: Aluminum, Iron, Phosphorus and Nitrite. The limits of detection (LOD) and quantitation (LOQ) were similar to results obtained by standard methods. Tests of addition and recovery, were performed and the recovery rates obtained between 93.50 and 108.30%. Precision was evaluated as the relative standard deviation (n = 3), being less than 1.53%. Determinations with the proposed method and the spectrophotometric method were concordant (paired t-test with 95% confidence). In conclusion, this is a simple and versatile method and shows that the use of digital images may be applied to determinate the concentration and or the wavelength of maximum absorption of analytes in colored aqueous solution. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
148

Inserção de marca d'água em sinais de áudio.

Karoline Matias de Oliveira Nunes 20 December 2007 (has links)
Recentemente, sistemas de inserção de marca d'água digital foram propostos devido à necessidade de proteção da informação digital contra reprodução e distribuição. Este trabalho apresenta o algoritmo de Lie e Chang para inserir uma marca d'água em um sinal de áudio, ambos digitais, e propõe duas variações para este algoritmo. O esquema original é baseado nas alterações das amplitudes de duas seções de um grupo de amostras (Group of Samples - GoS) que contém três seções. Para embutir um bit em um GoS existem regras que são baseadas na média das amplitudes absolutas. Dependendo do bit que se deseja embutir as amplitudes das amostras de duas seções são modificadas. Após a inserção as amostras são submetidas ao teste do modelo psicoacústico para obedecer a um critério de qualidade que estabelece que 85% do sinal erro entre o sinal original e o sinal marcado deve estar abaixo de um limiar de audição no silêncio. Isto garante a imperceptibilidade da marca d'água ao ouvido humano. A primeira variação proposta para o algoritmo de Lie e Chang modifica as amplitudes das amostras ao alterar as três seções do GoS. Isto reduz a distorção introduzida pelo processo de marcação. O outro método propõe a substituição do limiar no silêncio no modelo psicoacústico pelo limiar com mascaramento. Esta proposta aumenta a robustez do sistema. Todos os métodos são testados em um conjunto com 3 músicas de estilos diferentes. O processo de extração consegue recuperar os bits da marca d'água sem erro. Os resultados mostram uma melhora no erro médio quadrático para a primeira proposta, para a segunda variação, por sua vez, observa-se uma melhora no limiar de proteção contra ataques.
149

Uma arquitetura RISC para processamento digital de sinais

Eduardo Bráulio Wanderley Netto 01 October 1995 (has links)
Os processadores RISC (Reduced Instruction Set Computer) temsido estudados desde a decada passada. Eles demonstram desempenhos melhorados com relacao aos processadores da familia CISC (Complex Instruction Set Computer) sob certos aspectos. A motivacao para a procura de arquiteturas especializadas esta baseada na uniformidade das aplicacoes. Este e o caso do processamento digital de sinais (DSP). Tipicamente os processadores de sinais digitais possuem parametros de arquitetura que os tornam parte da familia CISC. Recentemente, pesquisadores descobriram que processadores RISC de uso geral tem desempenhos que satisfazem os requisitos da aplicacao de DSP, mesmo em sistemas de tempo real. ESte trabalho propoe um processador RISC dedicado ao processamento digital de sinais - um RISP (Risc for Signal Processing) chamado disxdsp - e mostra alguns aspectos do seu desempenho comparativamente com outros processadores. Para medidad de desempenho foi utilizada a abordagem dos kernels de DSP, que consistem em fragmentos de codigo frequentemente utilizados. Para comparacoes, o processador dedicado TMS320C25 foi estudado, incluindo o uso estatistico de suas instrucoes e seu desempenho. O DLX foi o modelo utilizado para medidas em RISC. Todos os kernels foram codificados a mao para evitar interferencia dos compiladores no desempenho dos processadores. Neste trabalho foi feito um estudo comparativo entre um processador de sinais digitais convencional (TMS320C25), um RISC tipico (DLX) e um RISP (dixdsp). Os parametros basicos utilizados nesta comparacao foram o tempo requerido para realizar uma determinada tarefa, o tamanho da memoria utilizada para armazenar os algoritmos, a media de ciclos de clock por instrucao - CPI - utilizada e a complexidade, em termos de numero de instrucoes, na codificacao. Resultados mostram que nao existe uma maquina ideal para todas as aplicacoes, porem existe um conjunto de processadores capaz de satisfazer os requisitos de velocidade, custo, potencia, etc. de uma determinada tarefa. As conclusoes enfatizam que os processadores RISC modernos satisfazem os requisitos de DSP e que a arquitetura RISP proposta apresenta desempenho melhorado, com relacao a arquitetura RISC estudada, quando utilizada em varias destas tarefas.
150

Sistema de aquisição e de processamento de imagens para uma gama câmera

Júlio César Marques de Lima 01 December 1993 (has links)
A presente dissertacao descreve o estudo e a implementacao de um sistema para aquisicao de imagens geradas por um instrumento radiologico conhecido por Gama Camera. Uma interface para colher as imagens deste equipamento radiologico e proposta e implementada. A esta interface esta associado um microcomputador do tipo PC, o qual desempenha as funcoes de controle da interface, processamento digital das imagens e unidade de visualizacao e armazenamento. Sao apresentados algoritmos para o processamento digital de sinais e otimizacoes sao implementadas. Algoritmos para impressao destas imagens sao abordados, comparacoes sao estabelecidas e otimizacoes sao implementadas. E feito um estudo sobre diversos algoritmos para compressao dos dados. Um algoritmo e proposto e seu desempenho avaliado. Um sistema que reune todos estes algoritmos e implementadodentro de um ambiente de facil utilizacao.

Page generated in 0.0734 seconds