• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Desenvolvimento de um servidor de imagens médicas digitais no padrão DICOM

Dellani, Paulo Roberto January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico.Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-19T05:05:48Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T21:06:22Z : No. of bitstreams: 1 179624.pdf: 5713780 bytes, checksum: 2af82a22175af5bcc9a6af31d87527d4 (MD5)
192

Conversor analógico digital de 10 bits utilizando arquitetura pipeline e tecnologia CMOS

Silva, Denis Rogério da [UNESP] 28 August 2015 (has links) (PDF)
Made available in DSpace on 2016-03-07T19:20:59Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-08-28. Added 1 bitstream(s) on 2016-03-07T19:24:50Z : No. of bitstreams: 1 000859495.pdf: 2367147 bytes, checksum: cd7786f958e0854a6c0bd941b716368d (MD5) / Neste trabalho é apresentado um conversor analógico digital com resolução de 10 bits e arquitetura pipeline, que consiste em um conversor de multi-passos de processamento concorrencial e do tipo Nyquist. É realizado o desenvolvimento das partes do conversor com maior enfoque na parte analógica. Técnicas para melhoria do desempenho do conversor são apresentadas visando principalmente, a minimização dos efeitos de tensão de offset dos comparadores e baixo consumo de potência. Um amplificador operacional, com realimentação positiva é apresentado visando um aumento do seu ganho, sem comprometimento no seu consumo de potência. Os testes efetuados foram feitos através de simulações utilizando tecnologia CMOS de 0,35 μm, tensão de alimentação em 1,8 Volts e frequência de chaveamento dos transistores em 5 MHz. Nestes testes são apresentados os resultados das partes do conversor com a utilização das técnicas propostas, mostrando o alcance dos resultados esperados / In this work is presented a analog to digital converter with a resolution of 10 bits and pipeline architecture, which consists in a multi-converter competitive processing steps and the Nyquist Limit type. It is carried out the development of the parties of the converter with greater focus on the analog. Techniques for improving the performance of the converter are presented aiming primarily, minimization of the effects of the offset voltage comparators and low power consumption. An Operational Amplifier with positive feedback is presented aiming an increase of its gain, without compromising on your power consumption. The tests performed were made through simulations using CMOS technology 0.35 μm, voltage supply at 1.8 Volts and switching frequency of transistors of 5 MHz. These tests presented the results of the parties of the converter with the use of the techniques proposed, showing the reach of the expected results
193

Arquitetura da informação para biblioteca digital colaborativa: uma proposta de um sistema de interação

Inafuko, Laura Akie Saito [UNESP] 04 October 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:44Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-10-04Bitstream added on 2014-06-13T19:13:56Z : No. of bitstreams: 1 inafuko_las_me_mar.pdf: 1874213 bytes, checksum: 45c990baada99af892f415bf6b1435cc (MD5) / As bibliotecas digitais são ambientes informacionais que permitem o armazenamento, a representação, a organização, a preservação, o acesso, a recuperação, o (re)uso de informações. As estruturas informacionais das bibliotecas digitais devem adequar-se às necessidades e às competências e comportamentos informacionais do usuário, para que este venha a construir conhecimento. Assim, as bibliotecas digitais podem ser desenvolvidas a partir dos princípios da Arquitetura da Informação de modo a garantir que o usuário do ambiente tenha um acesso à informação mais rápido, fácil e intuitivo. Com o desenvolvimento da web colaborativa, surge o conceito de “biblioteca 2.0”, que trouxe às bibliotecas tradicionais o dinamismo dos recursos da web colaborativa e o convite aos usuários a participarem e interagirem com o ambiente da biblioteca no meio digital. Considera-se nesta dissertação que as bibliotecas digitais devem adaptar-se ao paradigma colaborativo, devido ao surgimento de novos serviços digitais e à mudança de perfil do usuário consumidor para um usuário produtor de conteúdos. Dessa forma, tem-se como problema de pesquisa a ausência de um modelo de Arquitetura da Informação de bibliotecas digitais colaborativas, mais especificamente de elementos que possam nortear a interação e a colaboração dentro do ambiente. Nesse contexto, objetiva-se propor um sistema de interação dentro dos sistemas de Arquitetura da Informação já propostos por Morville e Rosenfeld (2006) para o ambiente de Bibliotecas Digitais Colaborativas, a partir de elementos de Arquitetura da Informação selecionados na literatura e a partir do levantamento de uso de recursos da web colaborativa em bibliotecas digitais / Digital libraries are informational environments that allow the storage, representation, organization, preservation, access, retrieval and (re)use of information. The informational structures of digital libraries must adapt to the needs and capabilities and conduct the informational behavior of the user, so he can build his own knowledge. Thus, digital libraries can be built on the principles of information architecture to ensure that the user of an environment has access to information more quickly, easily and intuitively. With the development of collaborative web appears the concept of “library 2.0” which brought to traditional libraries the dynamism of collaborative tools and invite users to participate and interact with the environment in the digital library. In this dissertation it is considered that digital libraries must adapt to the collaborative paradigm, due to the emergence of new digital services and the transformation of the consuming user into a content producing user. This way, one of the problems this research has found is the absence of a model of information architecture for collaborative digital libraries, specifically the elements that may guide the interaction and collaboration within the environment. In such context, our objective is to propose a system of interaction within Information Architecture Systems already proposed by Morville and Rosenfeld (2006) for the environment of Collaborative Digital Libraries, from architectural elements of information selected from literature and from the survey of the usage of web tools for collaborative digital libraries
194

Um modelo perceptivo de limiarizaçao de imagens digitais

Lopes, Fabrício Martins 27 August 2012 (has links)
Resumo: O problema de segmentação de imagens digitais tem gerado uma grande diversidade de abordagens para solucioná-lo. Uma abordagem bastante simples, a limiarização, ainda tem sido intensivamente utilizada, por viabilizar aplicações de visão em tempo-real. No entanto, muitas vezes os critérios utilizados na limiarização dependem de atributos entrópicos ou estatísticos da imagem. Procurando investigar qual a relação destes atributos com respostas subjetivas de limiarização, este trabalho desenvolve um modelo de limiarização de imagens baseado nestas respostas, generalizando-as com um modelo resultante do treinamento de uma Rede de Funções de Base Radial (RFBR). As respostas subjetivas foram colhidas em um experimento psicofísico no qual os sujeitos são instados a escolher um limiar que separe melhor o(s) objeto(s) do fundo de uma imagem digital. Este trabalho sugere também uma avaliação de métodos automáticos de limiarização comparando as respostas destes métodos com as respostas atribuídas por sujeitos humanos. Este resultado é confrontado com as comparações entre as respostas dos humanos e as respostas do modelo RFBR, apontando para um possível grau de incerteza com que as respostas são geradas em cada método, e que permite seu uso como uma medida de desempenho de métodos automáticos.
195

Processamento digital de imagens e a evoluçao tecnologica na resoluçao em sensoriamento remoto

Schneider, Mario Jorge 10 February 2011 (has links)
Resumo: As técnicas de fusão de imagens de satélite de diferentes resoluções espaciais visam à obtenção de uma imagem melhorada, com melhor definição dos detalhes espaciais, o que possibilita melhor interpretação visual. Idealmente, a imagem resultante deve manter as informações espectrais, permitindo a posterior segmentação e classificação com maior precisão. Diferentes métodos de fusão têm sido propostos para efetuar a fusão de imagens de sensores de média resolução espacial como o Landsat TM (30 metros no modo multiespectral) e SPOT (10 metros no modo pancromático e 20 metros no modo multiespectral). O lançamento do satélite IKONOS 2 tornou possível a obtenção de imagens de alta resolução espacial (1 metro no modo pancromático) que contém informação espacial para várias aplicações de mapeamento e análise de áreas urbanas. Entretanto, a imagem multiespectral, que proporciona informação espectral importante para aplicações temáticas, é obtida com resolução espacial de 4 metros. Este trabalho compara os resultados de cinco métodos tradicionais (Substituição, Transformação IHS, Transformação HSV, Substituição da Componente Principal e Filtragem Passa-Alta) na fusão das imagens multiespectral e pacromática do satélite IKONOS, avaliando a aplicabilidade desses métodos em imagens de alta resolução. A análise dos resultados é feita com base em: 1) análise visual, 2) comparações estatísticas por meio do coeficiente de correlação e 3) na classificação da imagem híbrida. A área teste corresponde a uma região urbana, onde estão presentes diferentes tipos de cobertura, como edificações com diferentes tipos de telhas, vegetação arbórea e rasteira, água, solo exposto e ruas.
196

Síntese de estruturas neurais usando gramáticas vetoriais estocásticas

Jaques, Osvaldo Vargas 28 August 2012 (has links)
Resumo: o estudo de modelos representativos dos aspectos morfológicos das células neurais ainda é muito pequeno se tentaml0s comparar com modelos neurofisiológicos. Embora o pioneiro da neurociência Ramón y Cajal tenha observado que quanto mais complexa a função da célula neural, mais complexa é sua morfologia, somente agora alguns poucos estào se aventurando nesta odisséia, com pesquisas tanto no campo biológico como no computacional buscando modelos que possam contribuir para uma melhor compreensão da relação forma e função neural. Iniciamos esta dissertação tratando do sistema visual e seus aspectos morfológicos e funcionais. Fazemos uma introdução ao funcionamento neural e seu desenvolvimento. Buscamos também, na literatura, informações relacionadas às mudanças morfológicas que ocorrem durante o desenvolvimento e maturação (plasticidade) dos neurônios piramidais do córtex visual. Descrevemos os métodos e técnicas existentes relacionados à síntese neural, tais como gramáticas gráficas estocásticas, medidas neuromorfométricas e formatos de traçado neural. Desenvolvemos procedimentos para conversào dos diferentes traçados em um formato padrão, e assim, criamos funções estocásticas extraída das diferentes medidas de células naturais. A seguir, definimos uma gramática gráfica para a síntese de células artificiais. À cada regra desta gramática incorporamos funções extraídas de medidas de células naturais dos neurônios piramidais. Deste modo, procuramos criar células artificiais tridimensionais morfologicamente realistas. Para isso, desenvolvemos um compilador e interpretador gramatical (parser) que gera a seqüência de pontos para a geração da célula. Em seguida, criamos o visualizador tridimensional que permite visualizar esta célula, realizando operações tais como rotação, translação, escalonamento, e simulação de crescimento dendrítico em paralelo, além de outras operações utilizadas em ferramentas de visualização 3D.
197

Análise de erros devidos a fatores externos nas medidas realizadas com câmera de distância PMD Camcube 3.0

Silva, Felipe Martins Marques da January 2015 (has links)
Orientador : Prof. Dr. Jorge Antonio Silva Centeno / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências da Terra, Programa de Pós-Graduação em Ciências Geodésicas. Defesa: Curitiba, 28/09/2015 / Inclui referências : f. 97-103 / Resumo: Um dos recentes equipamentos desenvolvidos para o Sensoriamento Remoto são as câmeras de distância, conhecidas como range cameras ou TOF cameras. Tais câmeras também obtém a distância sensor-alvo, assim como os aparelhos de laser scanning, entretanto não possuem equipamentos de varredura, capturando imagens quadro a quadro. A medidas obtidas com tais câmeras estão sujeitas à diversas fontes de erros instrumentais e ambientais. Dentre as fontes de erros existentes, esta Tese focou no estudo dos erros causados pela iluminação ambiente, pela refletividade do alvo e pela distância câmera-alvo, além de verificar o tempo de aquecimento necessário para se atingir maior precisão/exatidão nas medidas da câmera. Foi utilizado uma câmera PMD Camcube 3.0, que permite obter imagens de intensidade, distância e amplitude, com 200 x 200 pixels, em um sensor CMOS (Complementary Metal Oxide Semiconductor). Para medir a distância para cada pixel da imagem, este equipamento utiliza o princípio time-of-flight (TOF) com base no método de diferença de fase. Os experimentos mostraram que a câmera necessita de, pelo menos, 40 minutos de aquecimento para atingir a estabilidade das medidas. A distância câmera-alvo influenciou o erro das medidas através de um comportamento oscilatório atenuada com o aumento da distância, sendo modelado pela equação da onda, com amplitude atenuada. Os erros devido à iluminação ambiente apresentaram variação linear proporcional à intensidade da iluminação ambiente. Por último, quanto à refletividade do alvo, verificou-se que alvos mais escuros apresentaram maior ruído e que, comparando com alvo de cor branca, a mudança na refletividade do alvo, por meio das cores cinza ou preta, aumentou significativamente os erros dos valores da distância. / Abstract: One of the latest equipment developed for Remote Sensing distance are the cameras, known as range camera or TOF cameras. Such cameras also obtains the distance between the sensor and its target, as well as laser scanning devices, however have no scanning equipment, capturing images frame by frame. The measurements obtained with this camera are subject to several sources of instrumental and environmental errors. Among these errors sources, this thesis focused on the study of the errors caused by ambient lighting and by reflectivity of the target (environmental) by the camera target distance, and checking the heating time required to achieve higher precision / accuracy in measurements camera. A PMD Camcube 3.0 camera that obtains intensity images was used, distance and amplitude, with 200 x 200 pixels on a CMOS (Complementary Metal Oxide Semiconductor). To measure the distance for each pixel in the image, this equipment uses the time-of-flight (TOF) principle, based on the phase difference method. The experiments showed that the camera needs, at least, 40 minutes heating to achieve stable measurements. The error due to distante between camera and the target behaves as an attenuated wave, that decreases as the distance get higher. The errors due to ambient lighting showed a linear variation, proportional to the intensity of the ambient lighting. Finally, about the errors of target reflectivity, the darker the target, the greater the noise. Compared with white target, the change in reflectivity of the target, by means of gray or black color, significantly increased distance values.
198

Avaliaçao da taxa de compressao sem perdas em projeçoes de tomografia computadorizada

Martins, Valdir, Ribeiro, Eduardo Parente 27 October 2010 (has links)
No description available.
199

Avaliação do uso de modelos digitais de elevação em prognósticos de modelos de dispersão de gases na troposfera / Evaluation of Digital Elevation Models over Tropospheric Gases Dispersion Models Predictions

Meira, Lindolfo January 2007 (has links)
Pelo fato de que poucos trabalhos atualmente têm relatado acerca do impacto da resolução dos modelos digitais de elevação (MDEs) sobre as concentrações previstas por modelos de simulação da qualidade do ar, este estudo tenta estabelecer urna comparação básica entre dois distintos cenários de simulação, afim de embasar futuras investigações sobre o assunto. O foco está na formação e dispersão de ozônio sobre o estado do Rio Grande do Sul. No primeiro cenário de simulação, nenhum dado de elevação é considerado. No segundo, um MDE com resolução de 1 km, derivado de dados da MissãoTopográfiica do Ônibus Espacial (SRTM), é utilizado. Os modelos de qualidade do ar empregados são aqueles englobados pela dita interface Models-3, amplamente utilizados e respaldados pela Agência de Fmteção Ambiental Estadunidense (US-EPA). Dois domínios de simulação são implementados neste estudo: um domínio externo com 90x 90 células de 9 km cada, e um interno com 67x49 células de 3 km cada. Dados meteorológicos com, aproximadamente, 110 km de resolução, do Centm Nacional Estadunidense de Fr-evisão Ambiental (NCEP) também são usados nas simulações, bem corno dois outros conjuntos de dados do Institv,to BmsÜeiro de Geogmjia e Estatíst'ica (IBGE) e do Depar-tamento de Trânsito do Estado do Rio Grande do Sul (DETRAN-RS). Estes dois últimos usados na estimativa das emissões devidas à frota veicular da Região Metmpolitana de Porto Alegre(RMPA), tornada corno única contribuinte às emissões sobre a área estudada. Os resultados apresentaram marcadas diferenças entre um cenário e outro. Concentrações constantemente mais elevadas de ozônio foram observadas na presença do MDE enquanto, na ausência deste, as concentrações finais de ozônio baixaram os níveis à metade. Também os padrões de dispersão tiveram características bastante distintas, espalhando-se amplamente sobre a parte sul do domínio externo de simulação na ausência do MDE e, do contrário, espalhando-se de forma mais limitada sobre a parte sudoeste, com um jato observado em direção noroeste. Elevados níveis de concentração de ozônio foram observados bastante longe das fontes emissoras, atingindo cerca de 500 km em ambos os cenários. / As few works nowadays have reported on the impact of digital elevation nodels (DEMs) resolution over concentration predictions by air quality simulation models, this study attempts to establish a basic comparison betweeIl two different simulation scenarios, in order to support further investigation on this issue. The focus is on the ozone formation and dispersioll over the Rio Grande do Sul state. In the first simulation scenario, no elevation data is regarded. In the second one, DEM data with 1 km resolution, derived from the Shuttle Radar Topogmphic Mission (SRTM) is used. The air quality models employed are those which constitute the so-called Models-3 interface, widely used and supported by the United States Environmental Protection Agency (US-EPA). Two simulation domains are implemented in this study: the outermost domain with 90x90 cells with 9 km each, and the innermost one with 67x49 cells with 3 km each. Meteorology data with, approximately, 110 km resolution I'rom the National Genter for Environmental Prediction (NCEP) is also used in the simulations, as well as two other sets of data from the Brazilian Institute of Geography and Statistics (IBGE) and from the Rio Grande do Sul State Traffic Department (DETRAN-RS). These last two sets used to estimate emissions from the Metropolitan Arm of Porto Alegre (RMPA) vehicular fieet, taken as the only contributor to the emissions over the studied area. The results have presented marked differences from one scenario to the other. Sustained higher concentratiolls of ozone have been observed in the presence of the DEM data whilst, in the lack of it, final concentrations of ozone have dropped their levels to half. Also, dispersion patterns had quite distinguishable features, spreading widely over the south part of the outermost simulation domain in the lack of DEM data and, otherwise, spreading in a more narrow fashion over the south-west part, with a jet observed north-westwards. High levels of ozone concentration were abserved far away from the emission sources, reaching as far as 500 km in both scenarios.
200

No-reference video quality assessment model based on artifact metrics for digital transmission applications

Silva, Alexandre Fieno da 10 March 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-22T19:03:58Z No. of bitstreams: 1 2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-10-05T17:04:26Z (GMT) No. of bitstreams: 1 2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5) / Made available in DSpace on 2017-10-05T17:04:26Z (GMT). No. of bitstreams: 1 2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5) Previous issue date: 2017-10-05 / Um dos principais fatores para a redução da qualidade do conteúdo visual, em sistemas de imagem digital, são a presença de degradações introduzidas durante as etapas de processamento de sinais. Contudo, medir a qualidade de um vídeo implica em comparar direta ou indiretamente um vídeo de teste com o seu vídeo de referência. Na maioria das aplicações, os seres humanos são o meio mais confiável de estimar a qualidade de um vídeo. Embora mais confiáveis, estes métodos consomem tempo e são difíceis de incorporar em um serviço de controle de qualidade automatizado. Como alternativa, as métricas objectivas, ou seja, algoritmos, são geralmente usadas para estimar a qualidade de um vídeo automaticamente. Para desenvolver uma métrica objetiva é importante entender como as características perceptuais de um conjunto de artefatos estão relacionadas com suas forças físicas e com o incômodo percebido. Então, nós estudamos as características de diferentes tipos de artefatos comumente encontrados em vídeos comprimidos (ou seja, blocado, borrado e perda-de-pacotes) por meio de experimentos psicofísicos para medir independentemente a força e o incômodo desses artefatos, quando sozinhos ou combinados no vídeo. Nós analisamos os dados obtidos desses experimentos e propomos vários modelos de qualidade baseados nas combinações das forças perceptuais de artefatos individuais e suas interações. Inspirados pelos resultados experimentos, nós propomos uma métrica sem-referência baseada em características extraídas dos vídeos (por exemplo, informações DCT, a média da diferença absoluta entre blocos de uma imagem, variação da intensidade entre pixels vizinhos e atenção visual). Um modelo de regressão não-linear baseado em vetores de suporte (Support Vector Regression) é usado para combinar todas as características e estimar a qualidade do vídeo. Nossa métrica teve um desempenho muito melhor que as métricas de artefatos testadas e para algumas métricas com-referência (full-reference). / The main causes for the reducing of visual quality in digital imaging systems are the unwanted presence of degradations introduced during processing and transmission steps. However, measuring the quality of a video implies in a direct or indirect comparison between test video and reference video. In most applications, psycho-physical experiments with human subjects are the most reliable means of determining the quality of a video. Although more reliable, these methods are time consuming and difficult to incorporate into an automated quality control service. As an alternative, objective metrics, i.e. algorithms, are generally used to estimate video quality quality automatically. To develop an objective metric, it is important understand how the perceptual characteristics of a set of artifacts are related to their physical strengths and to the perceived annoyance. Then, to study the characteristics of different types of artifacts commonly found in compressed videos (i.e. blockiness, blurriness, and packet-loss) we performed six psychophysical experiments to independently measure the strength and overall annoyance of these artifact signals when presented alone or in combination. We analyzed the data from these experiments and proposed several models for the overall annoyance based on combinations of the perceptual strengths of the individual artifact signals and their interactions. Inspired by experimental results, we proposed a no-reference video quality metric based in several features extracted from the videos (e.g. DCT information, cross-correlation of sub-sampled images, average absolute differences between block image pixels, intensity variation between neighbouring pixels, and visual attention). A non-linear regression model using a support vector (SVR) technique is used to combine all features to obtain an overall quality estimate. Our metric performed better than the tested artifact metrics and for some full-reference metrics.

Page generated in 0.0284 seconds