• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 565
  • 150
  • 11
  • 11
  • 11
  • 11
  • 8
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 722
  • 722
  • 223
  • 176
  • 162
  • 162
  • 80
  • 80
  • 78
  • 78
  • 74
  • 74
  • 72
  • 68
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Representação, visualização e manipulação de dados médicos tridimensionais

Santos, Thiago Ramos dos January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T16:26:11Z (GMT). No. of bitstreams: 1 233630.pdf: 3084918 bytes, checksum: ecf789d1899b2e3f4fe9d06bfa28d160 (MD5) / Dados tridimensionais referentes a pacientes são utilizados em diversos setores médico-hospitalares, fornecendo embasamento à diagnósticos e orientação durante procedimentos cirúrgicos. No entanto, apesar de bastante úteis estes dados são bastante inflexíveis, não permitindo que o usuário interaja com estes ou os manipule. O emprego de técnicas de computação gráfica e realidade virtual para a representação destes dados sanaria estas dificuldades, gerando representações indivíduais e adaptadas para cada paciente e permitindo a realização de planejamentos cirúrgicos e cirurgias auxiliadas por computador, dentre outras possibilidades. A representação destes dados e as formas de manipulação devem conter um conjunto de elementos e obedecer alguns requisitos para que se obtenha realismo nas aplicações, caso contrário, o emprego destas técnicas não traria grandes vantagens. Analisando os elementos e requisitos a serem obedecidos, é construído um grafo de dependências que mostra as técnicas e estruturas computacionais necessárias para a obtenção de ambientes virtuais imersivos realistas. Tal grafo demonstra as estruturas de dados para representação de sólidos como peça chave para este tipo de aplicativos. Para suprir as necessidades destes, é apresentada uma estrutura de dado capaz de representar uma vasta classe de topologias espaciais, além de permitir rápido acesso a elementos e suas vizinhanças, bem como métodos para a construção de tal estrutura. É apresentada, também, uma aplicação para mensuração de artérias utilizando a estrutura e os métodos previamente mencionados e os resultados por obtidos por estes.
172

O lugar do computador na mesa do arquiteto : uma mirada sobre os recursos informáticos no aprendizado do projeto arquitetônico

Aliaga Fuentes, Maribel Del Carmen January 2004 (has links)
O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.
173

Captura e visualização de video 3d em tempo real

Machado, Leonardo Alves January 2005 (has links)
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
174

Interface de gerenciamento e consultas visuais em banco de dados de biodiversidade / Visual interface for managing and querying a biodiversity data base system

Cañete, Samantha de Castro January 2011 (has links)
Com a ampliação da quantidade de informação disponível, gerada pelas diversas atividades humanas, surgiu a necessidade de sistemas computacionais capazes de indexar e analisar estas informações. A manipulação de dados, a derivação de novas informações e a extração de características desses dados propiciam descoberta de padrões e geração de conhecimento, tornando tais sistemas uma importante ferramenta científica. Sistemas com essas funcionalidades são criados com as mais variadas finalidades. No presente trabalho, focamos os sistemas para gerenciamento de informações na área da Biologia, mais especificamente, nos estudos da evolução de mamíferos. Tais sistemas podem ser enquadrados nos chamados sistemas de informação de biodiversidade. Tem-se verificado um número crescente de iniciativas direcionadas para o compartilhamento de informações de biodiversidade através da web. Tais sistemas visam disponibilizar, através da rede mundial de computadores, informações sobre espécimes catalogados em coleções nos mais variados locais, tais como museus de ciências naturais e instituições de pesquisa. Este trabalho descreve os componentes principais de um sistema de informações de biodiversidade, cujo objetivo é integrar recursos de visualização e de análise de dados e funções convencionais de gerenciamento encontradas em bancos de dados. O sistema, denominado TaxonomyBrowser, visa auxiliar os biólogos no gerenciamento de informações a respeito de espécimes por eles coletados, assim como exemplares já catalogados em coleções de museus. A integração com visualização de mapas através da API do Google Maps e a utilização de ferramentas de análise de dados através do Google Charts e do sistema R amplia a aplicabilidade do sistema, bem como, facilita a interação com os usuários. A validação, assim como todo projeto do sistema, foi realizada com a ajuda de biólogos da UFRGS, responsáveis pela coleta e catalogação de espécimes de mamíferos. / The increasing amount of information available due to the several, different human activities leads to the need for computing systems able to index and analyze these large data volume. Data manipulation, derivation of new data from the available ones and the extraction of characteristics from these data allow finding patterns and generating knowledge, turning such computing systems important scientific tools. Thus, systems with these features are created with a variety of purposes. In this work we focus on systems for the management of biological data, more specifically on those supporting the study of mammals’ evolution. Such systems are classified as biodiversity information systems. It has been verified an increasing number of approaches to share biodiversity information through the web. Such systems aim at providing, through theWorldWideWeb, information about catalogued specimens in collections at various locations, like natural sciences museums and research institutions. This work describes the main components of a biodiversity information system developed to integrate visualization and data analysis tools and conventional data management functions provided by relational databases. The system, named TaxonomyBrowser, aims at helping biologists to manage the information about the specimens they collect in fieldwork, as well as specimens that have already been catalogued in museums’ collections. The integration of map visualization through the Google Maps API and the application of Google Charts and R System as data analysis tools improve the system applicability, as well as facilitate user interaction. All phases of the system design were performed together with UFRGS biologists, in a participatory design experience, and currently they are carrying on a thorough validation of the system.
175

Grupos de arestas : uma nova abordagem para entender a qualidade da malha gerada pelo Marching Cubes e suas variantes / Edge groups: a new approach to understanding the mesh quality of marching cubes and its variants

Dietrich, Carlos Augusto January 2008 (has links)
Este trabalho descreve uma nova visão sobre um dos algoritmos mais importantes da Computação Gráfica, o algoritmo para a poligonização de isosuperfícies Marching Cubes (MC). Esta visão permite o estudo das situações onde são gerados triângulos de baixa qualidade, uma das grandes deficiências do MC, e serve como suporte à proposta de modificações no algoritmo. Neste trabalho também são propostas três modificações ao MC, com objetivo de gerar triângulos de boa qualidade e manter as características mais atraentes do MC, ou seja, a sua simplicidade, eficiência e robustez. O funcionamento do MC é analisado a partir da decomposição das células de amostragem em Grupos de Arestas. Os Grupos de Arestas permitem o estudo do modo como os triângulos são construídos no interior de cada célula de amostragem, e possibilitam identificar onde e como são gerados triângulos de baixa qualidade. As situações onde triângulos de baixa qualidade são gerados são resolvidas através da proposta de três modificações no algoritmo MC, sendo elas: (1) um critério para conduzir a construção da tabela de triangulações, (2) o reposicionamento das arestas ativas e (3) o deslocamento dos vértices de intersecção sobre as arestas ativas. A primeira modificação é a proposta de um novo critério para conduzir a construção da tabela de triangulações do MC. O critério tem como objetivo o aumento da qualidade da malha gerada, através do uso de triangulações que não resultem nos grupos de arestas que têm maior probabilidade de gerar triângulos de baixa qualidade. A segunda modificação propõe o reposicionamento das arestas ativas. Os grupos de arestas mostram que a posição das arestas ativas influencia a qualidade dos triângulos, o que motiva a criação de um procedimento que reposicione as arestas ativas em relação ao comportamento da isosuperfície. Este procedimento resulta na maximização da distância entre os vértices de intersecção e na melhora na qualidade da malha gerada. A terceira modificação propõe o deslocamento dos vértices de intersecção ao longo das arestas ativas. O movimento dos vértices é controlado por um parâmetro que oferece a oportunidade de comprometer a qualidade de aproximação (distância entre a malha gerada e a isosuperfície) em razão da qualidade da malha. O conjunto de modificações propostas resulta no algoritmo Macet (Marching Cubes with Edge Transformations). O Macet é simples e eficiente, gera malhas com qualidade de aproximação igual ou superior à do MC e onde os triângulos de baixa qualidade ainda têm qualidade comparável ou superior aos métodos disponíveis atualmente. / This work sheds a new light on one of the most important algorithms of Computer Graphics, the isosurface polygonization algorithm Marching Cubes (MC). The analysis described here allows the study of situations where low quality triangles are generated, one of the well-know MC drawbacks, and also supports the proposal of extensions for the algorithm. In this work three extensions for MC are also proposed, all with purpose of increase the quality of the resulting triangulations and keep the simplicity, efficiency and robustness of MC. The MC is studied with the breaking of its sampling cells in Edge Groups. The Edge Groups allow the study of how triangles are generated inside each sampling cell, and make possible to identify where and how low quality triangles are generated. The low quality triangle generation is tackled through the proposal of three modifications to the MC algorithm, namely: (1) a new rule to create the look-up table, (2) the warping of active edges and (3) the displacement of cut vertices along active edges. The first modification is the proposal of a new rule to create the triangulations of the MC look-up table. This rule aims the mesh quality improvement through the creation of triangulations that are based on edge groups with fewer chances of generate low quality triangles. The second modification is the proposal of the active edge warping. The edge groups analysis shows that active edges position have a high impact on the triangle quality, which motivates the proposal of a procedure that warps the active edges in response to the isosurface behavior. This procedure results in the maximization of the distance between cut edges, and, consequently, in the overall mesh quality improvement. The third modification is the proposal of the cut vertex displacement along active edges. The vertex displacement is controlled by a user-defined parameter which results in a tradeoff between approximation quality (the distance between the mesh and the “real” isosurface) and the mesh quality. The set of modifications results in the proposal of the Macet (Marching Cubes with Edge Transformations) algorithm. Macet is simple and efficient, and results in high quality meshes with the same (or higher) MC approximation quality.
176

Um ambiente para a integração de sistemas de animação

Silva, Rodrigo de Losina January 1995 (has links)
Este trabalho apresenta um modelo de integração de ferramentas de animação que reduz consideravelmente o esforço envolvido na construção de novos sistemas. O modelo proposto distribui as tarefas a serem implementadas pelo sistema entre diversas ferramentas, permitindo que cada uma seja menor e mais fácil de manter que um sistema completo. Uma implementação do modelo proposto também é apresentada aqui, assim como o é um protótipo de sistema, construído de acordo com o modelo. O protótipo é comparado com as ferramentas de animação atualmente disponíveis na UFRGS, a universidade na qual este estudo foi desenvolvido. O trabalho conclui com uma análise dos resultados principais obtidos deste estudo. Ao final também são apresentadas algumas sugestões de trabalhos futuros. / This work presents a model for animation tool’s integration, which greatly reduces the programmer’s work in developing a new system. The proposed model distributes all tasks among several tools, making each tool smaller and easier to maintain. An implementation of such model is also described here, and so is a prototype of an animation system made according to the model proposed. The prototype is then compared to the current animation tools available at the UFRGS, the University in which this work was developed. The work concludes with an analysis of the main results and some suggestions of possible future works.
177

O Uso de ícones na visualização de informações

Estivalet, Luiz Fernando January 2000 (has links)
A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.
178

Reconhecimento de caracteres alfanuméricos de placas em imagens de veículos

Campos, Tatiane Jesus de January 2001 (has links)
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
179

Uma Metodologia para o desenvolvimento de aplicações de visão computacional utilizando um projeto conjunto de hardware e software

Molz, Rolf Fredi January 2001 (has links)
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
180

Modelo de performance para código com desvios de execução em hardware gráfico / Performance model for code with execution branches in graphics hardware

Vasconcelos, Atila Bohlke January 2006 (has links)
O advento das unidades de processamento gráfico (GPUs) programáveis forneceram um novo modelo computacional que pode ser utilizado em diversas aplicações. Baseadas em arquitetura de fluxo paralelo, a atual geração de GPUs oferece processadores de vértices e de fragmentos programáveis que podem aumentar drasticamente a performance comparada com soluções implementadas exclusivamente em CPUs. Entretanto obter performance ótima no modelo computacional da GPU, que é complexo e altamente paralelo, com ferramentas de depuração limitadas é uma tarefa difícil e importante. Neste trabalho nós descrevemos uma abordagem simples para avaliar diversas soluções baseadas em GPU para uma dada solução. Ela consiste de um modelo de estimativa de performance que procura reproduzir, dentro de faixas toleráveis de erro, a medida de performance para a unidade de processamento de fragmentos. Nós avaliamos a nossa proposta utilizando as últimas gerações de placas gráficas da NVidia e da ATI usando um conjunto de medidas sintéticas bem como um estudo de caso de uma aplicação em tempo-real. / The advent of Graphics Processing Units (GPUs) with programmable shaders brought a new computational model that can be used in several applications. Based on a parallel streaming architecture, current GPU generations offer a vertex and fragment shader that can drastically improve performance if compared to CPU-only solutions. However, obtaining optimal performance in the highly parallel and complex GPU model with limited debugging tools is a challenging and important task. In this work we describe a simple approach to evaluate several GPU alternatives to a given solution. It consists of a performance estimation model that aims to reproduce within acceptable errors the measured performance of the fragment shader. We evaluate our proposal using last generation cards from NVIDIA and ATI using synthetic benchmarks as well as a real-time graphics application case-study.

Page generated in 0.0781 seconds