• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 843
  • 158
  • 93
  • 12
  • 12
  • 12
  • 12
  • 9
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 1112
  • 737
  • 227
  • 190
  • 177
  • 168
  • 120
  • 108
  • 98
  • 94
  • 89
  • 86
  • 84
  • 80
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Visualização de estruturas internas em volumes de dados multimodais

Manssour, Isabel Harb January 2002 (has links)
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
252

Representação, visualização e manipulação de dados médicos tridimensionais

Santos, Thiago Ramos dos January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T16:26:11Z (GMT). No. of bitstreams: 1 233630.pdf: 3084918 bytes, checksum: ecf789d1899b2e3f4fe9d06bfa28d160 (MD5) / Dados tridimensionais referentes a pacientes são utilizados em diversos setores médico-hospitalares, fornecendo embasamento à diagnósticos e orientação durante procedimentos cirúrgicos. No entanto, apesar de bastante úteis estes dados são bastante inflexíveis, não permitindo que o usuário interaja com estes ou os manipule. O emprego de técnicas de computação gráfica e realidade virtual para a representação destes dados sanaria estas dificuldades, gerando representações indivíduais e adaptadas para cada paciente e permitindo a realização de planejamentos cirúrgicos e cirurgias auxiliadas por computador, dentre outras possibilidades. A representação destes dados e as formas de manipulação devem conter um conjunto de elementos e obedecer alguns requisitos para que se obtenha realismo nas aplicações, caso contrário, o emprego destas técnicas não traria grandes vantagens. Analisando os elementos e requisitos a serem obedecidos, é construído um grafo de dependências que mostra as técnicas e estruturas computacionais necessárias para a obtenção de ambientes virtuais imersivos realistas. Tal grafo demonstra as estruturas de dados para representação de sólidos como peça chave para este tipo de aplicativos. Para suprir as necessidades destes, é apresentada uma estrutura de dado capaz de representar uma vasta classe de topologias espaciais, além de permitir rápido acesso a elementos e suas vizinhanças, bem como métodos para a construção de tal estrutura. É apresentada, também, uma aplicação para mensuração de artérias utilizando a estrutura e os métodos previamente mencionados e os resultados por obtidos por estes.
253

Marco de Trabajo de Rendering no Fotorrealista.

Graells Garrido, Eduardo Nicolás January 2008 (has links)
En Computación Gráfica uno de los conceptos más importantes es el \emph{Rendering}, definido como el proceso que a partir de los datos de una escena tridimensional genera una imagen en una ventana de visualización en 2 dimensiones. El rendering siempre se ha enfocado en generar imágenes fotorrealistas, aunque para diversas aplicaciones y escenarios se desea una imagen abstracta y/o estilizada. El proceso que puede generar ese tipo de imágenes es llamado Rendering No Fotorrealista, o NPR por sus siglas en inglés (Non Photorealistic Rendering). El NPR integra conceptos de Computación Gráfica y de Geometría Diferencial, y puede aplicarse en visualización científica e ilustración técnica, con el fin de destacar áreas o contornos de los objetos que son de interés para el observador; en la producción de imágenes que imiten medios tradicionales como la pintura o la acuarela; y en la generación de imágenes que imiten dibujos animados, entre otras áreas. En esta memoria se diseña e implementa un marco de trabajo (framework en inglés) para Computación Gráfica que permite desarrollar técnicas NPR y de rendering tradicional. El diseño del marco de trabajo contempla el estudio de los puntos comunes de diferentes técnicas de NPR y de las áreas asociadas, y, siguiendo el paradigma de la Orientación a Objetos, define distintas componentes internas que pueden ser extendidas para implementar técnicas de NPR y de rendering tradicional. La implementación se realiza en el lenguaje de programación C++ utilizando bibliotecas de código abierto o compatibles con código abierto: se utilizan la biblioteca gráfica OpenGL y el lenguaje Cg para comunicarse con los procesadores de la tarjeta de vídeo (GPU). El marco de trabajo incluye técnicas ya implementadas: para el rendering tradicional se implementaron graficadores de Gouraud y de Phong, mientras que para las técnicas NPR se implementaron graficadores de dibujado animado (Cel-Shading) y de modelos de tonos (Gooch Shading). Se implementaron extractores de líneas de interés (Siluetas y Contornos Sugestivos), así como una clase abstracta que permite definir nuevos tipos de líneas a extraer. La demostración de estas implementaciones se realiza mediante una aplicación de prueba que permite cargar modelos tridimensionales estáticos y animados; los resultados obtenidos se muestran mediante imágenes de los modelos tridimensionales cargados en la aplicación de prueba. Finalmente se realiza una discusión sobre el trabajo futuro, sobre las posibles líneas de investigación a seguir en estudios de post-grado y sobre el uso del marco de trabajo para implementar técnicas de rendering no NPR. Se concluye que el marco de trabajo se puede utilizar para el desarrollo de técnicas NPR y de rendering tradicional, que su desempeño es adecuado para el rendering en tiempo real para escenas tridimensionales de tamaño medio y que puede ser utilizado en aplicaciones reales.
254

Captura e visualização de video 3d em tempo real

Machado, Leonardo Alves January 2005 (has links)
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
255

Interface de gerenciamento e consultas visuais em banco de dados de biodiversidade / Visual interface for managing and querying a biodiversity data base system

Cañete, Samantha de Castro January 2011 (has links)
Com a ampliação da quantidade de informação disponível, gerada pelas diversas atividades humanas, surgiu a necessidade de sistemas computacionais capazes de indexar e analisar estas informações. A manipulação de dados, a derivação de novas informações e a extração de características desses dados propiciam descoberta de padrões e geração de conhecimento, tornando tais sistemas uma importante ferramenta científica. Sistemas com essas funcionalidades são criados com as mais variadas finalidades. No presente trabalho, focamos os sistemas para gerenciamento de informações na área da Biologia, mais especificamente, nos estudos da evolução de mamíferos. Tais sistemas podem ser enquadrados nos chamados sistemas de informação de biodiversidade. Tem-se verificado um número crescente de iniciativas direcionadas para o compartilhamento de informações de biodiversidade através da web. Tais sistemas visam disponibilizar, através da rede mundial de computadores, informações sobre espécimes catalogados em coleções nos mais variados locais, tais como museus de ciências naturais e instituições de pesquisa. Este trabalho descreve os componentes principais de um sistema de informações de biodiversidade, cujo objetivo é integrar recursos de visualização e de análise de dados e funções convencionais de gerenciamento encontradas em bancos de dados. O sistema, denominado TaxonomyBrowser, visa auxiliar os biólogos no gerenciamento de informações a respeito de espécimes por eles coletados, assim como exemplares já catalogados em coleções de museus. A integração com visualização de mapas através da API do Google Maps e a utilização de ferramentas de análise de dados através do Google Charts e do sistema R amplia a aplicabilidade do sistema, bem como, facilita a interação com os usuários. A validação, assim como todo projeto do sistema, foi realizada com a ajuda de biólogos da UFRGS, responsáveis pela coleta e catalogação de espécimes de mamíferos. / The increasing amount of information available due to the several, different human activities leads to the need for computing systems able to index and analyze these large data volume. Data manipulation, derivation of new data from the available ones and the extraction of characteristics from these data allow finding patterns and generating knowledge, turning such computing systems important scientific tools. Thus, systems with these features are created with a variety of purposes. In this work we focus on systems for the management of biological data, more specifically on those supporting the study of mammals’ evolution. Such systems are classified as biodiversity information systems. It has been verified an increasing number of approaches to share biodiversity information through the web. Such systems aim at providing, through theWorldWideWeb, information about catalogued specimens in collections at various locations, like natural sciences museums and research institutions. This work describes the main components of a biodiversity information system developed to integrate visualization and data analysis tools and conventional data management functions provided by relational databases. The system, named TaxonomyBrowser, aims at helping biologists to manage the information about the specimens they collect in fieldwork, as well as specimens that have already been catalogued in museums’ collections. The integration of map visualization through the Google Maps API and the application of Google Charts and R System as data analysis tools improve the system applicability, as well as facilitate user interaction. All phases of the system design were performed together with UFRGS biologists, in a participatory design experience, and currently they are carrying on a thorough validation of the system.
256

Grupos de arestas : uma nova abordagem para entender a qualidade da malha gerada pelo Marching Cubes e suas variantes / Edge groups: a new approach to understanding the mesh quality of marching cubes and its variants

Dietrich, Carlos Augusto January 2008 (has links)
Este trabalho descreve uma nova visão sobre um dos algoritmos mais importantes da Computação Gráfica, o algoritmo para a poligonização de isosuperfícies Marching Cubes (MC). Esta visão permite o estudo das situações onde são gerados triângulos de baixa qualidade, uma das grandes deficiências do MC, e serve como suporte à proposta de modificações no algoritmo. Neste trabalho também são propostas três modificações ao MC, com objetivo de gerar triângulos de boa qualidade e manter as características mais atraentes do MC, ou seja, a sua simplicidade, eficiência e robustez. O funcionamento do MC é analisado a partir da decomposição das células de amostragem em Grupos de Arestas. Os Grupos de Arestas permitem o estudo do modo como os triângulos são construídos no interior de cada célula de amostragem, e possibilitam identificar onde e como são gerados triângulos de baixa qualidade. As situações onde triângulos de baixa qualidade são gerados são resolvidas através da proposta de três modificações no algoritmo MC, sendo elas: (1) um critério para conduzir a construção da tabela de triangulações, (2) o reposicionamento das arestas ativas e (3) o deslocamento dos vértices de intersecção sobre as arestas ativas. A primeira modificação é a proposta de um novo critério para conduzir a construção da tabela de triangulações do MC. O critério tem como objetivo o aumento da qualidade da malha gerada, através do uso de triangulações que não resultem nos grupos de arestas que têm maior probabilidade de gerar triângulos de baixa qualidade. A segunda modificação propõe o reposicionamento das arestas ativas. Os grupos de arestas mostram que a posição das arestas ativas influencia a qualidade dos triângulos, o que motiva a criação de um procedimento que reposicione as arestas ativas em relação ao comportamento da isosuperfície. Este procedimento resulta na maximização da distância entre os vértices de intersecção e na melhora na qualidade da malha gerada. A terceira modificação propõe o deslocamento dos vértices de intersecção ao longo das arestas ativas. O movimento dos vértices é controlado por um parâmetro que oferece a oportunidade de comprometer a qualidade de aproximação (distância entre a malha gerada e a isosuperfície) em razão da qualidade da malha. O conjunto de modificações propostas resulta no algoritmo Macet (Marching Cubes with Edge Transformations). O Macet é simples e eficiente, gera malhas com qualidade de aproximação igual ou superior à do MC e onde os triângulos de baixa qualidade ainda têm qualidade comparável ou superior aos métodos disponíveis atualmente. / This work sheds a new light on one of the most important algorithms of Computer Graphics, the isosurface polygonization algorithm Marching Cubes (MC). The analysis described here allows the study of situations where low quality triangles are generated, one of the well-know MC drawbacks, and also supports the proposal of extensions for the algorithm. In this work three extensions for MC are also proposed, all with purpose of increase the quality of the resulting triangulations and keep the simplicity, efficiency and robustness of MC. The MC is studied with the breaking of its sampling cells in Edge Groups. The Edge Groups allow the study of how triangles are generated inside each sampling cell, and make possible to identify where and how low quality triangles are generated. The low quality triangle generation is tackled through the proposal of three modifications to the MC algorithm, namely: (1) a new rule to create the look-up table, (2) the warping of active edges and (3) the displacement of cut vertices along active edges. The first modification is the proposal of a new rule to create the triangulations of the MC look-up table. This rule aims the mesh quality improvement through the creation of triangulations that are based on edge groups with fewer chances of generate low quality triangles. The second modification is the proposal of the active edge warping. The edge groups analysis shows that active edges position have a high impact on the triangle quality, which motivates the proposal of a procedure that warps the active edges in response to the isosurface behavior. This procedure results in the maximization of the distance between cut edges, and, consequently, in the overall mesh quality improvement. The third modification is the proposal of the cut vertex displacement along active edges. The vertex displacement is controlled by a user-defined parameter which results in a tradeoff between approximation quality (the distance between the mesh and the “real” isosurface) and the mesh quality. The set of modifications results in the proposal of the Macet (Marching Cubes with Edge Transformations) algorithm. Macet is simple and efficient, and results in high quality meshes with the same (or higher) MC approximation quality.
257

Um ambiente para a integração de sistemas de animação

Silva, Rodrigo de Losina January 1995 (has links)
Este trabalho apresenta um modelo de integração de ferramentas de animação que reduz consideravelmente o esforço envolvido na construção de novos sistemas. O modelo proposto distribui as tarefas a serem implementadas pelo sistema entre diversas ferramentas, permitindo que cada uma seja menor e mais fácil de manter que um sistema completo. Uma implementação do modelo proposto também é apresentada aqui, assim como o é um protótipo de sistema, construído de acordo com o modelo. O protótipo é comparado com as ferramentas de animação atualmente disponíveis na UFRGS, a universidade na qual este estudo foi desenvolvido. O trabalho conclui com uma análise dos resultados principais obtidos deste estudo. Ao final também são apresentadas algumas sugestões de trabalhos futuros. / This work presents a model for animation tool’s integration, which greatly reduces the programmer’s work in developing a new system. The proposed model distributes all tasks among several tools, making each tool smaller and easier to maintain. An implementation of such model is also described here, and so is a prototype of an animation system made according to the model proposed. The prototype is then compared to the current animation tools available at the UFRGS, the University in which this work was developed. The work concludes with an analysis of the main results and some suggestions of possible future works.
258

O Uso de ícones na visualização de informações

Estivalet, Luiz Fernando January 2000 (has links)
A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.
259

Reconhecimento de caracteres alfanuméricos de placas em imagens de veículos

Campos, Tatiane Jesus de January 2001 (has links)
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
260

Uma Metodologia para o desenvolvimento de aplicações de visão computacional utilizando um projeto conjunto de hardware e software

Molz, Rolf Fredi January 2001 (has links)
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.

Page generated in 0.0395 seconds