• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 165
  • 26
  • 25
  • 25
  • 25
  • 18
  • 7
  • 7
  • 7
  • 7
  • Tagged with
  • 167
  • 167
  • 78
  • 38
  • 33
  • 28
  • 28
  • 27
  • 26
  • 25
  • 25
  • 22
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Aplicação de sistemas imunológicos artificiais para biometria facial: Reconhecimento de identidade baseado nas características de padrões binários /

Silva, Jadiel Caparrós da. January 2015 (has links)
Orientador: Anna Diva Plasencia Lotufo / Co-orientador: Jorge Manuel M. C. Pereira Batista / Banca: Carlos Roberto Minussi / Banca: Ricardo Luiz Barros de Freitas / Banca: Díbio Leandro Borges / Banca: Gelson da Cruz Junior / Resumo: O presente trabalho tem como objetivo realizar o reconhecimento de identidade por meio de um método baseado nos Sistemas Imunológicos Artificiais de Seleção Negativa. Para isso, foram explorados os tipos de recursos e alternativas adequadas para a análise de expressões faciais 3D, abordando a técnica de Padrão Binário que tem sido aplicada com sucesso para o problema 2D. Inicialmente, a geometria facial 3D foi convertida em duas representações em 2D, a Depth Map e a APDI, que foram implementadas com uma variedade de tipos de recursos, tais como o Local Phase Quantisers, Gabor Filters e Monogenic Filters, a fim de produzir alguns descritores para então fazer-se a análise de expressões faciais. Posteriormente, aplica-se o Algoritmo de Seleção Negativa onde são realizadas comparações e análises entre as imagens e os detectores previamente criados. Havendo afinidade entre as imagens previamente estabelecidas pelo operador, a imagem é classificada. Esta classificação é chamada de casamento. Por fim, para validar e avaliar o desempenho do método foram realizados testes com imagens diretamente da base de dados e posteriormente com dez descritores desenvolvidos a partir dos padrões binários. Esses tipos de testes foram realizados tendo em vista três objetivos: avaliar quais os melhores descritores e as melhores expressões para se realizar o reconhecimento de identidade e, por fim, validar o desempenho da nova solução de reconhecimento de identidades baseado nos Sistemas Imunológicos Artificiais. Os resultados obtidos pelo método apresentaram eficiência, robustez e precisão no reconhecimento de identidade facial / Abstract: This work aims to perform the identity recognition by a method based on Artificial Immune Systems, the Negative Selection Algorithm. Thus, the resources and adequate alternatives for analyzing 3D facial expressions were explored, exploring the Binary Pattern technique that is successfully applied for the 2D problem. Firstly, the 3D facial geometry was converted in two 2D representations. The Depth Map and the Azimuthal Projection Distance Image were implemented with other resources such as the Local Phase Quantisers, Gabor Filters and Monogenic Filters to produce descriptors to perform the facial expression analysis. Afterwards, the Negative Selection Algorithm is applied, and comparisons and analysis with the images and the detectors previously created are done. If there is affinity with the images, than the image is classified. This classification is called matching. Finally, to validate and evaluate the performance of the method, tests were realized with images from the database and after with ten descriptors developed from the binary patterns. These tests aim to: evaluate which are the best descriptors and the best expressions to recognize the identities, and to validate the performance of the new solution of identity recognition based on Artificial Immune Systems. The results show efficiency, robustness and precision in recognizing facial identity / Doutor
82

Desenvolvimento de um método para a captura de movimentos humanos usando uma câmera RGB-D /

Motta, Everton Simões da. January 2016 (has links)
Orientador: Antonio Carlos Sementille / Banca: Valter Vieira de Camargo / Banca: João Fernando Marar / Resumo: Sistemas de captura de movimentos humanos vêm sendo cada dia mais estudados, tanto pela área de Visão Computacional, quanto por grandes empresas do setor de entretenimento. São sistemas capazes de rastrear a posição e orientação das articulações do corpo e sua trajetória no espaço durante um intervalo de tempo. São utilizados em diversas aplicações, tais como em jogos digitais, animação de personagens virtuais para cinema e televisão, reconhecimento gestual, medicina de reabilitação, e outras. O surgimento de novos dispositivos de baixo custo e boa resolução que fornecem informações de profundidade, tem motivado novas pesquisas para a utilização dos mesmos. No entanto, sistemas que se baseiam somente em informações de profundidade (geralmente sistemas em tempo real) não apresentam uma alta acurácia no rastreamento do movimento. Considerando este contexto, o presente trabalho teve como objetivo principal, o desenvolvimento de um método de captura de movimentos humanos utilizando único sensor RGB-D, combinando informações de textura da imagem e de profundidade, que são associados a um esqueleto virtual, conseguindo-se uma maior acurácia em comparação com os métodos baseados apenas em profundidade. Tal método não visa aplicações de tempo real, mas sim, uma maior acurácia em comparação com os métodos baseados apenas em profundidade / Abstract: Human motion capture systems are being increasingly studied, in the area of computer vision and also by major entertainment industries. These systems are able to track the position and orientation of joints of the body and its trajectory in space over a period of time. They are used in various applications such as digital games, animation of virtual characters for film and television, gesture recognition, medical rehabilitation, etc. The emergence of new low-cost and good resolution devices that provide depth information has prompted new research. However, systems that are based only on depth information (usually real-time systems) do not present a high accuracy in movement tracking. Considering this context, this thesis project presents the development of a method for capturing human movements using only one RGB-D sensor, combining captured texture from the image and depth information in order to obtain a higher accuracy, which are associated with a virtual skeleton. This method is not intended for real-time applications, but those that require greater accuracy, such as the animation of virtual characters in video and medical rehabilitation / Mestre
83

Desenvolvimento de um método numérico para simular escoamentos viscoelásticos axissimétricos com superfícies livres: Modelo PTT

Merejolli, Reginaldo [UNESP] 24 April 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:27:08Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-04-24Bitstream added on 2014-06-13T18:55:34Z : No. of bitstreams: 1 merejolli_r_me_prud.pdf: 1357578 bytes, checksum: 415c634c0e40bf216c3855bc04b34cf3 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Neste trabalho é apresentado um método numérico para simular escoamentos viscoelásticos axissimétricos com superfícies livres modelados pela equação constitutiva PTT (Phan-Thien-Tanner). As equações governantes para escoamentos axissimétricos transientes incompressíveis de um fluido PTT são resolvidas utilizando o método de diferenças finitas numa malha deslocada. As derivadas temporais da equação do momento e da equação constitutiva são integradas pelo método de Euler explícito. Os termos convectivos são aproximados pelo método de alta ordem CUBISTA (Convergent and Universally Bounded Interpolation Scheme for the Treament of Advection), os termos difusivos e as derivadas espaciais são aproximados por diferenças centrais. O fluido é modelado utilizando a técnica Marker-and-Cell (MAC) o que permite visualizar e localizar a superfície livre do fluido. O método numérico descrito neste trabalho foi implementado na plataforma de alto desempenho denominada FREEFLOW-AXI e verificado comparando-se os resultados numéricos obtidos da simulação do escoamento totalmente desenvolvido em um tubo com a solução analítica deste problema. Foram obtidos alguns resultados numéricos para escoamentos axissimétricos com superfícies livres utilizando um fluido PTT, tais como, o impacto de uma gota esférica de fluido viscoelástico numa superfície rígida (Impacting Drop), o impacto de uma gota esférica numa superfície líquida (Splashing Drop) e o problema do inchamento do extrudado (Dieswell). Nestas simulações, o foco principal foi estudar numericamente os efeitos dos parâmetros do modelo PTT e nestes escoamentos / In this work is presented a numerical method for simulating axisymmetric viscoelastic free surface flows modeled by the constitutive equation PTT (Phan-Thien-Tanner). The governing equations for incompressible transient axisymmetric flows of a PTT fluid are solved using the finite difference method in a staggered grid. The time derivatives on momentum and constitutive equations are integrated by forward Euler method. The convective terms are approximated by the high order method CUBISTA (Convergent and Universally Bounded Interpolation Scheme for the Treament of Advection), the diffusive terms and the spatial derivatives are approximated by central differences. The fluid is modeled using the strategy “Marker-and-Cell” (MAC) which allows to view and locate the free surface of the fluid. The numerical method described in this work was implemented on the high performance platform called FREEFLOW-AXI and verified by comparing the numerical results of fully developed tube flow with the analytic solution of this problem. Some numerical results for axisymmetric free surface flows using a PTT fluid were obtained, such as, impacting drop, splashing drop and the dieswell problems. In these simulations, the numerical studies about the influence that the parameters of the PTT model and exert on the flows were the main focus
84

Desenvolvimento de um método semiautomático para geração de ground truths de vídeos

Gaspari, Tiago De [UNESP] 13 August 2015 (has links) (PDF)
Made available in DSpace on 2016-05-17T16:51:21Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-08-13. Added 1 bitstream(s) on 2016-05-17T16:54:56Z : No. of bitstreams: 1 000863591.pdf: 2363644 bytes, checksum: d821a6554e7fd94c0d7041d8389794ce (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Vários algoritmos de segmentação de vídeo em duas camadas, para a extração de elementos de interesse em primeiro plano (normalmente pessoas) em ambientes não controlados, vem sendo propostos, para diversas aplicações como sistemas de Realidade Aumentada, video chats, ou para a compressão de vídeos. Para analisar a qualidade dos vídeos gerados pelos algoritmos de segmentação, diversos métodos os comparam com seus respectivos ground truths, que consistem em referências da melhor segmentação possível de um vídeo. Muitas vezes esse ground truth é obtido de forma manual, ou seja, o usuário pode ter que segmentar cada quadro (frame) do vídeo. Naturalmente este processo é trabalhoso, demorado e muitas vezes não é realizado para todos os quadros que constituem o vídeo. Devido a isto, também, muitas vezes o ground truth possui baixa resolução e curta duração. Estes aspectos podem constituir um problema quanto à eficácia da utilização do próprio ground truth no processo de avaliação da qualidade da segmentação. Neste contexto, o presente projeto teve como principal enfoque o desenvolvimento de um método semiautomático para a geração de ground truths de vídeos, utilizando informações de profundidade, visando a minimização da interação do usuário, o processo de implementação deste método na forma de uma ferramenta que combina etapas automáticas e interativas, assim como os resultados obtidos são comparados a outros trabalhos presentes na literatura / Several bilayer video segmentation algorithms, for the extraction of elements of interest in the foreground (usually people) in uncontrolled environments, have been proposed for various applications such as Augmented Reality systems, video chats or for video compression. To analyze the quality of the videos generated by the segmentation algorithms, different methods compare them with their ground truths, which consist of references of the best possible segmentation of a video. Usually this ground truth is obtained manually, so the user may have to segment each frame of the video. Of course this process is laborious, time consuming and frequently not performed for all frames of the video. Because of this, the ground truth, usually, has low resolution and short duration. These aspects can be an issue to the effectiveness of using these ground truths in the segmentation quality evaluation process. In this context, this project had as its main focus the development of a semi-automatic method for the generation of ground truths of videos, using depth information, in order to minimize the user interaction, the implementation process of this method as a tool that combines automatic and interactive steps, and the results, that are compared to other studies in literature
85

Segmentação interativa de imagens utilizando competição e cooperação entre partículas

Silva, Bárbara Ribeiro da [UNESP] 13 October 2015 (has links) (PDF)
Made available in DSpace on 2016-05-17T16:51:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-10-13. Added 1 bitstream(s) on 2016-05-17T16:55:22Z : No. of bitstreams: 1 000863304.pdf: 2077644 bytes, checksum: b840a93c470319804fb7f313d43a5e9a (MD5) / Para estudar e classificar imagens é necessário entender as subdivisões que elas apresentam. Para esta finalidade existem técnicas de segmentação de imagens, uma das tarefas de visão computacional, a qual consiste na repartição de uma imagem digital em múltiplos segmentos, regiões ou objetos, com o intuito de facilitar a análise e compreensão. Métodos de segmentação de imagens são frequentemente utilizados para localizar objetos e bordas em imagens. Para tal tarefa, frequentemente são empregados algoritmos de aprendizado de máquina; disciplina científica que trata do projeto e desenvolvimento de algoritmos que melhoram automaticamente com a experiência, imitando o comportamento de aprendizado humano. O processo de aprendizado de máquina pode ser utilizado de diferentes formas, no entanto a categoria de aprendizado semi-supervisionado foi a que melhor se adaptou à proposta deste projeto. Esta categoria representa uma mescla entre o aprendizado supervisionado e o aprendizado não-supervisionado e trabalha com ambos os dados rotulados e não rotulados em sua fase de treinamento, proporcionando o uso de características individuais e/ou por conjunto. Diante da necessidade de combinação do aprendizado semi-supervisionado com a segmentação de imagem, foram estudadas formas de se utilizar informação provenientes de imagens para alimentar o aprendizado de máquina semi-supervisionado. Como resultado deste estudo, o algoritmo de aprendizado semi-supervisionado conhecido como competição e cooperação entre partículas foi estendido para a aplicações na tarefa de segmentação interativa de imagens. Na imagem de entrada, alguns pixels são classificados pelo usuário e servem como pixels de partida para o algoritmo. Estes pontos pré-rotulados são utilizados para criar as partículas no modelo utilizado. Também foram alterados alguns parâmetros de execução e partes estruturais do algoritmo de forma a otimizar a... / To study and classify images it is necessary to understand the subdivisions they present. For this purpose there are image segmentation techniques, one of the computer vision tasks, which consists in the distribution of a digital image into multiple segments, regions or objects, in order to facilitate analysis and understanding. Image segmentation methods are often used for locating objects in images and borders. For this task, machine learning algorithms are often employed; scientific discipline that deals with the design and development of algorithms that automatically improve with experience, imitating the human learning behavior. The machine learning process can be used in different ways, however the category that best adapted to the project proposal, which represents a blend of supervised learning and unsupervised learning, called semi-supervised learning. Such category of algorithms works with both labelled and unlabelled data in their training phase, allowing the use of individual characteristics and or per set. Given the necessity of combining semi-supervised learning with image segmentation, some means of using information delivered from image to feed the semi-supervised learning machine were studied. As a result of this study, the semi-supervised learning algorithm known as competition and cooperation among particles was extended to be applied in the interactive image segmentation task. In the input image, some pixels are classified by the user and serve as a starting pixels to the algorithm. These pre-labeled points are used to create particles in the proposed model. Also, some parameters and algorithm structures were changed to optimize the classification and means of expressing the results in order to make it more suitable for the image segmentation task
86

Uma solução paralela de agrupamento de dados em GPU /

Souza, Thiago Alexandre Domingues de. January 2017 (has links)
Orientador: Aleardo Manacero Junior / Banca: Alexandro José Baldassin / Banca: Paulo Sérgio Lopes de Souza / Resumo: A indústria de tecnologia da informação tem permitido uma explosão de dados coletados nos últimos anos. Isso ocorreu, entre outros fatores, pela expansão do acesso à rede por meio de uma infinidade de equipamentos. Uma análise detalhada dos dados armazenados pode, por exemplo, extrair informações valiosas sobre o comportamento dos indivíduos, permitindo uma relação personalizada de acordo com os interesses dos usuários. Essa tarefa pode ser feita usando algoritmos de agrupamento de dados. Porém, esse é um processo que requer grande esforço computacional tanto pela ordem de complexidade dos algoritmos existentes como pelos crescentes volumes processados. Nesse contexto, execuções sequenciais não são viáveis e sua paralelização é o caminho natural. Isso exige remodelar algoritmos para explorar o potencial de plataformas massivamente paralelas, de acordo com as particularidades da arquitetura alvo. Neste trabalho se propõe uma implementação paralela do algoritmo Fuzzy Minimals para GPU, como uma solução de alto desempenho e baixo custo para contornar dificuldades frequentes no agrupamento de dados. Com o objetivo de avaliar o desempenho de nossa solução, também desenvolvemos versões paralelas em MPI e OpenMP. Nossos experimentos mostram que a solução para GPU alcança resultados expressivos com um baixo custo, mantendo uma precisão significativa / Abstract: IT industry has witnessed an explosion of data collected for the past few years. This took place, among other factors, due to the expansion of network access through several devices. For example, a detailed analysis of the stored data can extract some valuable information about human behaviors, allowing a customized experience that matches the interests of users . This task can be performed by clustering algorithms. However, this is a time-consuming process due to the asymptotic complexity of existing algorithms and the increasing volumes of data processed. In this context, sequential executions are not feasible and their parallelization is the natural path. This requires redesigning algorithms to take advantage of massively parallel platforms according to the particularities of targeted architectures. In this paper, it is proposed a novel parallel implementation of the Fuzzy Minimals algorithm on GPU, as a high-performance lowcost solution for common clustering issues. In order to evaluate the performance of our implementation, we have also designed parallel versions using MPI and OpenMP. Our experiments show that our parallel solution on GPU can achieve a high performance at a low cost, preserving a significant accuracy / Mestre
87

Suporte ao diagnóstico da doença de Alzheimer a partir de imagens de ressonância magnética /

Padovese, Bruno Tavares. January 2017 (has links)
Orientador: Daniel Carlos Guimarães Pedronette / Coorientador: Denis Henrique Pinheiro Salvadeo / Banca: Marco Antonio Garcia de Carvalho / Banca: Fabricio Aparecido Breve / Resumo: Os estágios iniciais da doença de Alzheimer são comumente confundidos com o processo natural de envelhecimento. Adicionalmente, a metodologia envolvida no diagnóstico por radiologistas pode ser subjetiva e difícil de documentar. Neste cenário, o desenvolvimento de abordagens acessíveis capazes de auxiliar no diagnóstico precoce da doença de Alzheimer é crucial. Várias abordagens têm sido empregadas com este objetivo, especialmente utilizando imagens de ressonância magnética cerebral. Embora resultados com precisão satisfatória tenham sido obtidos, a maioria das abordagens requer etapas de pré-processamento muito específicas, baseadas na anatomia do cérebro. Neste trabalho, apresentamos uma nova abordagem de recuperação de imagens para auxílio ao diagnóstico da doença de Alzheimer, com base em descritores de propósito geral e uma etapa de pós-processamento não supervisionada. Os exames de ressonância magnética cerebral são processados e recuperados através de descritores de uso geral sem nenhuma etapa de pré-processamento. Dois algoritmos de aprendizado não-supervisionados baseados em ranqueamento foram aplicados para melhorar a eficácia dos resultados iniciais: os algoritmos RL-Sim e ReckNN. Os resultados experimentais demonstram que a abordagem proposta é capaz de atingir resultados de recuperação eficazes, sendo adequada para auxiliar no diagnóstico da doença de Alzheimer / Abstract: Initial stages of Alzheimer's disease are easily confused with the normal aging process. Additionally, the methodology involved in the diagnosis by radiologists can be subjective and difficult to document. In this scenario, the development of accessible approaches capable of supporting the early diagnosis of Alzheimer's disease is crucial. Various approaches have been employed with this objective, specially using brain MRI scans. Although certain satisfactory accuracy results have been achieved, most of the approaches require very specific pre-processing steps based on the brain anatomy. In this work, we present a novel image retrieval approach for supporting the Alzheimer's disease diagnostic, based on general purpose features and an unsupervised post-processing step. The brain MRI scans are processed and retrieved through general visual features without any pre-processing step. Two rank-based unsupervised distance learning algorithms were used for improving the effectiveness of the initial results: the RL-Sim and ReckNN algorithms. Experimental results demonstrate that the proposed approach can achieve effective retrieval results, being suitable in aiding the diagnosis of Alzheimer's disease / Mestre
88

Modelo de mineração de dados em bases de dados acadêmicas / Data mining model in academics databases

Silva, Renan Monteiro da 12 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-05-17T16:17:57Z No. of bitstreams: 1 2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-05-26T16:25:53Z (GMT) No. of bitstreams: 1 2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / Made available in DSpace on 2016-05-26T16:25:53Z (GMT). No. of bitstreams: 1 2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / No campo das comunidades de pesquisa existe uma série de bases de dados que proveem informações interessantes sobre publicações resultantes da pesquisa, incluindo títulos de artigos, autores, palavras-chave, citações, índices, veículos de publicação (revistas, livros, conferências e os tipos de eventos mais importantes) e assim por diante. Exemplos de tais bases de dados são Google Scholar, CiteSeerX, DBLP, Microsoft Academic, Thomson Reuters Web of Science, entre outros. No entanto, essas bases de dados globais ainda carecem de serviços que possam ser usados na procura por comunidades ou agrupamentos. Uma comunidade pode ser definida como um grupo de entidades, nesse caso autores e/ou universidades, que compartilham atributos ou relacionamentos semelhantes. Neste trabalho é proposto um modelo de mineração e análise das informações contidas nessas bases de dados acadêmicas. A análise dessas informações apresentadas nos resultados visa à descoberta das universidades, autores e assuntos mais significativos dentro do contexto dos dados minerados. Para isso foi feito um estudo de caso utilizando as informações contidas nas bases de dados do CiteSeerX e do DBLP como ponto de partida para a criação de um modelo genérico com o objetivo de ser aplicável a qualquer base de dados acadêmica. No estudo de caso é feita uma extensa mineração nas bases de dados do CiteSeerX e do DBLP, a partir dessa etapa é feita a migração e tratamento dos dados originais obtidos para o modelo genérico proposto neste trabalho. Com o modelo preenchido são aplicados os algoritmos e instruções para geração dos resultados que são subdivididos em três diferentes categorias: clusters, rankings e comunidades de relacionamento. A partir dos resultados são investigadas as tendências atuais na colaboração entre autores e institutos educacionais usando as bases de dados do CiteSeerX e do DBLP. Com a obtenção das informações disponíveis foram construídos várias comunidades e agrupamentos usando as técnicas de clusterização existentes. _______________________________________________________________________________________________ ABSTRACT / In the field of the research community, several databases such as Google Scholar, CiteSeerX, DBP, Microsoft Academic, Thomson Reuter´s Web of Science among others provide interesting information about authors, citations, indexes, most relevant venues types and so on. However, those global databases have limitations, especially in finding communities or clusters. A community can be defined as a group of entities, in this case authors and/or universities that share similar properties or relations. In this work, it is proposed a model of data mining and analysis of the obtained information in these academics databases. The analysis of the presented information in the results aims the discovery of the universities, authors and subjects most significant inside the context of the mined data. Thus a study case was realized using the CiteSeerX database as the start point for creating a generic model in order to be applied in any academic database. In the study case an extensive data mining was performed in the CiteSeerX database, as well as the migration and treatment of the original data obtained for the generic model proposed in this work. With the model data filled the proposed algorithms and the code instructions were applied for the generation of the results which are subdivided in three different categories: clusters, rankings and relationship communities. From the results, the work is validated by showing the current trends in the collaboration between authors and educational institutes, using the CiteSeerX dataset. By mining the available information, several communities and clusters are revealed using the proposed techniques.
89

Uma abordagem de exploração volumétrica baseada em agrupamento e redução dimensional para apoiar a definição de funções de transferência multidimensionais /

Santos, Rafael Silva. January 2018 (has links)
Orientador: Danilo Medeiros Eler / Banca: Carla Maria Dal Sasso Freitas / Banca: Milton Hirokazu Shimabukuro / Resumo: Funções de transferência (FTs) são uma parte crucial do processo de exploração volumétrica em Visualização Direta de Volumes. Nesse processo, FTs desempenham duas tarefas principais: a classificação de materiais e o mapeamento de informações presentes nos dados para propriedades visuais. A busca por uma solução que lide com ambas as tarefas envolve uma série de fatores que, em conjunto, são um dos maiores desafios de visualização volumétrica. Neste trabalho, propomos uma abordagem de exploração que tem por objetivo envolver todo escopo e simplificar tanto a definição de FTs multidimensionais quanto a manipulação de datasets. A abordagem se organiza em três componentes: uma heurística baseada em entropia e correlação que guia a seleção de atributos para formação do espaço de entrada; um método de classificação que emprega a técnica de redução de dimensionalidade FastMap e a técnica de agrupamento DBSCAN para proporcionar a descoberta semiautomática de características volumétricas; e uma interface simplificada que, atrelada ao método de classificação, produz um gráfico de dispersão 2D de características para a exploração do volume. Inicialmente, o usuário deve analisar o ranking de atributos para formar um espaço multidimensional. Depois, deve escolher parâmetros para gerar o gráfico de características. Finalmente, deve navegar por esse gráfico a fim de identificar materiais ou estruturas relevantes. Nos experimentos realizados para avaliar a abordagem, os mecanismos... / Abstract: Transfer functions (TFs) are a crucial part of the volume exploration process in Direct Volume Rendering. In this process, TFs perform two main tasks: material classification and mapping of information to visual properties. The search for a solution that copes with both tasks involves a number of factors that, together, is one of the greatest challenges of volume visualization. In this work, we propose an exploration approach that aims to involve the entire scope and a simplify both the definition of multidimensional TFs and the manipulation of datasets. The approach is organized into three components: a heuristic based on entropy and correlation that guides the selection of attributes to conceive the input space; a classification method, which uses the dimensionality reduction technique FastMap and the clustering technique DBSCAN to provide a semiautomatic features finding; and a simplified interface that, linked to the previous method, provide a 2D scatter plot of features for volume exploration. Initially, the user must analyze at the ranking of attributes to form a multidimensional space. Afterwards, it must choice parameters to generate the scatter plot. Finally, it must navigate through this chart in order to reveal relevant materials and features. In the experiments performed to evaluate the approach, the available mechanisms allow to effectively find and isolate features inserted in all investigated datasets. It is also pointed out as contribution a low computational ... / Mestre
90

WT2RT

Lautert, Larissa Rodrigues January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:39:27Z (GMT). No. of bitstreams: 1 325552.pdf: 1002622 bytes, checksum: b02bceef07ab41a843ebba484b77d1a5 (MD5) Previous issue date: 2013 / A Web é o maior repositório de dados disponível, contando com mais de 150 milhões de tabelas com dados relacionais de qualidade. Muitos trabalhos têm unido esforços a fim de utilizá-las como base para consultas, porém, a heterogeneidade de formatações em que os dados se encontram limita a 17,75% a quantidade de tabelas aptas para este tipo de processamento. A fim de aumentar o aproveitamento das informações estruturadas na Web, esta dissertação apresenta o WT2RT (Web Table to Relational Table), uma solução para catalogação das categorias de tabelas utilizadas com maior frequência, formalização destas e definição de algoritmos para uniformização estrutural. Para a catalogação, foi implementado o framework WTClassifier, baseado em Redes Neurais Artificiais. Seu aprendizado se dá através da análise de padrões em tabelas, escolhidas aleatoriamente, cujas categorias são conhecidas. Nos experimentos realizados, o WTClassifier apresentou valores altos de F-measure para a maioria das estruturas definidas. Após a categorização, são aplicados algoritmos em cada caso heterogêneo, de modo a trazer todas as tabelas para uma estrutura única.<br> / Abstract : The Web is the largest repository of available data, with over 150 million high-quality tables. Several works have combined efforts to allow queries on these tables, however, their heterogeneous structures limit to 17.75% the amount of tables suitable for this type of processing. In order to increase the use of structured information on the Web, this work presents an approach called WT2RT (Web Table to Relational Table), that catalogsWeb table categories used more often, formalize them and defines structural uniformization algorithms. For the cataloging purpose, framework WTCLASSIFIER was implemented, using Artificial Neural Networks. It learns analyzing patterns of tables whose categories are known. In experiments, WTCLASSIFIER presented high F-measure values for most cases. After identifying table category, algorithms are applied in order to bring all tables to a single structure.

Page generated in 0.0698 seconds