• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 456
  • 67
  • 13
  • 13
  • 13
  • 13
  • 12
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 536
  • 371
  • 143
  • 141
  • 116
  • 110
  • 97
  • 84
  • 76
  • 50
  • 50
  • 46
  • 45
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Visualização de informação de depuração: uma avaliação experimental / Visualization of debugging information: an empirical assessment

Fabio Pereira da Silva 15 December 2017 (has links)
Depuração é a tarefa de localizar e corrigir defeitos em um programa. Apesar do esforço de pesquisa em depuração, especialmente nos últimos anos, ela ainda é realizada da mesma forma desde a década de 60, quando os primeiros depuradores simbólicos foram introduzidos. Localização de defeitos baseada em cobertura (LDC) é uma técnica de depuração promissora devido ao seu baixo custo de execução. LDC identifica os elementos mais suspeitos de um programa ao classificar linhas, métodos, classes e pacotes com maior valor de suspeição. Recentemente, ferramentas de visualização têm sido propostas para representar os valores de suspeição dos elementos de um programa. Entretanto, nenhuma delas foi introduzida em ambientes industriais e a utilização de depuradores simbólicos ainda é predominante. Nesta dissertação, foi avaliada a eficácia, a eficiência e a usabilidade de duas ferramentas de depuração, chamadas CodeForest e Jaguar, em ambientes reais. Jaguar apresenta os trechos mais suspeitos de um programa em uma lista ordenada por seus valores de suspeição. A CodeForest recebe informações de classes, métodos e blocos (conjunto de instruções executadas em sequência) suspeitos para construir uma floresta de cactus tridimensional representando o programa inspecionado. Na CodeForest, as classes são representadas como cactus, os métodos como galhos e os blocos como espinhos de um galho. Em ambas as ferramentas, os elementos do programa recebem cores que variam de acordo com o seu valor de suspeição. A questão básica respondida ao término deste trabalho é se as informações da depuração quando exibidas em uma metáfora visual melhoram a eficácia, a eficiência e a usabilidade na localização de defeitos. A eficácia e a eficiência foram avaliadas, respectivamente, pela capacidade da ferramenta direcionar o desenvolvedor ao método ou linha do defeito e o tempo necessário para localizá-los. A usabilidade das ferramentas foi avaliada por meio de um questionário baseado no modelo TAM (Technology Acceptance Model). Os resultados obtidos demonstram que a Jaguar foi mais eficaz, eficiente e com maior grau de usabilidade do que a CodeForest; entretanto, o tamanho do efeito estatístico é insignificante para a eficácia e eficiência e baixo para a usabilidade / Debugging is the task of locating and fixing defects in a program. Despite the research effort in debugging, especially in recent years, this task is still carried out in the same way since the 60s when the first symbolic debuggers were introduced. Spectrum-Based Fault Localization (SFL) is a promising debugging technique due to it is relative low execution cost. SFL pinpoints the most suspicious program elements by ranking lines, methods, classes and packages with greater suspicious values. Recently, visualization techniques have been proposed to represent the suspicious values of program elements. However, none of them have been introduced at industrial settings and the use of symbolic debuggers is still prevalent. This dissertation assessed the effectiveness, efficiency and usability of two debugging tools, called and CodeForest and Jaguar, in real environments. Jaguar presents the most suspicious elements of a program in a list sorted by suspicious values. CodeForest receives lists of suspicious classes, methods and blocks (set of statements executed in sequence) to build a three-dimensional cacti forest representing the program inspected. In CodeForest, classes are represented as cacti, methods as branches and blocks as thorns of a branch. In both tools, the program elements receive colors that vary according to the suspicious values. The basic question answered at the end of this research is whether debugging information when displayed as a visual metaphor improve the effectiveness, efficiency and usability during fault localization. The effectiveness and efficiency were assessed, respectively, by the tool\'s ability to direct the developer to the faulty method or line and the time spent to locate them. The tools\' usability was evaluated using the Technology Acceptance Model (TAM). The results show that Jaguar is more effective, efficient and presented greater usability than CodeForest; however, the statistical effect size is insignificant for effectiveness and efficiency and low for usability
372

Estudo sobre aplicação de web semântica e visualização em dados abertos: proposta de portal para transparência em séries históricas de indicadores sociais, econômicos e financeiros, públicos na web / Study on application of semantic web and viewing in open data

Garcia, Paulo Sérgio Rangel 22 November 2011 (has links)
Made available in DSpace on 2016-04-29T14:23:04Z (GMT). No. of bitstreams: 1 Paulo Sergio Rangel Garcia.pdf: 2904735 bytes, checksum: 788a6453214c9f0a41c9629423741347 (MD5) Previous issue date: 2011-11-22 / This paper aims to discuss a model for constructing a transparent portal that contains historical trends of public social, economical and financial indicators, preferably if collected at e-Gov websites. In order to reach that objective, we researched extensively within Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel and Fernanda Viegas s work, amongst others, about semantic web, ontologies, search engine optimization and data visualization. Starting from a study of the historical evolution of internet, we try to understand how was possible to forge this context of highly productive disorganized dynamics that provided the conditions of the massive availability of information and data that we see today. By utilizing concepts and technologies such as metadata, ontologies, web services, software agents, data visualization and optimization of research mechanisms, we discuss techniques and methodologies that could make collecting data as fast as possible feasible, as well as putting it together in a way that either humans or other computer systems may easily understand. We also analyze the current e-Gov services provided by the Brazilian government by evaluating its characteristics, tendencies and possibilities for evolution and growth by utilizing data and research provided by NIC.BR and W3C BR. Thus, based on research and the author s own experience, this dissertation will try to propose a model for a portal that allows human interaction and integration with other computer systems for historical trends collected via web and formats and provides this data to society in a structured way. Finally, we indicate future researches that may contribute to the discussion and development of websites and services that apropriate public open data / Este trabalho tem como objetivo discutir um modelo para a construção de portal que dê transparência a séries históricas de indicadores sociais, econômicos e financeiros, públicos e disponíveis na web. Para se chegar a esse objetivo, foram realizados estudos em autores como Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel e Fernanda Viegas entre outros, sobre web semântica, ontologias, otimização em mecanismos de buscas e visualização de dados. A partir do estudo da evolução histórica da Internet, buscou-se compreender como foi possível formar esse contexto de dinamismo não ordenado, com alta produção, criando condições para a alta disponibilidade de dados e informações que existem hoje. Abordando conceitos e tecnologias relacionadas à web semântica, ontologias, web services, agentes de software, visualização de dados e otimização dos mecanismos de buscas, discutiu-se técnicas e metodologias que viabilizem a sua construção de maneira a permitir que tais dados sejam coletados e que estejam disponíveis em formatos compreensíveis para seres humanos e integráveis a outros sistemas computacionais. Foi também analisado o e-Gov atual, especialmente no Brasil, avaliando suas características, tendências e oportunidades de evolução utilizando dados e estudos disponibilizados pelo NIC.BR e W3C BR. Assim, com base nesses estudos e na experiência do autor, esta dissertação tem o objetivo de propor um modelo de portal que permita a interatividade humana e integração com outros sistemas computacionais, das séries históricas públicas coletadas, formatando e disponibilizando-as de maneira estruturada para a sociedade. ` Por fim, é feita a indicação de pesquisas futuras, as quais venham contribuir para a discussão e o desenvolvimento de sites e serviços que apropriem dados abertos públicos.
373

Uma arquitetura orientada a serviços para visualização de dados em dispositivos inteligentes

SILVA JUNIOR, Jairo de Jesus Nascimento da 31 October 2014 (has links)
Submitted by Hellen Luz (hellencrisluz@gmail.com) on 2017-08-01T18:32:30Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ArquiteturaOrientadaServicos.pdf: 6969374 bytes, checksum: 1c20514e4d649104c5044050223c5bbf (MD5) / Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2017-08-22T12:31:16Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ArquiteturaOrientadaServicos.pdf: 6969374 bytes, checksum: 1c20514e4d649104c5044050223c5bbf (MD5) / Made available in DSpace on 2017-08-22T12:31:16Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ArquiteturaOrientadaServicos.pdf: 6969374 bytes, checksum: 1c20514e4d649104c5044050223c5bbf (MD5) Previous issue date: 2014-10-31 / A evolução tecnológica dos smartphones e tablets, a grande quantidade de informações armazenadas eletronicamente, e a necessidade de tomada de decisão, individual ou colaborativa, em qualquer lugar e momento demandam a concepção e desenvolvimento de serviços para visualização desses dados. A Internet tem desempenhado um importante papel como rede de compartilhamento de conhecimento, e neste contexto tem surgido aplicações com arquiteturas orientadas a serviços (SOA) nos mais diversos campos de estudo. Assim, este trabalho tem como objetivo a concepção e desenvolvimento de um agregado de serviços que favoreçam a ubiquidade e pervasividade em aplicações de visualização de dados, permitindo que o usuário construa visualizações de dados sobre um determinado domínio de problema de maneira fácil e intuitiva. Com este tipo de serviço é possível construir aplicações de visualizações de dados em diferentes dispositivos inteligentes, tais como: smartphones, tablets, desktop, TV Digital e etc. Esta abstração é conseguida através de uma API Web que suporta as principais características de aplicações de visualização de informações em diferentes plataformas. O modelo arquitetural de comunicação utilizado na concepção do serviço foi o REST (REpresentational State Transfer), as aplicações cliente e servidora foram desenvolvidas na linguagem Java, e foi utilizado um motor de geração de visualizações de dados denominado PRISMA. Como cenário de uso, foi desenvolvida uma aplicação cliente Android para testar os serviços criados. Por fim, serão apresentados dados iniciais sobre testes de usabilidade realizados na aplicação desenvolvida. / Technological developments of smartphones and tablets, the great amount of electronic stored information and the need for decision-making, individually or collaboratively, anywhere and anytime, demands the conception and development of services for data visualization. The Internet has played an important role as a knowledge-sharing network and in this context, some service oriented architecture (SOA) applications have emerged in all kind of study fields. Therefore, this work aims the conception and development of a service aggregation that will favor ubiquity and pervasiveness in data visualization applications, allowing users to build domain-specific data visualizations in an easy and intuitive way. With this kind of service, it is possible to build data visualization applications for different smart devices such as smartphones, tablets, desktop, smart TV's, etc. A Web API that supports the main characteristics of an information visualization tool in different platforms reaches this abstraction. REST (REpresentational State Transfer) Style was employed in the service conception as the architectural communication model. Client-side and server-side applications were developed using Java with a data visualization generator engine called PRISMA. As a use case, was developed a client Android application in order to test the created services. Lastly, initial data about usability essays performed in the developed application will be presented.
374

Visualizador 3D baseado em head tracking e estereoscopia para aplicações com o método dos elementos finitos. / 3D viewer based on head tracking and stereoscopic for finite element method applications.

Luiz Antonio Custódio Manganelli Junqueira 06 December 2013 (has links)
A visualização 3D de simulações pelo Método dos Elementos Finitos (MEF) ainda é uma experiência limitada em função da falta de realismo 3D nos monitores disponíveis. Além do monitor 3D realista, a melhor visualização destas simulações depende de uma apresentação MEF desenvolvida adequadamente, de forma a tirar maior proveito deste realismo 3D. Neste trabalho, é realizado o desenvolvimento de um visualizador MEF 3D, que reproduz os efeitos estereoscópicos e de rastreamento de cabeça (head-tracking), explorando melhor as percepções de profundidade com hardware acessível e bibliotecas gráficas utilizadas em aplicações convencionais. / The 3D visualization of Finite Element Method (FEM) simulations is still a limited experience due to the lack of realism of 3D monitors available. In addition to the realistic 3D monitor, better visualization of these simulations depends on a MEF presentation properly developed in order to get the most out of 3D realism. In this work, a 3D MEF viewer is develop, including stereoscopy and head tracking 3D effects, that better explores human depth cues using hardware from cost and benefit perspective and graphics libraries used in conventional applications.
375

Refinamento interativo de mapas de documentos apoiado por extração de tópicos / Interactive refinement of document maps supported by topic extraction

Silva, Renato Rodrigues Oliveira da 15 December 2010 (has links)
Mapas de documentos são representações visuais que permitem analisar de forma eficiente diversas relações entre documentos de uma coleção. Técnicas de projeção multidimensional podem ser empregadas para criar mapas que refletem a similaridade de conteúdo, favorecendo a identificação de agrupamentos com conteúdo similar. Este trabalho aborda uma evolução do arcabouço genérico oferecido pelas projeções multidimensionais para apoiar a análise interativa de documentos textuais, implementado na plataforma PEx. Foram propostas e implementadas técnicas que permitem ao usuário interagir com o mapa de documentos utilizando tópicos extraídos do próprio corpus. Assim a representação visual pode gradualmente evoluir para refletir melhor os interesses do usuário, e apoiá-lo de maneira mais efetiva em tarefas exploratórias. A interação foi avaliada utilizando uma técnica de inspeção de usabilidade, que visa identificar os principais problemas enfrentados pelos usuários ao interagir com as funcionalidades desenvolvidas. Adicionalmente, a utilidade das funcionalidades foi avaliada pela condução de dois estudos de caso, em que foram definidas tarefas a serem conduzidas pelo usuário sobre os mapas de documentos. Os resultados mostram que com o auxílio das visualizações foi possível conduzir as tarefas satisfatoriamente, permitindo manipular de forma eficiente milhares de documentos sem a necessidade de ler individualmente cada texto / Content-based document maps are visualizations that help users to identify and explore relationships among documents in a collection. Multidimensional projection techniques have been employed to create similaritybased maps that can help identifying documents of similar content. This work aims to enhance the generic framework offered by the multidimensional projection techniques in the PEx visualization platform to support interactive analysis of textual data. Several interaction functions and visual representations have been proposed and implemented that allow users to interact with document maps aided by topics automatically extracted from the corpus. By exploring the topics and maps in an integrated manner, users can refine and evolve the visual representations gradually to better reflect their needs and interests, enhancing support to exploratory tasks. The proposed interaction functions were evaluated employing a usability inspection technique, seeking to detect interface problems. Moreover, two illustrative case studies were conducted to evaluate the usefulness of the proposed interactions, based on typical user tasks defined over different document collections. They illustrate how the developed visualizations can assist the proposed tasks, allowing users to interactively explore large document corpora and refine document maps
376

Day2Day: Concepção de uma ferramenta para auxiliar cuidadores nos registros diários e apresentação visual de informações dos pacientes com demência / Day2day: designing of a tool to assist caregivers in daily records and information visualization of patients with dementia

Cruz, Wilmax Marreiro 22 March 2016 (has links)
Com o aumento da expectativa de vida em quase todos os países do mundo, inclusive no Brasil, o número de pessoas idosas vem crescendo de forma considerável. Consequentemente, as doenças degenerativas comuns às pessoas com idades avançadas também tendem a aumentar correspondentemente, tornando doenças, como o Alzheimer, cada vez mais comuns. O cuidado a esses idosos é de extrema importância. Infelizmente, um dos problemas enfrentados pela sociedade, é que o número de cuidadores nesse contexto não segue um aumento proporcional, resultando então em cuidadores altamente sobrecarregados. Acredita-se que o uso de tecnologia para algumas tarefas dos cuidadores (e.g. registro do dia a dia), possa amenizar essa sobrecarga, mas, o que se tem visto é a carência de ferramentas tecnológicas que possam auxiliar nas atividades de cuidado ao paciente idoso. Apesar da importância de estudos nessa direção, poucas iniciativas de pesquisas abordam questões relacionadas às ferramentas tecnológicas para apoiar cuidadores de idosos, sem que essa os traga uma sobrecarga ainda maior. Uma das tarefas que pode ser feita com o auxílio da tecnologia é o registro de informações diárias do idoso, como por exemplo, alimentação, medicação e higiene. A partir das informações coletadas, é possível gerar visualizações que podem potencializar as análises feitas pelos médicos, e consequentemente, prover colaboração entre os cuidadores e os diferentes profissionais de saúde (e.g. psicólogos, nutricionistas, terapeutas ocupacionais, enfermeiros). Com o objetivo de entender melhor as reais necessidades dos cuidadores na coleta das informações do dia a dia, foram conduzidos alguns estudos que consistiam, basicamente, na realização de entrevistas e aplicação de questionários avaliativos. Diante dos resultados obtidos nesses estudos, foi desenvolvida uma ferramenta nomeada Day2Day que utiliza técnicas de visualização de informação e conceitos colaborativos como solução. A fim de avaliar se o Day2Day atingia os objetivos propostos, foi possível implantar a ferramenta em dois ambientes reais distintos, um lar para idosos e duas residências particulares. No total, sete profissionais de saúde fizeram uso da ferramenta por aproximadamente 25 dias, gerando informações diárias de oito idosos. Os resultados dessa avaliação indicam que o Day2Day atende em conformidade com as expectativas propostas, como por exemplo, a redução do tempo gasto para registro das informação. / Nowadays, the number of elderly people has grown considerably is almost every country in the world, including Brazil. Thus, many degenerative diseases that affect elderly people, such as the Alzheimer, also tend to increase and becomme more common. Taking care of elderly is extremelly important, however one of the problems faced by society is the fact that the number of caregivers does not follow this proportional increase, overloading most of the professionals. A possible solution may be the adoption of technology to help elderly caregivers in their tasks, such as recording day to day activities, and addressing these needs in a context where there is a lack of technological tools. Despite the importance of studies in this area, few research initiatives deal issues related to technological tools in order to support elderly caregivers, and in general they bring an even greater overhead in their tasks. One activity that can be done using technological tools is the record daily information of the elderly, such as feeding, medication and hygiene times. From the information collected, it is possible to generate useful views that can enhance the analysis made by doctors, and consequently provide more collaboration among caregivers and different health professionals (phycologists, nursers and so on). In order to better understand the real needs of caregivers in their day to day tasks, interviews and the application of evaluation questionnaires were conducted. Based on these results a so called Day2Day tool has been developed. It uses information from visualization techniques and collaborative concepts. In purpose of assess Day2Day has reached its goals, the tool was deployed in two real different environments: a home for elderly people and two private homes. A total of seven health professionals used the tool for 25 days, producing daily information of eight elderly. The results of this study have shown that the Day2Day tool meets in accordance with expectation proposals, such as reducing the time spent for recording information.
377

Caracterização e modelagem de redes biológicas geográficas / Characterization and modelling of biological networks

Viana, Matheus Palhares 23 March 2011 (has links)
Nesta tese apresentamos uma metodologia de mapeamento capaz de gerar representações em termos de grafos para sistemas biológicos de conectividade complexa. Tais sistemas são inicialmente armazenados na forma de imagens digitais e em seguida submetidos a um pré-processamento com objetivo de padronizar as imagens. As imagens pré-processadas são então utilizadas para gerar modelos tridimensionais dos sistemas de interesse. Um algoritmo de propagação de rótulos é utilizado para extrair os esqueletos dos modelos volumétricos e estes esqueletos são por fim, representados por um grafo, composto por vértices e arestas. Os vértices e arestas desse grafo armazenam propriedades do sistema original, como posição, comprimento e diâmetro, bem como as características topológicas de tais sistemas. Finalmente, os grafos resultantes são estudados através da teoria das redes complexas, dentro de um contexto específico para cada sistema. Nossos procedimentos foram aplicados com sucesso a diferentes sistemas biológicos, como artérias caríotidas, árvores arteriais, estruturas mitocondriais e poros em amostras de solo. / In the present work, we developed a mapping methodology able to build a graph representation for biological branched systems. Initially, such systems are stored as digital images and then they undergo a pre-processing in order to standardize the images. The pre-processed imagens are used to build tridimensional models of the interested systems. A label-propagation algorithm is used to extract the skeleton from the volumetric models and these skeletons are then represented by a graph, composed by nodes and edges. The nodes and edges of these graphs store properties of the original system, such as spatial position, lengths and diameter, as well as the topological features of such systems. Finally, the graphs are studied by using the complex networks theory within a specific context for each system. Our procedures were apllied sucefully to different biological systems, such as carotid artery, arterial trees, mitocondrial structure and pores in soil samples.
378

Visualização de séries temporais multidimensionais: uma análise sobre a qualidade do ar em São CarlosSP / Multidimensional time series visualization: an analysis of the air quality in São Carlos-SP

Ortigossa, Evandro Scudeleti 17 December 2018 (has links)
Séries temporais permeiam os mais variados domínios de aplicação, sendo a análise e a compreensão da dinâmica de séries temporais um problema interessante e bastante complexo. Técnicas de visualização têm sido aplicadas com sucesso nesse contexto, pois tiram proveito das habilidades perceptuais humanas ao transformar dados abstratos em informação visual. Nesta dissertação, foi proposta uma metodologia de análise visual para séries temporais multidimensionais. A finalidade dessa metodologia é a exploração e o entendimento do comportamento de material particulado presente na atmosfera de São CarlosSP, para melhor compreender a sinergia entre a qualidade do ar, o clima e as doenças respiratórias. As características do material particulado variam consideravelmente no decorrer do tempo, assumindo diferentes padrões, a depender das condições climáticas. Isso atesta a importância de ferramentas analíticas que sejam capazes de explorar as mudanças temporais dos dados. Duas ferramentas de visualização interativas foram desenvolvidas, utilizando principalmente a linguagem de programação JavaScript com a biblioteca D3. As ferramentas são portáveis em basicamente todos os navegadores web modernos, não exigindo a instalação de softwares específicos para que os usuários acessem-nas e façam as suas pesquisas. Os resultados obtidos a partir das análises dos dados amostrados demonstram que houve uma redução nos níveis de poluentes atmosféricos ao longo dos anos. A efetividade e a utilidade das tecnologias propostas são demonstradas em estudos de caso envolvendo dados reais, validados por especialistas do domínio de interesse. / Time series data are present in a wide variety of applications, and the explorations, analysis, and understanding of time series dynamics are interesting although it is a quite complex problems. Information visualization techniques have been successfully applied in this context taking advantage of human perceptual abilities when transforming abstract data into visual information. In this master dissertation, we present a new visual analytic methodology for multidimensional time series analysis. The aim of the proposed approach is to allow the exploration of the behavior of particulate matter present in the urban atmosphere of São CarlosSP, in order to understand the synergy between air quality, climate, and respiratory diseases. Moreover, the features related to particulate matter vary considerably over time, assuming different patterns according to the weather conditions. This dynamic shows the importance of analytical tools that enable the exploration of temporal changes of the data. We developed two interactive visualization tools, mainly in JavaScript programming language and D3 library. The tools are portable and can be used in all the modern web browsers, not requiring any software installation. The data analysis results show a decrease in atmospheric pollutant level over the years. The effectiveness and usefulness of the proposed technologies are demonstrated in case studies which involve real data and it is validated by domain experts.
379

TRIVIR: A Visualization System to Support Document Retrieval with High Recall / TRIVIR: Um sistema de visualização para apoio à recuperação de documentos com alta cobertura

Dias, Amanda Gonçalves 08 July 2019 (has links)
A high recall problem in document retrieval is described by scenarios in which one wants to ensure that, given one (or multiple) query document(s), (nearly) all relevant related documents are retrieved, with minimum human effort. The problem may be expressed as a document similarity search: a user picks an example document (or multiple ones), and an automatic system recovers similar ones from a collection. This problem is often handled with a so-called Continuous Active Learning strategy: given the initial query, which is a document described by a set of relevant terms, a learning method returns the most-likely relevant documents (e.g., the most similar) to the reviewer in batches, the reviewer labels each document as relevant/not relevant and this information is fed back into the learning algorithm, which uses it to refine its predictions. This iterative process goes on until some quality condition is satisfied, which might demand high human effort, since documents are displayed as ranked lists and need to be labeled individually, and impact negatively the convergence of the learning algorithm. Besides, the vocabulary mismatch issue, i.e., when distinct terminologies are employed to describe semantically related or equivalent concepts, can impair recall capability. We propose TRIVIR, a novel interactive visualization tool powered by an information retrieval (IR) engine that implements an active learning protocol to support IR with high recall. The system integrates multiple graphical views in order to assist the user identifying the relevant documents in a collection. Given representative documents as queries, users can interact with the views to label documents as relevant/not relevant, and this information is used to train a machine learning (ML) algorithm which suggests other potentially relevant documents. TRIVIR offers two major advantages over existing visualization systems for IR. First, it merges the ML algorithm output into the visualization, while supporting several user interactions in order to enhance and speed up its convergence. Second, it tackles the vocabulary mismatch problem, by providing terms synonyms and a view that conveys how the terms are used within the collection. Besides, TRIVIR has been developed as a flexible front-end interface that can be associated with distinct text representations and multidimensional projection techniques. We describe two use cases conducted with collaborators who are potential users of TRIVIR. Results show that the system simplified the search for relevant documents in large collections, based on the context in which the terms occur. / No âmbito de recuperação de documentos, há situações em que é preciso assegurar que todos os documentos relevantes para uma dada consulta serão recuperados, de preferência com um esforço humano mínimo. Uma das maneiras de formular este problema de recuperação com alta cobertura é com uma consulta por similaridade: um usuário seleciona um (ou vários) documento(s), e um sistema automático é utilizado para recuperar, de uma coleção, os documentos semelhantes aos apresentados. Uma maneira usual de abordar o problema adota uma estratégia denominada Continuous Active Learning, em que dado o(s) documento(s) de consulta, descrito por seus termos relevantes, um método de aprendizado de máquina retorna e apresenta ao analista, em lotes, os documentos mais provavelmente relevantes, ou mais similares a esse(s). O analista classifica cada documento quanto à relevância, realimentando o algoritmo de aprendizado, o qual pode então refinar suas previsões. Esse processo interativo continua até que alguma condição de qualidade seja satisfeita, o que pode exigir grande esforço do usuário, já que os documentos são oferecidos no formato de listas ranqueadas e devem ser marcados individualmente, e impactar negativamente a convergência do algoritmo de aprendizado. Ademais, uma das dificuldades é a incompatibilidade de vocabulário, quando terminologias distintas são empregadas para descrever conceitos semanticamente relacionados, o que pode prejudicar a identificação dos documentos relevantes. Neste trabalho propomos TRIVIR, uma visualização interativa alimentada por um motor de recuperação de informação (RI) que implementa o protocolo Continuous Active Learning com o fim de auxiliar RI de alta cobertura. O sistema integra várias representações gráficas para auxiliar o usuário a identificar documentos relevantes em uma coleção. Dados documentos representativos como entrada, usuários podem interagir com as visualizações e marcar documentos como relevantes/não relevantes. Esta informação é utilizada para treinar um algoritmo de aprendizado de máquina que, por sua vez, sugere documentos potencialmente relevantes. TRIVIR oferece duas principais vantagens em relação a outros sistemas de visualização para RI. Primeiro, integra a visualização a um algoritmo de aprendizado de máquina com o qual usários podem interagir para melhorar e acelerar a convergência do algoritmo. Segundo, o sistema trata o problema de incompatibilidade de vocabulário, provendo sinônimos dos termos e o contexto no qual termos são utilizados na coleção. TRIVIR foi desenvolvido como uma interface web flexível podendo ser associado com diferentes técnicas de representação de documentos e projeção multidimensional. Descrevemos dois casos de uso conduzidos com potenciais usuários do TRIVIR. Resultados mostraram que o sistema facilitou a pesquisa por documentos relevantes em grandes coleções, por meio da utilização da informação do contexto no qual os termos ocorrem.
380

Infografia telejornalística : avaliação da usabilidade de atributos animados / Television news infographics: usability evaluation of animated attributes

Pereira Neto, David 30 July 2013 (has links)
Made available in DSpace on 2016-12-12T20:17:54Z (GMT). No. of bitstreams: 1 114383.pdf: 4373165 bytes, checksum: cf1f7a0e0f1ce695f7a0be2d6826aa7a (MD5) Previous issue date: 2013-07-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este estudo busca levantar a questão da usabilidade da animação em infográficos empregados em reportagens de telejornais. Apesar da tendência digital e interativa vislumbrada para os infográficos peças de visualização de informação relacionadas à narrativas , a usabilidade dos atributos animados foi pouco abordada no contexto telejornalístico. A necessidade de empreender pesquisa nessa área foi observada a partir das características específicas da infografia telejornalística, como espaço e duração reduzidos, bem como o contexto em que se insere. Buscou-se relacionar os resultados de pesquisas de usabilidade em animações da área educacional e instrucional, com os atributos espaço-temporais observados nas infografias telejornalísticas. A partir disso, uma pesquisa laboratorial foi conduzida para comparar a eficiência comunicativa entre versões de um mesmo infográfico com variações no emprego de pistas visuais, a fim de analisar se a animação, como forma de pista visual, poderia direcionar a atenção dos usuários para informações relevantes do infográfico, consequentemente melhorando a compreensão do conteúdo. A análise estatística dos resultados da pesquisa experimental indicaram ausência de diferença na compreensão dos usuários expostos aos distintos infográficos telejornalísticos (animado vs. animado/estático vs. estático). Observando a configuração do infográfico, pode-se dizer que os resultados foram similares aos previamente obtidos no contexto educacional instrucional, sugerindo a transferência e generalização dos resultados deste aos infográficos telejornalísticos. Como referencial teórico foram utilizadas literaturas de design, visualização, psicologia cognitiva, infografia, infografia telejornalística, usabilidade em animações e uso de pistas visuais em animações.

Page generated in 0.0189 seconds