• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 1
  • Tagged with
  • 40
  • 40
  • 31
  • 27
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Processo de design de visualização de dados: uso de representações gráficas de estrutura de dados como entidades intermediárias de projeto / Data visualization design process : use of graphical representations of data structure as intermediate entities project

Luís Felipe Carli Lucas de Oliveira 21 September 2015 (has links)
Nesta tese, entendemos design como um processo criativo de busca por soluções para problemas complexos e mal definidos. Design é o ato projetual de busca por boas soluções em espaços contendo diversas soluções possíveis. O design de visualizações é o desenvolvimento de metáforas visuais para dados abstratos, é a transformação de dados em representações gráficas interativas. Visualizações têm o objetivo de auxiliar os processos cognitivos de compreensão de informação e tornar mais eficiente e efetiva a execução de tarefas envolvendo dados. A complexidade do design de visualizações está tanto na multiplicidade e impossibilidade de redução de seus problemas quanto na extensão e variação de seus dados. Para tratar dessa complexidade, o designer executa uma conversa reflexiva com externalizações materiais do projeto. Essas representações externas podem funcionar como entidades intermediárias de projeto, quando elas não são, em si, a descrição do problema, nem a representação de uma solução e, sim, uma entidade que opera entre esses espaços. As três principais atividades do desenvolvimento de visualizações são o entendimento, a transformação e o mapeamento gráfico dos dados. Transformação de dados é um componente ativo no design de visualizações, pois muitas das decisões tomadas sobre as marcas gráficas dependem da transformação e da derivação dos dados. Propomos que o uso de representações gráficas de estruturas de dados, quando abordadas como entidades intermediárias de projeto, pode auxiliar no processo de design de visualização de dados, ajudando a tratar sua complexidade e a produzir melhores soluções para problemas de visualização. Ao externalizar a representação de estruturas de dados, cria-se um suporte material para memória e raciocínio, que auxilia na compreensão dessas estruturas. Ao abordar essas representações como entidades intermediárias de projeto, é possível tratá-las como materiais que dão suporte para a definição, o entendimento e a navegação pelo espaço de possibilidades de um projeto. Elas passam a ser representações que auxiliam na compreensão das possíveis soluções de uma visualização e os meios para atingi-las. Nesta tese, defendemos essa proposição por meio de um embasamento teórico e do desenvolvimento e aplicação de uma técnica de representação de estruturas de dados. / In this thesis, we understand design as a creative process of searching for solutions to complex and ill-defined problems. Design is the act of search for good solutions in spaces containing several possible solutions. The design of visualizations is the development of visual metaphors for abstract data, is the transformation of data in interactive graphics. Visualizations are intended to assist the cognitive processes of understanding information and to make more efficient and effective the execution of tasks involving data. The complexity of visualization design is both in the impossibility of reducing their problems as in the extent and range of the data. To address this complexity, the designer performs a reflective conversation with project externalizations. These external representations can act as intermediary entities for the project when they are not a description of the problem or the representation of a solution, but rather an entity that operates between these spaces. The three main activities in the development of visualizations are the understanding, the transformation and the graphical mapping of the data. Data Transformation is an active component in visualization design because many of the decisions taken on the graphic marks depend on the processing and transformation of data. We propose that the use of graphical representations of data structures, when addressed as intermediary entities project, can assist in the process of data visualization design, helping to address its complexity and to produce better solutions for visualization problems. The externalization of the representation of data structures creates a support material for memory and reasoning, which helps in understanding these structures. In addressing these representations as intermediary project entities, you can treat them as materials that support definition, understanding and navigation of the possibilities of a project space. They become representations that help in understanding the possible solutions of visualization and the means to achieve them. In this thesis, we defend this proposition through a theoretical foundation and the development and implementation of a data structure representation technique.
32

Uma nova metáfora visual escalável para dados tabulares e sua aplicação na análise de agrupamentos / A scalable visual metaphor for tabular data and its application on clustering analysis

Evinton Antonio Cordoba Mosquera 19 September 2017 (has links)
A rápida evolução dos recursos computacionais vem permitindo que grandes conjuntos de dados sejam armazenados e recuperados. No entanto, a exploração, compreensão e extração de informação útil ainda são um desafio. Com relação às ferramentas computacionais que visam tratar desse problema, a Visualização de Informação possibilita a análise de conjuntos de dados por meio de representações gráficas e a Mineração de Dados fornece processos automáticos para a descoberta e interpretação de padrões. Apesar da recente popularidade dos métodos de visualização de informação, um problema recorrente é a baixa escalabilidade visual quando se está analisando grandes conjuntos de dados, resultando em perda de contexto e desordem visual. Com intuito de representar grandes conjuntos de dados reduzindo a perda de informação relevante, o processo de agregação visual de dados vem sendo empregado. A agregação diminui a quantidade de dados a serem representados, preservando a distribuição e as tendências do conjunto de dados original. Quanto à mineração de dados, visualização de informação vêm se tornando ferramental essencial na interpretação dos modelos computacionais e resultados gerados, em especial das técnicas não-supervisionados, como as de agrupamento. Isso porque nessas técnicas, a única forma do usuário interagir com o processo de mineração é por meio de parametrização, limitando a inserção de conhecimento de domínio no processo de análise de dados. Nesta dissertação, propomos e desenvolvemos uma metáfora visual baseada na TableLens que emprega abordagens baseadas no conceito de agregação para criar representações mais escaláveis para a interpretação de dados tabulares. Como aplicação, empregamos a metáfora desenvolvida na análise de resultados de técnicas de agrupamento. O ferramental resultante não somente suporta análise de grandes bases de dados com reduzida perda de contexto, mas também fornece subsídios para entender como os atributos dos dados contribuem para a formação de agrupamentos em termos da coesão e separação dos grupos formados. / The rapid evolution of computing resources has enabled large datasets to be stored and retrieved. However, exploring, understanding and extracting useful information is still a challenge. Among the computational tools to address this problem, information visualization techniques enable the data analysis employing the human visual ability by making a graphic representation of the data set, and data mining provides automatic processes for the discovery and interpretation of patterns. Despite the recent popularity of information visualization methods, a recurring problem is the low visual scalability when analyzing large data sets resulting in context loss and visual disorder. To represent large datasets reducing the loss of relevant information, the process of aggregation is being used. Aggregation decreases the amount of data to be represented, preserving the distribution and trends of the original dataset. Regarding data mining, information visualization has become an essential tool in the interpretation of computational models and generated results, especially of unsupervised techniques, such as clustering. This occurs because, in these techniques, the only way the user interacts with the mining process is through parameterization, limiting the insertion of domain knowledge in the process. In this thesis, we propose and develop the new visual metaphor based on the TableLens that employs approaches based on the concept of aggregation to create more scalable representations of tabular data. As application, we use the developed metaphor in the analysis of the results of clustering techniques. The resulting framework does not only support large database analysis but also provides insights into how data attributes contribute to clustering regarding cohesion and separation of the composed groups
33

VISUALIZAÇÃO DE DADOS VOLUMÉTRICOS COMPRIMIDOS BASEADO NA TRANSFORMADA DO COSSENO LOCAL / VISUALIZATION OF COMPRESSED VOLUMETRIC DATA BASED IN THE TRANSFORMED ONE OF THE LOCAL COSINE

Demetrio, Fernando Jorge Cutrim 01 April 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:58Z (GMT). No. of bitstreams: 1 Fernando Jorge Cutrim Demetrio.pdf: 680959 bytes, checksum: 8bfd83d8940d01500dfe55ffeccc7148 (MD5) Previous issue date: 2005-04-01 / This work describes the development of an algorithm for visualization of compressed volumetric data with a local cosine transform scheme, that minimizes the blocking artefacts generated by transform compression methods, and makes possible the visualization of large volume data in computer with limited memory resources. We also present the results obtained for the visualization process . / Este trabalho descreve o desenvolvimento de um algoritmo para visualização de dados volumétricos comprimidos baseado na transformada do cosseno local, que minimiza os artefatos nos blocos gerados pelo método de compressão, e possibilita a visualização de grandes volumes em computadores com recursos limitados de memória. Nós apresentamos também os resultados obtidos pelo processo de visualização.
34

A visualização de dados na teoria da comunicação

Santos, Márcio Emílio dos 19 February 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-04-01T11:16:09Z No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-04-24T02:59:55Z (GMT) No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Made available in DSpace on 2016-04-24T02:59:56Z (GMT). No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) Previous issue date: 2013-02-19 / Este trabalho analisa o uso de métodos e recursos computacionais como ferramenta para o pesquisador na área de Comunicação, principalmente em projetos de pesquisa que lidem com problemas passíveis de serem modelados computacionalmente através de algoritmos culturais. Destacamos que não se propõe uma substituição ou redução da participação humana na análise subjetiva de conteúdos, padrões e significados em prol de uma análise mais automatizada e quantitativa. Na estrutura deste trabalho contemplamos quatro capítulos que organizam aspectos teóricos, históricos, experiência práticas e resultados obtidos com a construção de uma visualização de uma grande coleção de dados. No primeiro capítulo, Digitalização e a linguagem da New Media, descrevemos o processo de digitalização tanto dos meios de produção quanto dos artefatos culturais ligados a Comunicação. Apresentamos a proposta de Manovich sobre o surgimento de uma nova mídia baseada nas características do software e seus aspectos digitais, como resultado deste processo de digitalização. No segundo capítulo, O que é visualização? Apresentamos um conjunto conceitual que define o que é a visualização, suas origens e proximidades com outras áreas como a visualização científica e aspectos teóricos, matemático e computacionais que baseiam esta linha de aplicação de métodos computacionais para analises culturais. O terceiro capítulo, Aplicação dos Conceitos de Visualização: VEJA DataVis., relata detalhadamente o processo de coleta da coleção de dados, organização, construção do algoritmo, aplicação e resultados apresentados na visualização de dados num hyperwall. O quarto e último capítulo, Análise de impactos da DataVis na percepção da Coleção de Dados VEJA, analisa como o processo e o resultado da aplicação da metodologia proposta por Manovich altera a percepção inicial da coleção de dados, destacando os aspectos de visualidade do contexto completo do conjunto de dados. / This paper analyzes the use of computational methods and resources as a tool for the researcher in the area of communication , particularly in research projects dealing with problems that can be modeled computationally through cultural algorithms . We emphasize that it is not proposed substitution or reduction of human involvement in the analysis of subjective content , patterns and meanings in favor of a more automated and quantitative analysis . In the structure of this work contemplate four chapters that organize theoretical , historical, practical experience and results obtained with the construction of a visualization of a large collection of data. In the first chapter , Scan and language of New Media , we describe the process of scanning both the means of production and of cultural artifacts linked to communication . Here is the proposed Manovich on the emergence of new media based on the characteristics of the software and its digital aspects , as a result of the scanning process. In the second chapter , What is visualization ? We present a conceptual framework that defines what is visualization , its origins and with other nearby areas such as scientific visualization and theoretical aspects , mathematical and computational basing this line of application of computational methods for cultural analysis . The third chapter , Application of Concepts View : . DataVis VIEW , describes the process of collecting the data collection , organization , construction of the algorithm , implementation and results presented in the visualization of data in a hyperwall detail . The fourth and final chapter, analysis of impacts on the perception of DataVis Collection SEE data, analyzes how the process and the result of applying the methodology proposed by Manovich change the initial perception of the data collection , emphasizing the visual aspects of the full context of dataset.
35

Um estudo sobre o papel de medidas de similaridade em visualização de coleções de documentos / A study on the role of similarity measures in visual text analytics

Salazar, Frizzi Alejandra San Roman 27 September 2012 (has links)
Técnicas de visualização de informação, tais como as que utilizam posicionamento de pontos baseado na similaridade do conteúdo, são utilizadas para criar representações visuais de dados que evidenciem certos padrões. Essas técnicas são sensíveis à qualidade dos dados, a qual, por sua vez, depende de uma etapa de pré-processamento muito influente. Esta etapa envolve a limpeza do texto e, em alguns casos, a detecção de termos e seus pesos, bem como a definição de uma função de (dis)similaridade. Poucos são os estudos realizados sobre como esses cálculos de (dis)similaridade afetam a qualidade das representações visuais geradas para dados textuais. Este trabalho apresenta um estudo sobre o papel das diferentes medidas de (dis)similaridade entre pares de textos na geração de mapas visuais. Nos concentramos principalmente em dois tipos de funções de distância, aquelas computadas a partir da representação vetorial do texto (Vector Space Model (VSM)) e em medidas de comparação direta de strings textuais. Comparamos o efeito na geração de mapas visuais com técnicas de posicionamento de pontos, utilizando as duas abordagens. Para isso, foram utilizadas medidas objetivas para comparar a qualidade visual dos mapas, tais como Neighborhood Hit (NH) e Coeficiente de Silhueta (CS). Descobrimos que ambas as abordagens têm pontos a favor, mas de forma geral, o VSM apresentou melhores resultados quanto à discriminação de classes. Porém, a VSM convencional não é incremental, ou seja, novas adições à coleção forçam o recálculo do espaço de dados e das dissimilaridades anteriormente computadas. Nesse sentido, um novo modelo incremental baseado no VSM (Incremental Vector Space Model (iVSM)) foi considerado em nossos estudos comparativos. O iVSM apresentou os melhores resultados quantitativos e qualitativos em diversas configurações testadas. Os resultados da avaliação são apresentados e recomendações sobre a aplicação de diferentes medidas de similaridade de texto em tarefas de análise visual, são oferecidas / Information visualization techniques, such as similarity based point placement, are used for generating of visual data representation that evidence some patterns. These techniques are sensitive to data quality, which depends of a very influential preprocessing step. This step involves cleaning the text and in some cases, detecting terms and their weights, as well as definiting a (dis)similarity function. There are few studies on how these (dis)similarity calculations aect the quality of visual representations for textual data. This work presents a study on the role of the various (dis)similarity measures in generating visual maps. We focus primarily on two types of distance functions, those based on vector representations of the text (Vector Space Model (VSM)) and measures obtained from direct comparison of text strings, comparing the effect on the visual maps obtained with point placement techniques with the two approaches. For this, objective measures were employed to compare the visual quality of the generated maps, such as the Neighborhood Hit and Silhouette Coefficient. We found that both approaches have strengths, but in general, the VSM showed better results as far as class discrimination is concerned. However, the conventional VSM is not incremental, i.e., new additions to the collection force the recalculation of the data space and dissimilarities previously computed. Thus, a new model based on incremental VSM (Incremental Vector Space Model (iVSM)) has been also considered in our comparative studies. iVSM showed the best quantitative and qualitative results in several of the configurations considered. The evaluation results are presented and recommendations on the application of different similarity measures for text analysis tasks visually are provided
36

Vis-Scholar: uma metodologia de visualização e análise de dados na educação

Costa, Jean Carlos Araújo 01 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-25T12:28:08Z No. of bitstreams: 1 Jean Carlos Araújo Costa_.pdf: 1155126 bytes, checksum: 15210c31e7d20bb22cb98f8732173d6d (MD5) / Made available in DSpace on 2016-05-25T12:28:09Z (GMT). No. of bitstreams: 1 Jean Carlos Araújo Costa_.pdf: 1155126 bytes, checksum: 15210c31e7d20bb22cb98f8732173d6d (MD5) Previous issue date: 2016-03-01 / Nenhuma / Técnicas de visualização de dados podem auxiliar nas mais diversas áreas de atuação humana, em especial na compreensão de dados e informações de diferentes fenômenos que se quer estudar. Quanto mais variáveis estão relacionadas com esse fenômeno, mais desafiador se torna seu tratamento e representação visual. Pensando em educação no Brasil e suas bases de dados abertas, bem como em bases de dados acadêmicas existentes nas instituições, o uso de técnicas matemáticas para correlacionar conjuntos de dados e métodos de visualização para apresentar essas correlações, disponíveis em uma ferramenta de fácil acesso e operação, podem tornar públicas informações sobre a qualidade da educação de determinada região, estado, município e instituição de ensino. Outro benefício pode ser a indicação de fatores que antes eram ignorados, como alvos de investimento e ainda ajudar na elaboração de políticas públicas, nacionais ou regionais, que tornem a educação mais eficiente, abrangente e inclusiva. Iniciativas de organizações não governamentais e algumas vinculadas ao governo brasileiro tem elaborado ferramentas de filtragem de informações e divulgação de dados sobre qualidade e investimento de recursos na educação. O governo brasileiro usa índices de desempenho para avaliar suas Instituições de Ensino Superior. O Conceito Preliminar de Curso é um desses. Este trabalho apresenta uma solução, visando elaborar uma metodologia de visualização de dados através de uma aplicação web, com tecnologias open source, utilizando o método de análise de componentes principais (ACP) como técnica matemática de correlação de variáveis, e distribuindo resultados sobre um mapa com a utilização da API do Google Maps, porém, tendo como foco, a busca do nível de influência de diferentes fatores, inclusive de alguns não ligados diretamente à educação, na performance de instituições de ensino e no rendimento acadêmico de alunos, tendo como estudo de caso, a análise de um índice de desempenho na educação superior. / Data visualization techniques can help in several areas of human activity, especially in understanding data and information from different phenomena to be studied. The more variables are related to this phenomenon, the more challenging it becomes their treatment and visual representation. Thinking about education in Brazil and its open databases, as well as in existing academic databases in institutions, using mathematical techniques to correlate data sets and visualization methods to present these correlations available in an easy tool access and operation may disclose information on the quality of education in a region, state, county and educational institution. Another benefit coud be the indication of factors that were ignored, as investment targets and also help in the development of public policies, national or regional, that make more efficient, comprehensive and inclusive education. Initiatives of non-governmental organizations and some linked to the Brazilian government has prepared information filtering tools and dissemination of data on quality and investment of resources in education. Brazilian government uses performance indicators to assess their undergraduation institutions. Course Preliminar Concept (CPC) is one of those. This paper presents a solution to this profile, aiming to develop a data visualization methodology through a web application with open source technologies, using principal component analysis method (PCA) as mathematical technique of variable correlation, and distributing results on a map using the Google Maps API, however, focusing on the search for the level of influence of different factors, including some not directly related to education, performance of educational institutions and the academic performance of students, taking as a case study, the analysis of a performance index in undergraduation.
37

Um estudo sobre o papel de medidas de similaridade em visualização de coleções de documentos / A study on the role of similarity measures in visual text analytics

Frizzi Alejandra San Roman Salazar 27 September 2012 (has links)
Técnicas de visualização de informação, tais como as que utilizam posicionamento de pontos baseado na similaridade do conteúdo, são utilizadas para criar representações visuais de dados que evidenciem certos padrões. Essas técnicas são sensíveis à qualidade dos dados, a qual, por sua vez, depende de uma etapa de pré-processamento muito influente. Esta etapa envolve a limpeza do texto e, em alguns casos, a detecção de termos e seus pesos, bem como a definição de uma função de (dis)similaridade. Poucos são os estudos realizados sobre como esses cálculos de (dis)similaridade afetam a qualidade das representações visuais geradas para dados textuais. Este trabalho apresenta um estudo sobre o papel das diferentes medidas de (dis)similaridade entre pares de textos na geração de mapas visuais. Nos concentramos principalmente em dois tipos de funções de distância, aquelas computadas a partir da representação vetorial do texto (Vector Space Model (VSM)) e em medidas de comparação direta de strings textuais. Comparamos o efeito na geração de mapas visuais com técnicas de posicionamento de pontos, utilizando as duas abordagens. Para isso, foram utilizadas medidas objetivas para comparar a qualidade visual dos mapas, tais como Neighborhood Hit (NH) e Coeficiente de Silhueta (CS). Descobrimos que ambas as abordagens têm pontos a favor, mas de forma geral, o VSM apresentou melhores resultados quanto à discriminação de classes. Porém, a VSM convencional não é incremental, ou seja, novas adições à coleção forçam o recálculo do espaço de dados e das dissimilaridades anteriormente computadas. Nesse sentido, um novo modelo incremental baseado no VSM (Incremental Vector Space Model (iVSM)) foi considerado em nossos estudos comparativos. O iVSM apresentou os melhores resultados quantitativos e qualitativos em diversas configurações testadas. Os resultados da avaliação são apresentados e recomendações sobre a aplicação de diferentes medidas de similaridade de texto em tarefas de análise visual, são oferecidas / Information visualization techniques, such as similarity based point placement, are used for generating of visual data representation that evidence some patterns. These techniques are sensitive to data quality, which depends of a very influential preprocessing step. This step involves cleaning the text and in some cases, detecting terms and their weights, as well as definiting a (dis)similarity function. There are few studies on how these (dis)similarity calculations aect the quality of visual representations for textual data. This work presents a study on the role of the various (dis)similarity measures in generating visual maps. We focus primarily on two types of distance functions, those based on vector representations of the text (Vector Space Model (VSM)) and measures obtained from direct comparison of text strings, comparing the effect on the visual maps obtained with point placement techniques with the two approaches. For this, objective measures were employed to compare the visual quality of the generated maps, such as the Neighborhood Hit and Silhouette Coefficient. We found that both approaches have strengths, but in general, the VSM showed better results as far as class discrimination is concerned. However, the conventional VSM is not incremental, i.e., new additions to the collection force the recalculation of the data space and dissimilarities previously computed. Thus, a new model based on incremental VSM (Incremental Vector Space Model (iVSM)) has been also considered in our comparative studies. iVSM showed the best quantitative and qualitative results in several of the configurations considered. The evaluation results are presented and recommendations on the application of different similarity measures for text analysis tasks visually are provided
38

INCENTV: agente incentivador no enriquecimento da qualidade de experiência em TV social

Santos, Tiago Pomponet Carmo dos 29 May 2014 (has links)
Made available in DSpace on 2016-06-02T19:06:17Z (GMT). No. of bitstreams: 1 6293.pdf: 6594637 bytes, checksum: 313540db5bd44c0b02cd3d086cf8c310 (MD5) Previous issue date: 2014-05-29 / Financiadora de Estudos e Projetos / Since its creation television has undergone major paradigm shifts, from black and white images to color displays, from analog systems to digital transmissions, from low quality display to high quality displays, from passive programs for fully interactive programs. Currently the term Social TV is gaining popularity in television and innovating once again the way people watch TV, combining computing and communication mechanisms to provide new ways to entertain and inform the viewer. The object of this work lies in the context of Social TV, explores the concept of support agents that have the role to stimulate social interactions, having the aim of enrich the quality of experience in watching television. This paper proposes a model of interaction between the agent and the viewers in Social TV systems and tests with users using a tool developed for the interaction model. Finally the paper compares the results of interactions to investigate the influence generated by inserting the support agent in an environment of Social TV. / Desde sua criação a televisão sofreu algumas mudanças de paradigmas, de imagens em preto e branco para telas coloridas, de sistemas analógicos para transmissões digitais, de qualidade de exibição de baixa resolução para sistemas de alta qualidade de imagem, de programas passivos para programas totalmente interativos. Atualmente o termo TV Social vem ganhando popularidade no meio televisivo e inovando mais uma vez a forma como as pessoas assistem televisão, combinando mecanismos de comunicação e computação para fornecer novas formas de entreter e informar o telespectador. O objeto de estudo deste trabalho situa-se no contexto de TV Social, explora o conceito de Agentes Incentivadores que possuem o papel de estimular interações sociais, possuindo a finalidade de alcançar enriquecimento da qualidade de experiência em assistir televisão. O trabalho propõe um modelo de interação entre o Agente Incentivador e os telespectadores de um sistema de TV Social e realiza testes com usuários utilizando a ferramenta de interação desenvolvida para o modelo. Por fim o trabalho analisa os resultados das interações para averiguar a influência gerada pela inserção do agente incentivador em um ambiente de TV Social.
39

Uso de propriedades visuais-interativas na avaliação da qualidade de dados / Using visual-interactive properties in the data quality assessment

Josko, João Marcelo Borovina 29 April 2016 (has links)
Os efeitos dos dados defeituosos sobre os resultados dos processos analíticos são notórios. Aprimorar a qualidade dos dados exige estabelecer alternativas a partir de vários métodos, técnicas e procedimentos disponíveis. O processo de Avaliação da Qualidade dos Dados - pAQD - provê relevantes insumos na definição da alternativa mais adequada por meio do mapeamento dos defeitos nos dados. Relevantes abordagens computacionais apoiam esse processo. Tais abordagens utilizam métodos quantitativos ou baseados em asserções que usualmente restringem o papel humano a interpretação dos seus resultados. Porém, o pAQD depende do conhecimento do contexto dos dados visto que é impossível confirmar ou refutar a presença de defeitos baseado exclusivamente nos dados. Logo, a supervisão humana é essencial para esse processo. Sistemas de visualização pertencem a uma classe de abordagens supervisionadas que podem tornar visíveis as estruturas dos defeitos nos dados. Apesar do considerável conhecimento sobre o projeto desses sistemas, pouco existe para o domínio da avaliação visual da qualidade dos dados. Isto posto, este trabalho apresenta duas contribuições. A primeira reporta uma taxonomia que descreve os defeitos relacionados aos critérios de qualidade da acuracidade, completude e consistência para dados estruturados e atemporais. Essa taxonomia seguiu uma metodologia que proporcionou a cobertura sistemática e a descrição aprimorada dos defeitos em relação ao estado-da-arte das taxonomias. A segunda contribuição reporta relacionamentos entre propriedades-defeitos que estabelecem que certas propriedades visuais-interativas são mais adequadas para a avaliação visual de certos defeitos em dadas resoluções de dados. Revelados por um estudo de caso múltiplo e exploratório, esses relacionamentos oferecem indicações que reduzem a subjetividade durante o projeto de sistemas de visualização de apoio a avaliação visual da qualidade dos dados. / The effects of poor data quality on the reliability of the outcomes of analytical processes are notorious. Improving data quality requires alternatives that combine procedures, methods, techniques and technologies. The Data Quality Assessment process - DQAp - provides relevant and practical inputs for choosing the most suitable alternative through a data defects mapping. Relevant computational approaches support this process. Such approaches apply quantitative or assertions-based methods that usually limit the human interpretation of their outcomes. However, the DQAp process strongly depends on data context knowledge since it is impossible to confirm or refute a defect based only on data. Hence, human supervision is essential throughout this process. Visualization systems belong to a class of supervised approaches that can make visible data defect structures. Despite their considerable design knowledge encodings, there is little support design to data quality visual assessment. Therefore, this work reports two contributions. The first reports a taxonomy that organizes a detailed description of defects on structured and timeless data related to the quality criteria of accuracy, completeness and consistency. This taxonomy followed a methodology which enabled a systematic coverage of data defects and an improved description of data defects in regard to state-of-art literature. The second contribution reports a set of property-defect relationships that establishes that certain visual and interactive properties are more suitable for visual assessment of certain data defects in a given data resolution. Revealed by an exploratory and multiple study case, these relationships provides implications that reduce the subjectivity in the visualization systems design for data quality visual assessment.
40

Uso de propriedades visuais-interativas na avaliação da qualidade de dados / Using visual-interactive properties in the data quality assessment

João Marcelo Borovina Josko 29 April 2016 (has links)
Os efeitos dos dados defeituosos sobre os resultados dos processos analíticos são notórios. Aprimorar a qualidade dos dados exige estabelecer alternativas a partir de vários métodos, técnicas e procedimentos disponíveis. O processo de Avaliação da Qualidade dos Dados - pAQD - provê relevantes insumos na definição da alternativa mais adequada por meio do mapeamento dos defeitos nos dados. Relevantes abordagens computacionais apoiam esse processo. Tais abordagens utilizam métodos quantitativos ou baseados em asserções que usualmente restringem o papel humano a interpretação dos seus resultados. Porém, o pAQD depende do conhecimento do contexto dos dados visto que é impossível confirmar ou refutar a presença de defeitos baseado exclusivamente nos dados. Logo, a supervisão humana é essencial para esse processo. Sistemas de visualização pertencem a uma classe de abordagens supervisionadas que podem tornar visíveis as estruturas dos defeitos nos dados. Apesar do considerável conhecimento sobre o projeto desses sistemas, pouco existe para o domínio da avaliação visual da qualidade dos dados. Isto posto, este trabalho apresenta duas contribuições. A primeira reporta uma taxonomia que descreve os defeitos relacionados aos critérios de qualidade da acuracidade, completude e consistência para dados estruturados e atemporais. Essa taxonomia seguiu uma metodologia que proporcionou a cobertura sistemática e a descrição aprimorada dos defeitos em relação ao estado-da-arte das taxonomias. A segunda contribuição reporta relacionamentos entre propriedades-defeitos que estabelecem que certas propriedades visuais-interativas são mais adequadas para a avaliação visual de certos defeitos em dadas resoluções de dados. Revelados por um estudo de caso múltiplo e exploratório, esses relacionamentos oferecem indicações que reduzem a subjetividade durante o projeto de sistemas de visualização de apoio a avaliação visual da qualidade dos dados. / The effects of poor data quality on the reliability of the outcomes of analytical processes are notorious. Improving data quality requires alternatives that combine procedures, methods, techniques and technologies. The Data Quality Assessment process - DQAp - provides relevant and practical inputs for choosing the most suitable alternative through a data defects mapping. Relevant computational approaches support this process. Such approaches apply quantitative or assertions-based methods that usually limit the human interpretation of their outcomes. However, the DQAp process strongly depends on data context knowledge since it is impossible to confirm or refute a defect based only on data. Hence, human supervision is essential throughout this process. Visualization systems belong to a class of supervised approaches that can make visible data defect structures. Despite their considerable design knowledge encodings, there is little support design to data quality visual assessment. Therefore, this work reports two contributions. The first reports a taxonomy that organizes a detailed description of defects on structured and timeless data related to the quality criteria of accuracy, completeness and consistency. This taxonomy followed a methodology which enabled a systematic coverage of data defects and an improved description of data defects in regard to state-of-art literature. The second contribution reports a set of property-defect relationships that establishes that certain visual and interactive properties are more suitable for visual assessment of certain data defects in a given data resolution. Revealed by an exploratory and multiple study case, these relationships provides implications that reduce the subjectivity in the visualization systems design for data quality visual assessment.

Page generated in 0.5108 seconds