• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 594
  • 119
  • 110
  • 75
  • 42
  • 40
  • 27
  • 22
  • 19
  • 12
  • 8
  • 7
  • 6
  • 6
  • 5
  • Tagged with
  • 1233
  • 1233
  • 181
  • 171
  • 163
  • 157
  • 151
  • 151
  • 150
  • 130
  • 113
  • 112
  • 112
  • 109
  • 109
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

[en] RECOMMENDATION SYSTEMS: AN USER EXPERIENCE ANALYSIS IN DIGITAL PRODUCTS / [pt] SISTEMAS DE RECOMENDAÇÃO DE CONTEÚDO: UMA ANÁLISE SOBRE A EXPERIÊNCIA DO USUÁRIO EM PRODUTOS DIGITAIS

CAROLINA LIMEIRA ALVES 15 December 2015 (has links)
[pt] Big Data é o termo utilizado para caracterizar o conjunto de soluções tecnológicas que permitem o rápido processamento de um grande volume de dados variados. Estas soluções só se tornaram possíveis com os avanços tecnológicos ocorridos nas últimas décadas. Uma das funcionalidades que ganharam força e melhorias através desses tipos de tecnologias são os sistemas de recomendação. Tais sistemas têm como objetivo principal oferecer ao usuário sugestões de conteúdo que possam interessá-lo. Este conteúdo pode ser uma notícia, um produto, um contato, um filme, uma música ou qualquer outro tipo de informação. Esta dissertação estuda a percepção dos usuários em relação aos sistemas de recomendação, especialmente para o conteúdo televisivo (programas, séries e filmes). Para tal, fez-se uso de questionários, grupos de foco, análise do cenário atual e estudo de caso. Através destes métodos e técnicas foi possível identificar os diferentes fatores que influenciam a maneira como a funcionalidade é percebida e a forma como os serviços são utilizados. Além disso, se discute as consequências do uso excessivo da personalização de conteúdo, bem como questões éticas, privacidade, impactos sociais e psicológicos e a responsabilidade do designer de produtos digitais. Em conclusão, são feitas recomendações para o desenvolvimento deste tipo de sistema de forma que atenda aos seus objetivos e proporcione uma experiência mais satisfatória ao usuário. / [en] Big Data is the term used to identify the set of technological solutions that allows the fast processing of a big amount of diverse data that only became possible with the technological advances that have occurred in recent decades. One of the features that gained strength and improvements through these types of technologies are the recommendation systems. The objective of these kind of systems is to offer suggestions of content that might interest the users. This content can be some news, a product, a personal contact, a movie, a song or any other kind of information. This dissertation addresses the study of the perception of the users relative to recommendation systems, especially for television content (programs, series and movies). For this purpose, questionnaires, focus groups, context analysis and case studies were used. Through these methods and techniques it was possible to identify the different factors that influences how the functionality is perceived and how the services are used. Further, it discusses the consequences of the excessive use of personalized content, privacy, ethical and social issues, psychological impacts and the responsibility of the digital products designer. In conclusion, some recommendations are made regarding the development of this type of system so that it achieves its purposes and provides a more satisfying user experience.
322

[en] FORECASTING LARGE REALIZED COVARIANCE MATRICES: THE BENEFITS OF FACTOR MODELS AND SHRINKAGE / [pt] PREVISÃO DE MATRIZES DE COVARIÂNCIA REALIZADA DE ALTA DIMENSÃO: OS BENEFÍCIOS DE MODELOS DE FATORES E SHRINKAGE

DIEGO SIEBRA DE BRITO 19 September 2018 (has links)
[pt] Este trabalho propõe um modelo de previsão de matrizes de covariância realizada de altíssima dimensão, com aplicação para os componentes do índice S e P 500. Para lidar com o altíssimo número de parâmetros (maldição da dimensionalidade), propõe-se a decomposição da matriz de covariância de retornos por meio do uso de um modelo de fatores padrão (e.g. tamanho, valor, investimento) e uso de restrições setoriais na matriz de covariância residual. O modelo restrito é estimado usando uma especificação de vetores auto regressivos heterogêneos (VHAR) estimados com LASSO (Least Absolute Shrinkage and Selection Operator). O uso da metodologia proposta melhora a precisão de previsão em relação a benchmarks padrões e leva a melhores estimativas de portfólios de menor variância. / [en] We propose a model to forecast very large realized covariance matrices of returns, applying it to the constituents of the S and P 500 on a daily basis. To deal with the curse of dimensionality, we decompose the return covariance matrix using standard firm-level factors (e.g. size, value, profitability) and use sectoral restrictions in the residual covariance matrix. This restricted model is then estimated using Vector Heterogeneous Autoregressive (VHAR) models estimated with the Least Absolute Shrinkage and Selection Operator (LASSO). Our methodology improves forecasting precision relative to standard benchmarks and leads to better estimates of the minimum variance portfolios.
323

La théorie des ressources et l'évaluation du système d'information : le cas des outils de surveillance des médias sociaux (Social Media Monitoring) / Resource-based theory and evaluation of information system : the case of social media monitoring

Soleman, Ramzi 12 April 2018 (has links)
Récemment les données issues de médias sociaux, dites les Big Social Data (BSD) retiennent de plus en plus l’attention des chercheurs et des professionnels, notamment après l’apparition des outils de surveillance des médias sociaux (Social Media Monitoring – SMM), permettant de traiter ces BSD. Les promesses associées au SMM concernent l’amélioration des processus de prise de décision, voire la transformation de processus métiers des entreprises. Malgré des investissements de plus en plus importants, l’usage efficace de ces outils dans les entreprises est très variable. Dans cette recherche, nous souhaiterions comprendre comment et pour quelles finalités le outils SMM sont utilisés ?. Pour l’évaluation de ces outils, nous nous appuyons sur la théorie des ressources. Afin de mettre œuvre de cette recherche, nous avons eu recours à une approche par méthodes mixtes. Cette approche consiste en étude qualitative qui a servi au développement et à l’enrichissement d’une seconde étude quantitative. Les résultats obtenus montrent que la combinaison de ressources SMM (qualité d’outil, ressources humaines…) et de ressources complémentaires permet de constituer des capacités SMM (mesure, interactive, utilisation processus) conduisant à la performance du SMM. Le soutien de l’organisation et, plus spécifiquement le rôle des managers, dans l’activation des ressources et des capacités SMM est conforme au récent approfondissement du management des ressources. En revanche, nous avons détecté que des ambiguïtés demeurent concernant le RBT. Pour cela, nous proposerons de lever ces ambigüités en ayant recours à la théorie étendue des ressources. Finalement, nous présentons les apports, les limites et les perspectives de notre recherche. / Recently, social media data, called Big Social Data (BSD), attract more and more attention from researchers and professionals, particularly after the emergence of Social Media Monitoring (SMM) tools, used to process BSD. The promises associated with the SMM concern the improvement of decision-making processes, or even the transformation of business processes. Despite increasing investments, the effective use of these tools in companies is very variable. In this research, we would like to understand how and for what purposes the SMM tools are used?. For the evaluation of these tools, we build upon the Resource-Based Theory (RBT). In order to implement this research, we used a mixed method approach. This approach consists of a qualitative study that was used to develop and enrich a second quantitative study. The obtained results show that the combination of SMM resources (quality of SMM tool, human resources…) and complementary resources makes it possible to build SMM capabilities (measurement, process, interaction…) leading to performance. Moreover, the support of the organization, and more specifically the role of managers, in the activation of SMM resources and capabilities is consistent with the recent advancements of resource management. However, we detected some ambiguities concerning the RBT. To deal with these ambiguities, we propose to resort to the extended theory of resource. Finally, we present the contributions, the limits and the perspectives of our research.
324

Bundling : une technique de réduction d'occultation par agrégation visuelle et son application à l'étude de la maladie d'Alzheimer / Bundling : a clutter reduction technique and its application to Alzheimer study

Lhuillier, Antoine 08 December 2017 (has links)
Le big data est un challenge majeur de la visualisation ; l'augmentation du nombre de données à visualiser augmente la densité et l'occultation des graphes et il devient difficile de distinguer les éléments qui le compose. Pour résoudre ce challenge, plusieurs techniques de visualisation se focalisent sur la simplification visuelle ; parmi elles, l'agrégation visuelle (bundling) permet l'agrégation des liens pour créer des zones de fortes densités au profit d'espaces plus clairsemés faisant ainsi émerger des structures visuelles. Cette thèse s'efforce à faire le trait d'union entre la complexité technique des algorithmes de bundling et les utilisateurs finaux. Dans un premier temps, nous avons formalisé l'espace de design des techniques de bundling afin d'améliorer la compréhension des chercheurs et des utilisateurs. Notre formalisation se fonde sur une taxonomie centrée utilisateur organisant l'ensemble des techniques d'agrégation en fonction des données d'entrée. Ensuite, à partir d'une définition formelle du bundling, nous proposons un modèle générique décrivant l'ensemble des étapes usuelles des algorithmes de bundling et montrons comment les techniques existantes implémentent chaque étape. Enfin, à travers une analyse des tâches, nous exposons des cas d'utilisation avérés. Notre analyse de l'espace des techniques de bundling nous a montré les limites actuelles du bundling quant au traitement de grande quantité de données tant en terme de rapidité de calcul qu'en terme de taille des jeux de données. Ainsi, nous avons résolu ces limites en introduisant une nouvelle technique plus rapide et sans limitation de taille : FFTEB (Fast Fourier Transform Edge Bundling Technique). Notre technique déplace le processus d'agrégation de l'espace pixelaire vers l'espace spectral. Enfin, grâce à un processus de transfert des données, FFTEB résout les problèmes de taille de jeux de données. En dernier lieu, dans le cadre d'une application à la maladie d'Alzheimer, cette thèse démontre l'efficacité des techniques de bundling comme outil d'exploration visuelle. Dans le contexte d'une étude nationale sur la maladie d'Alzheimer, nous avons focalisé notre recherche sur l'analyse de la représentation mentale de l'espace géographique chez les personnes âgées. Nous montrons que l'utilisation du bundling pour comparer les cartes mentales des populations démentes et non-démentes a permis à des neuropsychologues de formuler de nouvelles hypothèses sur l'évolution de la maladie d'Alzheimer. Ces nouvelles hypothèses nous ont permis de montrer l'émergence d'un potentiel marqueur de la maladie près de douze ans avant que les patients ne soient diagnostiqués comme atteints de cette maladie. / Dense and complex data visualizations suffer from occluded items, which hinders insight retrieval. This is especially the case for very large graph or trails set. To address cluttering issues, several techniques propose to visually simplify the representation, often meeting scalability and computational speed limits. Among them, bundling techniques provide a visual simplification of node-link diagrams by spatially grouping similar items. This thesis strives to bridge the gap between the technical complexity of bundling techniques and the end-point user. The first aim of this thesis was to improve the understanding of graph and trail bundling techniques as a clutter reduction method for node-link diagrams of large data-set. To do so, we created a data-based taxonomy that organizes bundling methods on the type of data they work on. From this thorough review and based on a formal definition of path bundling, we propose a unified framework that describes the typical steps of bundling algorithms in terms of high-level operations and show how existing methods classes implement these steps. In addition, we propose a description of tasks that bundling aims to address and demonstrate them through a wide set of applications. Although many techniques exist, handling large data-sets and selectively bundling paths based on attributes is still a challenge. To answer the scalability and computational speed issues of bundling techniques, we propose a new technique which improves both. For this, we shift the bundling process from the image to the spectral space, thereby increasing computational limits. We address the later by proposing a streaming scheme allowing bundling of extremely large data-sets. Finally, as an application domain, we studied how bundling can be used as an efficient visualization technique for societal health challenges. In the context of a national study on Alzheimer disease, we focused our research on the analysis of the mental representation of geographical space for elderly people. We show that using bundling to compare the cognitive maps of dement and non-dement subjects helped neuro-psychologist to formulate new hypotheses on the evolution of Alzheimer disease. These new hypotheses led us to discover a potential marker of the disease years before the actual diagnosis.
325

[en] A VISUAL ANALYSIS OF BUS GPS DATA IN RIO / [pt] UMA ANÁLISE VISUAL DOS DADOS DE GPS DOS ÔNIBUS NO RIO

BRUNO GUBERFAIN DO AMARAL 19 July 2016 (has links)
[pt] O tema Cidades Inteligentes é um assunto de interesse para gestores públicos e pesquisadores. Desenvolver cidades mais inteligentes é um dos desafios para o futuro próximo devido à crescente demanda por serviços públicos. Em particular, o transporte público é um dos aspectos mais visíveis de uma cidade viva e, portanto, a sua implementação deve ser muito eficiente. O sistema de transporte público da cidade do Rio de Janeiro é historicamente deficiente, principalmente porque ele é baseado em um antigo sistema de ônibus. Para melhorá-lo, a Prefeitura tomou algumas ações, como o desenvolvimento de um projeto de dados aberto que mostra, a quase a cada minuto, a posição instantânea de todos os ônibus na cidade. Embora não seja uma nova tecnologia, esta é a primeira iniciativa a ser desenvolvida no Rio. Neste trabalho, são aprsentadas ferramentas simples para a exploração visual deste grande conjunto de dados com base em informações históricas, que chega a um total de mais de um bilhão de amostras. Com essas ferramentas, um usuário será capaz de verificar as tendências, identificar padrões e localizar anomalias nesta grande quantidade de dados de GPS dos ônibus. / [en] Smart cities is a current subject of interest for public administrators and researchers. Getting the cities smarter is one of the challenges for the near future, due to the growing demand for public services. In particular, public transportation is one of most visible aspects of a living city and, therefore, its implementation must be very efficient. The public transportation system of the City of Rio de Janeiro is historically deficient, mostly because it is based on an old bus system. To change it, the City Hall took some actions, such as the development of an open data project that shows, at about every minute, the GPS instant position of all buses in the city. Although it is not a new technology, it is the first initiative to be developed in Rio. This work presents simple tools for the visual exploration of this big dataset based on the historical information from this service, which reaches a total of more than one billion samples. With these tools one is able to discover trends, identify patterns, and locate abnormalities within the massive collection of the buses GPS data.
326

[en] FORECASTING IN HIGH-DIMENSION: INFLATION AND OTHER ECONOMIC VARIABLES / [pt] PREVISÃO EM ALTA DIMENSÃO: INFLAÇÃO E OUTRAS VARIÁVEIS ECONÔMICAS

GABRIEL FILIPE RODRIGUES VASCONCELOS 26 September 2018 (has links)
[pt] Esta tese é composta de quatro artigos e um pacote de R. Todos os artigos têm como foco previsão de variáveis econômicas em alta dimensão. O primeiro artigo mostra que modelos LASSO são muito precisos para prever a inflação brasileira em horizontes curtos de previsão. O segundo artigo utiliza vários métodos de Machine Learning para prever um grupo de variáveis macroeconomicas americanas. Os resultados mostram que uma adaptação no LASSO melhora as previsões com um alto custo computacional. O terceiro artigo também trata da previsão da inflação brasileira, mas em tempo real. Os principais resultados mostram que uma combinação de modelos de Machine Learning é mais precisa do que a previsão do especialista (FOCUS). Finalmente, o último artigo trata da previsão da inflação americana utilizando um grande conjunto de modelos. O modelo vencedor é o Random Forest, que levanta a questão da não-linearidade na inflação americana. Os resultados mostram que tanto a não-linearidade quanto a seleção de variáveis são importantes para os bons resultados do Random Forest. / [en] This thesis is made of four articles and an R package. The articles are all focused on forecasting economic variables on high-dimension. The first article shows that LASSO models are very accurate to forecast the Brazilian inflation in small horizons. The second article uses several Machine Learning models to forecast a set o US macroeconomic variables. The results show that a small adaptation in the LASSO improves the forecasts but with high computational costs. The third article is also on forecasting the Brazilian inflation, but in real-time. The main results show that a combination of Machine Learning models is more accurate than the FOCUS specialist forecasts. Finally, the last article is about forecasting the US inflation using a very large set of models. The winning model is the Random Forest, which opens the discussion of nonlinearity in the US inflation. The results show that both nonlinearity and variable selection are important features for the Random Forest performance.
327

Similaridade em big data / Similarity in big data

Lúcio Fernandes Dutra Santos 19 July 2017 (has links)
Os volumes de dados armazenados em grandes bases de dados aumentam em ritmo sempre crescente, pressionando o desempenho e a flexibilidade dos Sistemas de Gerenciamento de Bases de Dados (SGBDs). Os problemas de se tratar dados em grandes quantidades, escopo, complexidade e distribuição vêm sendo tratados também sob o tema de big data. O aumento da complexidade cria a necessidade de novas formas de busca - representar apenas números e pequenas cadeias de caracteres já não é mais suficiente. Buscas por similaridade vêm se mostrando a maneira por excelência de comparar dados complexos, mas até recentemente elas não estavam disponíveis nos SGBDs. Agora, com o início de sua disponibilidade, está se tornando claro que apenas os operadores de busca por similaridade fundamentais não são suficientes para lidar com grandes volumes de dados. Um dos motivos disso é que similaridade\' é, usualmente, definida considerando seu significado quando apenas poucos estão envolvidos. Atualmente, o principal foco da literatura em big data é aumentar a eficiência na recuperação dos dados usando paralelismo, existindo poucos estudos sobre a eficácia das respostas obtidas. Esta tese visa propor e desenvolver variações dos operadores de busca por similaridade para torná-los mais adequados para processar big data, apresentando visões mais abrangentes da base de dados, aumentando a eficácia das respostas, porém sem causar impactos consideráveis na eficiência dos algoritmos de busca e viabilizando sua execução escalável sobre grandes volumes de dados. Para alcançar esse objetivo, este trabalho apresenta quatro frentes de contribuições: A primeira consistiu em um modelo de diversificação de resultados que pode ser aplicado usando qualquer critério de comparação e operador de busca por similaridade. A segunda focou em definir técnicas de amostragem e de agrupamento de dados com o modelo de diversificação proposto, acelerando o processo de análise dos conjuntos de resultados. A terceira contribuição desenvolveu métodos de avaliação da qualidade dos conjuntos de resultados diversificados. Por fim, a última frente de contribuição apresentou uma abordagem para integrar os conceitos de mineração visual de dados e buscas por similaridade com diversidade em sistemas de recuperação por conteúdo, aumentando o entendimento de como a propriedade de diversidade pode ser aplicada. / The data being collected and generated nowadays increase not only in volume, but also in complexity, requiring new query operators. Health care centers collecting image exams and remote sensing from satellites and from earth-based stations are examples of application domains where more powerful and flexible operators are required. Storing, retrieving and analyzing data that are huge in volume, structure, complexity and distribution are now being referred to as big data. Representing and querying big data using only the traditional scalar data types are not enough anymore. Similarity queries are the most pursued resources to retrieve complex data, but until recently, they were not available in the Database Management Systems. Now that they are starting to become available, its first uses to develop real systems make it clear that the basic similarity query operators are not enough to meet the requirements of the target applications. The main reason is that similarity is a concept formulated considering only small amounts of data elements. Nowadays, researchers are targeting handling big data mainly using parallel architectures, and only a few studies exist targeting the efficacy of the query answers. This Ph.D. work aims at developing variations for the basic similarity operators to propose better suited similarity operators to handle big data, presenting a holistic vision about the database, increasing the effectiveness of the provided answers, but without causing impact on the efficiency on the searching algorithms. To achieve this goal, four mainly contributions are presented: The first one was a result diversification model that can be applied in any comparison criteria and similarity search operator. The second one focused on defining sampling and grouping techniques with the proposed diversification model aiming at speeding up the analysis task of the result sets. The third contribution concentrated on evaluation methods for measuring the quality of diversified result sets. Finally, the last one defines an approach to integrate the concepts of visual data mining and similarity with diversity searches in content-based retrieval systems, allowing a better understanding of how the diversity property is applied in the query process.
328

Effective and unsupervised fractal-based feature selection for very large datasets: removing linear and non-linear attribute correlations / Seleção de atributos efetiva e não-supervisionada em grandes bases de dados: aplicando a Teoria de Fractais para remover correlações lineares e não-lineares

Antonio Canabrava Fraideinberze 04 September 2017 (has links)
Given a very large dataset of moderate-to-high dimensionality, how to mine useful patterns from it? In such cases, dimensionality reduction is essential to overcome the well-known curse of dimensionality. Although there exist algorithms to reduce the dimensionality of Big Data, unfortunately, they all fail to identify/eliminate non-linear correlations that may occur between the attributes. This MSc work tackles the problem by exploring concepts of the Fractal Theory and massive parallel processing to present Curl-Remover, a novel dimensionality reduction technique for very large datasets. Our contributions are: (a) Curl-Remover eliminates linear and non-linear attribute correlations as well as irrelevant attributes; (b) it is unsupervised and suits for analytical tasks in general not only classification; (c) it presents linear scale-up on both the data size and the number of machines used; (d) it does not require the user to guess the number of attributes to be removed, and; (e) it preserves the attributes semantics by performing feature selection, not feature extraction. We executed experiments on synthetic and real data spanning up to 1.1 billion points, and report that our proposed Curl-Remover outperformed two PCA-based algorithms from the state-of-the-art, being in average up to 8% more accurate. / Dada uma grande base de dados de dimensionalidade moderada a alta, como identificar padrões úteis nos objetos de dados? Nesses casos, a redução de dimensionalidade é essencial para superar um fenômeno conhecido na literatura como a maldição da alta dimensionalidade. Embora existam algoritmos capazes de reduzir a dimensionalidade de conjuntos de dados na escala de Terabytes, infelizmente, todos falham em relação à identificação/eliminação de correlações não lineares entre os atributos. Este trabalho de Mestrado trata o problema explorando conceitos da Teoria de Fractais e processamento paralelo em massa para apresentar Curl-Remover, uma nova técnica de redução de dimensionalidade bem adequada ao pré-processamento de Big Data. Suas principais contribuições são: (a) Curl-Remover elimina correlações lineares e não lineares entre atributos, bem como atributos irrelevantes; (b) não depende de supervisão do usuário e é útil para tarefas analíticas em geral não apenas para a classificação; (c) apresenta escalabilidade linear tanto em relação ao número de objetos de dados quanto ao número de máquinas utilizadas; (d) não requer que o usuário sugira um número de atributos para serem removidos, e; (e) mantêm a semântica dos atributos por ser uma técnica de seleção de atributos, não de extração de atributos. Experimentos foram executados em conjuntos de dados sintéticos e reais contendo até 1,1 bilhões de pontos, e a nova técnica Curl-Remover apresentou desempenho superior comparada a dois algoritmos do estado da arte baseados em PCA, obtendo em média até 8% a mais em acurácia de resultados.
329

Utilização de filtros em programa de imagem digital / Use of filters in mobile photo-sharing application and services

Telma Luiza de Azevedo 26 April 2017 (has links)
A imagem concentra a informação ideológica que abrange complexas estruturas que permeiam a vida de milhões de usuários e constituem e constroem a sociedade em nosso tempo. A partir do olhar sobre o panorama atual das práticas fotográficas na sociedade, a dissertação trata da utilização dos filtros, que consistem em ferramentas que o fotógrafo pode utilizar para aplicar diversos efeitos em suas imagens, como, por exemplo, evidenciar cores, alterar os contrastes da cena, modificar foco, aplicar efeitos gráficos, absorver parte da luz que chega a lente, isto é, sobrepor camadas de informação às mesmas, na produção de fotografias compartilhadas em redes sociais. Filtros também se referem ao ato de classificar e selecionar os fluxos de dados em rede referentes a informações públicas ou privadas de usuários ao redor do globo interferindo nas atividades de milhões de indivíduos. Deste modo, a promoção do conhecimento científico de uma esfera da linguagem fotográfica compartilhada, criativa e experimental popularizada pela tecnologia em nossos dias é imprescindível para evidenciar a abrangência do fenômeno e promover ou provocar a reflexão sobre determinantes financeiros que permeiam comportamentos cotidianos e, então, agir sobre os padrões instituídos e não apenas reproduzi-los / The image concentrates the ideological information that encompasses complex structures that permeate the lives of millions of users and constitute and build society in our time. From a look at the current view of the photographic practices in society, the dissertation deals with the use of filters, which consist of tools that the photographer can use to apply various effects to his images, such as highlighting colors, changing contrasts of the scene, modify focus, apply graphic effects, absorb part of the light that reaches the lens, that is, superimpose layers of information on them, in the production of shared photographs in social networks. Filters also refer to the act of classifying and selecting networked data flows for public or private information from users around the globe interfering with the activities of millions of individuals. Thus the promotion of scientific knowledge of a sphere of shared, creative and experimental photographic language popularized by technology in our day is essential to highlight the scope of the phenomenon and to promote or provoke reflection of the financial determinants that permeate habitual behaviors, and so transforming the established standards and not just reproduce them.
330

A visualização de dados na teoria da comunicação

Santos, Márcio Emílio dos 19 February 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-04-01T11:16:09Z No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-04-24T02:59:55Z (GMT) No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Made available in DSpace on 2016-04-24T02:59:56Z (GMT). No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) Previous issue date: 2013-02-19 / Este trabalho analisa o uso de métodos e recursos computacionais como ferramenta para o pesquisador na área de Comunicação, principalmente em projetos de pesquisa que lidem com problemas passíveis de serem modelados computacionalmente através de algoritmos culturais. Destacamos que não se propõe uma substituição ou redução da participação humana na análise subjetiva de conteúdos, padrões e significados em prol de uma análise mais automatizada e quantitativa. Na estrutura deste trabalho contemplamos quatro capítulos que organizam aspectos teóricos, históricos, experiência práticas e resultados obtidos com a construção de uma visualização de uma grande coleção de dados. No primeiro capítulo, Digitalização e a linguagem da New Media, descrevemos o processo de digitalização tanto dos meios de produção quanto dos artefatos culturais ligados a Comunicação. Apresentamos a proposta de Manovich sobre o surgimento de uma nova mídia baseada nas características do software e seus aspectos digitais, como resultado deste processo de digitalização. No segundo capítulo, O que é visualização? Apresentamos um conjunto conceitual que define o que é a visualização, suas origens e proximidades com outras áreas como a visualização científica e aspectos teóricos, matemático e computacionais que baseiam esta linha de aplicação de métodos computacionais para analises culturais. O terceiro capítulo, Aplicação dos Conceitos de Visualização: VEJA DataVis., relata detalhadamente o processo de coleta da coleção de dados, organização, construção do algoritmo, aplicação e resultados apresentados na visualização de dados num hyperwall. O quarto e último capítulo, Análise de impactos da DataVis na percepção da Coleção de Dados VEJA, analisa como o processo e o resultado da aplicação da metodologia proposta por Manovich altera a percepção inicial da coleção de dados, destacando os aspectos de visualidade do contexto completo do conjunto de dados. / This paper analyzes the use of computational methods and resources as a tool for the researcher in the area of communication , particularly in research projects dealing with problems that can be modeled computationally through cultural algorithms . We emphasize that it is not proposed substitution or reduction of human involvement in the analysis of subjective content , patterns and meanings in favor of a more automated and quantitative analysis . In the structure of this work contemplate four chapters that organize theoretical , historical, practical experience and results obtained with the construction of a visualization of a large collection of data. In the first chapter , Scan and language of New Media , we describe the process of scanning both the means of production and of cultural artifacts linked to communication . Here is the proposed Manovich on the emergence of new media based on the characteristics of the software and its digital aspects , as a result of the scanning process. In the second chapter , What is visualization ? We present a conceptual framework that defines what is visualization , its origins and with other nearby areas such as scientific visualization and theoretical aspects , mathematical and computational basing this line of application of computational methods for cultural analysis . The third chapter , Application of Concepts View : . DataVis VIEW , describes the process of collecting the data collection , organization , construction of the algorithm , implementation and results presented in the visualization of data in a hyperwall detail . The fourth and final chapter, analysis of impacts on the perception of DataVis Collection SEE data, analyzes how the process and the result of applying the methodology proposed by Manovich change the initial perception of the data collection , emphasizing the visual aspects of the full context of dataset.

Page generated in 0.065 seconds