• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 119
  • 109
  • 75
  • 40
  • 40
  • 27
  • 22
  • 19
  • 11
  • 8
  • 7
  • 6
  • 6
  • 5
  • Tagged with
  • 1226
  • 1226
  • 181
  • 170
  • 163
  • 156
  • 150
  • 150
  • 149
  • 129
  • 112
  • 110
  • 110
  • 109
  • 108
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Bundling : une technique de réduction d'occultation par agrégation visuelle et son application à l'étude de la maladie d'Alzheimer / Bundling : a clutter reduction technique and its application to Alzheimer study

Lhuillier, Antoine 08 December 2017 (has links)
Le big data est un challenge majeur de la visualisation ; l'augmentation du nombre de données à visualiser augmente la densité et l'occultation des graphes et il devient difficile de distinguer les éléments qui le compose. Pour résoudre ce challenge, plusieurs techniques de visualisation se focalisent sur la simplification visuelle ; parmi elles, l'agrégation visuelle (bundling) permet l'agrégation des liens pour créer des zones de fortes densités au profit d'espaces plus clairsemés faisant ainsi émerger des structures visuelles. Cette thèse s'efforce à faire le trait d'union entre la complexité technique des algorithmes de bundling et les utilisateurs finaux. Dans un premier temps, nous avons formalisé l'espace de design des techniques de bundling afin d'améliorer la compréhension des chercheurs et des utilisateurs. Notre formalisation se fonde sur une taxonomie centrée utilisateur organisant l'ensemble des techniques d'agrégation en fonction des données d'entrée. Ensuite, à partir d'une définition formelle du bundling, nous proposons un modèle générique décrivant l'ensemble des étapes usuelles des algorithmes de bundling et montrons comment les techniques existantes implémentent chaque étape. Enfin, à travers une analyse des tâches, nous exposons des cas d'utilisation avérés. Notre analyse de l'espace des techniques de bundling nous a montré les limites actuelles du bundling quant au traitement de grande quantité de données tant en terme de rapidité de calcul qu'en terme de taille des jeux de données. Ainsi, nous avons résolu ces limites en introduisant une nouvelle technique plus rapide et sans limitation de taille : FFTEB (Fast Fourier Transform Edge Bundling Technique). Notre technique déplace le processus d'agrégation de l'espace pixelaire vers l'espace spectral. Enfin, grâce à un processus de transfert des données, FFTEB résout les problèmes de taille de jeux de données. En dernier lieu, dans le cadre d'une application à la maladie d'Alzheimer, cette thèse démontre l'efficacité des techniques de bundling comme outil d'exploration visuelle. Dans le contexte d'une étude nationale sur la maladie d'Alzheimer, nous avons focalisé notre recherche sur l'analyse de la représentation mentale de l'espace géographique chez les personnes âgées. Nous montrons que l'utilisation du bundling pour comparer les cartes mentales des populations démentes et non-démentes a permis à des neuropsychologues de formuler de nouvelles hypothèses sur l'évolution de la maladie d'Alzheimer. Ces nouvelles hypothèses nous ont permis de montrer l'émergence d'un potentiel marqueur de la maladie près de douze ans avant que les patients ne soient diagnostiqués comme atteints de cette maladie. / Dense and complex data visualizations suffer from occluded items, which hinders insight retrieval. This is especially the case for very large graph or trails set. To address cluttering issues, several techniques propose to visually simplify the representation, often meeting scalability and computational speed limits. Among them, bundling techniques provide a visual simplification of node-link diagrams by spatially grouping similar items. This thesis strives to bridge the gap between the technical complexity of bundling techniques and the end-point user. The first aim of this thesis was to improve the understanding of graph and trail bundling techniques as a clutter reduction method for node-link diagrams of large data-set. To do so, we created a data-based taxonomy that organizes bundling methods on the type of data they work on. From this thorough review and based on a formal definition of path bundling, we propose a unified framework that describes the typical steps of bundling algorithms in terms of high-level operations and show how existing methods classes implement these steps. In addition, we propose a description of tasks that bundling aims to address and demonstrate them through a wide set of applications. Although many techniques exist, handling large data-sets and selectively bundling paths based on attributes is still a challenge. To answer the scalability and computational speed issues of bundling techniques, we propose a new technique which improves both. For this, we shift the bundling process from the image to the spectral space, thereby increasing computational limits. We address the later by proposing a streaming scheme allowing bundling of extremely large data-sets. Finally, as an application domain, we studied how bundling can be used as an efficient visualization technique for societal health challenges. In the context of a national study on Alzheimer disease, we focused our research on the analysis of the mental representation of geographical space for elderly people. We show that using bundling to compare the cognitive maps of dement and non-dement subjects helped neuro-psychologist to formulate new hypotheses on the evolution of Alzheimer disease. These new hypotheses led us to discover a potential marker of the disease years before the actual diagnosis.
322

[en] A VISUAL ANALYSIS OF BUS GPS DATA IN RIO / [pt] UMA ANÁLISE VISUAL DOS DADOS DE GPS DOS ÔNIBUS NO RIO

BRUNO GUBERFAIN DO AMARAL 19 July 2016 (has links)
[pt] O tema Cidades Inteligentes é um assunto de interesse para gestores públicos e pesquisadores. Desenvolver cidades mais inteligentes é um dos desafios para o futuro próximo devido à crescente demanda por serviços públicos. Em particular, o transporte público é um dos aspectos mais visíveis de uma cidade viva e, portanto, a sua implementação deve ser muito eficiente. O sistema de transporte público da cidade do Rio de Janeiro é historicamente deficiente, principalmente porque ele é baseado em um antigo sistema de ônibus. Para melhorá-lo, a Prefeitura tomou algumas ações, como o desenvolvimento de um projeto de dados aberto que mostra, a quase a cada minuto, a posição instantânea de todos os ônibus na cidade. Embora não seja uma nova tecnologia, esta é a primeira iniciativa a ser desenvolvida no Rio. Neste trabalho, são aprsentadas ferramentas simples para a exploração visual deste grande conjunto de dados com base em informações históricas, que chega a um total de mais de um bilhão de amostras. Com essas ferramentas, um usuário será capaz de verificar as tendências, identificar padrões e localizar anomalias nesta grande quantidade de dados de GPS dos ônibus. / [en] Smart cities is a current subject of interest for public administrators and researchers. Getting the cities smarter is one of the challenges for the near future, due to the growing demand for public services. In particular, public transportation is one of most visible aspects of a living city and, therefore, its implementation must be very efficient. The public transportation system of the City of Rio de Janeiro is historically deficient, mostly because it is based on an old bus system. To change it, the City Hall took some actions, such as the development of an open data project that shows, at about every minute, the GPS instant position of all buses in the city. Although it is not a new technology, it is the first initiative to be developed in Rio. This work presents simple tools for the visual exploration of this big dataset based on the historical information from this service, which reaches a total of more than one billion samples. With these tools one is able to discover trends, identify patterns, and locate abnormalities within the massive collection of the buses GPS data.
323

[en] FORECASTING IN HIGH-DIMENSION: INFLATION AND OTHER ECONOMIC VARIABLES / [pt] PREVISÃO EM ALTA DIMENSÃO: INFLAÇÃO E OUTRAS VARIÁVEIS ECONÔMICAS

GABRIEL FILIPE RODRIGUES VASCONCELOS 26 September 2018 (has links)
[pt] Esta tese é composta de quatro artigos e um pacote de R. Todos os artigos têm como foco previsão de variáveis econômicas em alta dimensão. O primeiro artigo mostra que modelos LASSO são muito precisos para prever a inflação brasileira em horizontes curtos de previsão. O segundo artigo utiliza vários métodos de Machine Learning para prever um grupo de variáveis macroeconomicas americanas. Os resultados mostram que uma adaptação no LASSO melhora as previsões com um alto custo computacional. O terceiro artigo também trata da previsão da inflação brasileira, mas em tempo real. Os principais resultados mostram que uma combinação de modelos de Machine Learning é mais precisa do que a previsão do especialista (FOCUS). Finalmente, o último artigo trata da previsão da inflação americana utilizando um grande conjunto de modelos. O modelo vencedor é o Random Forest, que levanta a questão da não-linearidade na inflação americana. Os resultados mostram que tanto a não-linearidade quanto a seleção de variáveis são importantes para os bons resultados do Random Forest. / [en] This thesis is made of four articles and an R package. The articles are all focused on forecasting economic variables on high-dimension. The first article shows that LASSO models are very accurate to forecast the Brazilian inflation in small horizons. The second article uses several Machine Learning models to forecast a set o US macroeconomic variables. The results show that a small adaptation in the LASSO improves the forecasts but with high computational costs. The third article is also on forecasting the Brazilian inflation, but in real-time. The main results show that a combination of Machine Learning models is more accurate than the FOCUS specialist forecasts. Finally, the last article is about forecasting the US inflation using a very large set of models. The winning model is the Random Forest, which opens the discussion of nonlinearity in the US inflation. The results show that both nonlinearity and variable selection are important features for the Random Forest performance.
324

Similaridade em big data / Similarity in big data

Lúcio Fernandes Dutra Santos 19 July 2017 (has links)
Os volumes de dados armazenados em grandes bases de dados aumentam em ritmo sempre crescente, pressionando o desempenho e a flexibilidade dos Sistemas de Gerenciamento de Bases de Dados (SGBDs). Os problemas de se tratar dados em grandes quantidades, escopo, complexidade e distribuição vêm sendo tratados também sob o tema de big data. O aumento da complexidade cria a necessidade de novas formas de busca - representar apenas números e pequenas cadeias de caracteres já não é mais suficiente. Buscas por similaridade vêm se mostrando a maneira por excelência de comparar dados complexos, mas até recentemente elas não estavam disponíveis nos SGBDs. Agora, com o início de sua disponibilidade, está se tornando claro que apenas os operadores de busca por similaridade fundamentais não são suficientes para lidar com grandes volumes de dados. Um dos motivos disso é que similaridade\' é, usualmente, definida considerando seu significado quando apenas poucos estão envolvidos. Atualmente, o principal foco da literatura em big data é aumentar a eficiência na recuperação dos dados usando paralelismo, existindo poucos estudos sobre a eficácia das respostas obtidas. Esta tese visa propor e desenvolver variações dos operadores de busca por similaridade para torná-los mais adequados para processar big data, apresentando visões mais abrangentes da base de dados, aumentando a eficácia das respostas, porém sem causar impactos consideráveis na eficiência dos algoritmos de busca e viabilizando sua execução escalável sobre grandes volumes de dados. Para alcançar esse objetivo, este trabalho apresenta quatro frentes de contribuições: A primeira consistiu em um modelo de diversificação de resultados que pode ser aplicado usando qualquer critério de comparação e operador de busca por similaridade. A segunda focou em definir técnicas de amostragem e de agrupamento de dados com o modelo de diversificação proposto, acelerando o processo de análise dos conjuntos de resultados. A terceira contribuição desenvolveu métodos de avaliação da qualidade dos conjuntos de resultados diversificados. Por fim, a última frente de contribuição apresentou uma abordagem para integrar os conceitos de mineração visual de dados e buscas por similaridade com diversidade em sistemas de recuperação por conteúdo, aumentando o entendimento de como a propriedade de diversidade pode ser aplicada. / The data being collected and generated nowadays increase not only in volume, but also in complexity, requiring new query operators. Health care centers collecting image exams and remote sensing from satellites and from earth-based stations are examples of application domains where more powerful and flexible operators are required. Storing, retrieving and analyzing data that are huge in volume, structure, complexity and distribution are now being referred to as big data. Representing and querying big data using only the traditional scalar data types are not enough anymore. Similarity queries are the most pursued resources to retrieve complex data, but until recently, they were not available in the Database Management Systems. Now that they are starting to become available, its first uses to develop real systems make it clear that the basic similarity query operators are not enough to meet the requirements of the target applications. The main reason is that similarity is a concept formulated considering only small amounts of data elements. Nowadays, researchers are targeting handling big data mainly using parallel architectures, and only a few studies exist targeting the efficacy of the query answers. This Ph.D. work aims at developing variations for the basic similarity operators to propose better suited similarity operators to handle big data, presenting a holistic vision about the database, increasing the effectiveness of the provided answers, but without causing impact on the efficiency on the searching algorithms. To achieve this goal, four mainly contributions are presented: The first one was a result diversification model that can be applied in any comparison criteria and similarity search operator. The second one focused on defining sampling and grouping techniques with the proposed diversification model aiming at speeding up the analysis task of the result sets. The third contribution concentrated on evaluation methods for measuring the quality of diversified result sets. Finally, the last one defines an approach to integrate the concepts of visual data mining and similarity with diversity searches in content-based retrieval systems, allowing a better understanding of how the diversity property is applied in the query process.
325

Effective and unsupervised fractal-based feature selection for very large datasets: removing linear and non-linear attribute correlations / Seleção de atributos efetiva e não-supervisionada em grandes bases de dados: aplicando a Teoria de Fractais para remover correlações lineares e não-lineares

Antonio Canabrava Fraideinberze 04 September 2017 (has links)
Given a very large dataset of moderate-to-high dimensionality, how to mine useful patterns from it? In such cases, dimensionality reduction is essential to overcome the well-known curse of dimensionality. Although there exist algorithms to reduce the dimensionality of Big Data, unfortunately, they all fail to identify/eliminate non-linear correlations that may occur between the attributes. This MSc work tackles the problem by exploring concepts of the Fractal Theory and massive parallel processing to present Curl-Remover, a novel dimensionality reduction technique for very large datasets. Our contributions are: (a) Curl-Remover eliminates linear and non-linear attribute correlations as well as irrelevant attributes; (b) it is unsupervised and suits for analytical tasks in general not only classification; (c) it presents linear scale-up on both the data size and the number of machines used; (d) it does not require the user to guess the number of attributes to be removed, and; (e) it preserves the attributes semantics by performing feature selection, not feature extraction. We executed experiments on synthetic and real data spanning up to 1.1 billion points, and report that our proposed Curl-Remover outperformed two PCA-based algorithms from the state-of-the-art, being in average up to 8% more accurate. / Dada uma grande base de dados de dimensionalidade moderada a alta, como identificar padrões úteis nos objetos de dados? Nesses casos, a redução de dimensionalidade é essencial para superar um fenômeno conhecido na literatura como a maldição da alta dimensionalidade. Embora existam algoritmos capazes de reduzir a dimensionalidade de conjuntos de dados na escala de Terabytes, infelizmente, todos falham em relação à identificação/eliminação de correlações não lineares entre os atributos. Este trabalho de Mestrado trata o problema explorando conceitos da Teoria de Fractais e processamento paralelo em massa para apresentar Curl-Remover, uma nova técnica de redução de dimensionalidade bem adequada ao pré-processamento de Big Data. Suas principais contribuições são: (a) Curl-Remover elimina correlações lineares e não lineares entre atributos, bem como atributos irrelevantes; (b) não depende de supervisão do usuário e é útil para tarefas analíticas em geral não apenas para a classificação; (c) apresenta escalabilidade linear tanto em relação ao número de objetos de dados quanto ao número de máquinas utilizadas; (d) não requer que o usuário sugira um número de atributos para serem removidos, e; (e) mantêm a semântica dos atributos por ser uma técnica de seleção de atributos, não de extração de atributos. Experimentos foram executados em conjuntos de dados sintéticos e reais contendo até 1,1 bilhões de pontos, e a nova técnica Curl-Remover apresentou desempenho superior comparada a dois algoritmos do estado da arte baseados em PCA, obtendo em média até 8% a mais em acurácia de resultados.
326

Utilização de filtros em programa de imagem digital / Use of filters in mobile photo-sharing application and services

Telma Luiza de Azevedo 26 April 2017 (has links)
A imagem concentra a informação ideológica que abrange complexas estruturas que permeiam a vida de milhões de usuários e constituem e constroem a sociedade em nosso tempo. A partir do olhar sobre o panorama atual das práticas fotográficas na sociedade, a dissertação trata da utilização dos filtros, que consistem em ferramentas que o fotógrafo pode utilizar para aplicar diversos efeitos em suas imagens, como, por exemplo, evidenciar cores, alterar os contrastes da cena, modificar foco, aplicar efeitos gráficos, absorver parte da luz que chega a lente, isto é, sobrepor camadas de informação às mesmas, na produção de fotografias compartilhadas em redes sociais. Filtros também se referem ao ato de classificar e selecionar os fluxos de dados em rede referentes a informações públicas ou privadas de usuários ao redor do globo interferindo nas atividades de milhões de indivíduos. Deste modo, a promoção do conhecimento científico de uma esfera da linguagem fotográfica compartilhada, criativa e experimental popularizada pela tecnologia em nossos dias é imprescindível para evidenciar a abrangência do fenômeno e promover ou provocar a reflexão sobre determinantes financeiros que permeiam comportamentos cotidianos e, então, agir sobre os padrões instituídos e não apenas reproduzi-los / The image concentrates the ideological information that encompasses complex structures that permeate the lives of millions of users and constitute and build society in our time. From a look at the current view of the photographic practices in society, the dissertation deals with the use of filters, which consist of tools that the photographer can use to apply various effects to his images, such as highlighting colors, changing contrasts of the scene, modify focus, apply graphic effects, absorb part of the light that reaches the lens, that is, superimpose layers of information on them, in the production of shared photographs in social networks. Filters also refer to the act of classifying and selecting networked data flows for public or private information from users around the globe interfering with the activities of millions of individuals. Thus the promotion of scientific knowledge of a sphere of shared, creative and experimental photographic language popularized by technology in our day is essential to highlight the scope of the phenomenon and to promote or provoke reflection of the financial determinants that permeate habitual behaviors, and so transforming the established standards and not just reproduce them.
327

A visualização de dados na teoria da comunicação

Santos, Márcio Emílio dos 19 February 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-04-01T11:16:09Z No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-04-24T02:59:55Z (GMT) No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) / Made available in DSpace on 2016-04-24T02:59:56Z (GMT). No. of bitstreams: 1 marcioemiliodossantos.pdf: 6871193 bytes, checksum: 8a0527620a2551b270f5286e1886a43f (MD5) Previous issue date: 2013-02-19 / Este trabalho analisa o uso de métodos e recursos computacionais como ferramenta para o pesquisador na área de Comunicação, principalmente em projetos de pesquisa que lidem com problemas passíveis de serem modelados computacionalmente através de algoritmos culturais. Destacamos que não se propõe uma substituição ou redução da participação humana na análise subjetiva de conteúdos, padrões e significados em prol de uma análise mais automatizada e quantitativa. Na estrutura deste trabalho contemplamos quatro capítulos que organizam aspectos teóricos, históricos, experiência práticas e resultados obtidos com a construção de uma visualização de uma grande coleção de dados. No primeiro capítulo, Digitalização e a linguagem da New Media, descrevemos o processo de digitalização tanto dos meios de produção quanto dos artefatos culturais ligados a Comunicação. Apresentamos a proposta de Manovich sobre o surgimento de uma nova mídia baseada nas características do software e seus aspectos digitais, como resultado deste processo de digitalização. No segundo capítulo, O que é visualização? Apresentamos um conjunto conceitual que define o que é a visualização, suas origens e proximidades com outras áreas como a visualização científica e aspectos teóricos, matemático e computacionais que baseiam esta linha de aplicação de métodos computacionais para analises culturais. O terceiro capítulo, Aplicação dos Conceitos de Visualização: VEJA DataVis., relata detalhadamente o processo de coleta da coleção de dados, organização, construção do algoritmo, aplicação e resultados apresentados na visualização de dados num hyperwall. O quarto e último capítulo, Análise de impactos da DataVis na percepção da Coleção de Dados VEJA, analisa como o processo e o resultado da aplicação da metodologia proposta por Manovich altera a percepção inicial da coleção de dados, destacando os aspectos de visualidade do contexto completo do conjunto de dados. / This paper analyzes the use of computational methods and resources as a tool for the researcher in the area of communication , particularly in research projects dealing with problems that can be modeled computationally through cultural algorithms . We emphasize that it is not proposed substitution or reduction of human involvement in the analysis of subjective content , patterns and meanings in favor of a more automated and quantitative analysis . In the structure of this work contemplate four chapters that organize theoretical , historical, practical experience and results obtained with the construction of a visualization of a large collection of data. In the first chapter , Scan and language of New Media , we describe the process of scanning both the means of production and of cultural artifacts linked to communication . Here is the proposed Manovich on the emergence of new media based on the characteristics of the software and its digital aspects , as a result of the scanning process. In the second chapter , What is visualization ? We present a conceptual framework that defines what is visualization , its origins and with other nearby areas such as scientific visualization and theoretical aspects , mathematical and computational basing this line of application of computational methods for cultural analysis . The third chapter , Application of Concepts View : . DataVis VIEW , describes the process of collecting the data collection , organization , construction of the algorithm , implementation and results presented in the visualization of data in a hyperwall detail . The fourth and final chapter, analysis of impacts on the perception of DataVis Collection SEE data, analyzes how the process and the result of applying the methodology proposed by Manovich change the initial perception of the data collection , emphasizing the visual aspects of the full context of dataset.
328

A Cloud Based Platform for Big Data Science

Islam, Md. Zahidul January 2014 (has links)
With the advent of cloud computing, resizable scalable infrastructures for data processing is now available to everyone. Software platforms and frameworks that support data intensive distributed applications such as Amazon Web Services and Apache Hadoop enable users to the necessary tools and infrastructure to work with thousands of scalable computers and process terabytes of data. However writing scalable applications that are run on top of these distributed frameworks is still a demanding and challenging task. The thesis aimed to advance the core scientific and technological means of managing, analyzing, visualizing, and extracting useful information from large data sets, collectively known as “big data”. The term “big-data” in this thesis refers to large, diverse, complex, longitudinal and/or distributed data sets generated from instruments, sensors, internet transactions, email, social networks, twitter streams, and/or all digital sources available today and in the future. We introduced architectures and concepts for implementing a cloud-based infrastructure for analyzing large volume of semi-structured and unstructured data. We built and evaluated an application prototype for collecting, organizing, processing, visualizing and analyzing data from the retail industry gathered from indoor navigation systems and social networks (Twitter, Facebook etc). Our finding was that developing large scale data analysis platform is often quite complex when there is an expectation that the processed data will grow continuously in future. The architecture varies depend on requirements. If we want to make a data warehouse and analyze the data afterwards (batch processing) the best choices will be Hadoop clusters and Pig or Hive. This architecture has been proven in Facebook and Yahoo for years. On the other hand, if the application involves real-time data analytics then the recommendation will be Hadoop clusters with Storm which has been successfully used in Twitter. After evaluating the developed prototype we introduced a new architecture which will be able to handle large scale batch and real-time data. We also proposed an upgrade of the existing prototype to handle real-time indoor navigation data.
329

Digital Transformation - Rollen för Big Data, Internet of Things och CloudComputing / Digital Transformation - The role of Big Data, Internet of Things and CloudComputing

Eide, Linn, Paredes Degollar, Daniel January 2016 (has links)
Förändringar i affärsvärlden och på marknaden leder till att företag idag ständigt ställs införnya utmaningar. Vi befinner oss i ett digitaliserat samhälle som är under ständig förändring.Det är något som företag måste förhålla sig till. Företagen står inför utmaningen attdigitalisera sin verksamhet för att förhålla sig till en förändrande marknad och allt merdigitaliserade kunder. Utökande av kommunikationsnät och infrastruktur har möjliggjort förkunder att verka i en mer uppkopplad miljö än tidigare. För att verksamheter ska vara med ispelet bland de konkurrenskraftiga organisationerna, leder det till en av anledningarna till attföretagen kommer i kontakt med IT-trender inom digitalisering som Big Data, Internet ofThings och Cloud Computing. Affärsmodellen är en huvudsaklig aspekt att ta hänsyn till ochjustera vid digitalisering. Studien syftar därmed till att undersöka rollen för de tre nämnda ITtrendernai en verksamhet och hur affärsmodellen faktiskt påverkas. Studiens slutsatser visarpå att användandet av de tre IT-trenderna är låg idag och vad gäller affärsmodellen har detskett en låg påverkan på även om medvetenhet finns i hur den bör påverkas. IT-trendernafinns dock ständigt på agendan och kommer spela en stor roll framöver inom verksamhetersamtidigt som affärsmodellen kommer få en större påverkan. / Changes in the business world and on the market means that companies today are constantlyfaced with new challenges. We are in a digitized society that is constantly changing. It issomething that companies must adhere to. The companies face the challenge of digitizing itsoperations to respond to a changing market and increasingly digitized customers. Extension ofnetworks and infrastructure has enabled customers to work in a more connected world thanbefore. For businesses to be included in the game among the competitive organizations, itleads to one of the reasons that companies will use the IT trends in digitization as Big Data,Internet of Things and Cloud Computing. The business model is a main aspect to be takeninto account and adjust for digitization. The study thus aims to examine the role of these threeIT trends in the business and how the business model actually is affected. The study's findingsshow that the use of the three IT trends are low today, and in terms of the business model hasbeen a low impact on even if consciousness is how it should be affected. The IT trends are,however, constantly on the agenda and will play a big role in the future in the activities whilethe business model will have a larger impact.
330

Big data : En studie om dess affärsnytta samt dess utmaningar och möjligheter, med fokus på detaljhandeln

Bergdahl, Jacob, Sinabian, Armine January 2015 (has links)
Idag skapas och lagras enorma mängder data, samtidigt som endast en liten del av datan analyseras och används. Big data är ett begrepp som cirkulerat i flera år, men på senare år har det fått allt större innebörd. Allt fler företag börjar få upp ögonen för big data, samtidigt som få verkligen vet hur det ska användas. Vissa frågar sig till och med: finns det någon affärsnytta? Med fokus på detaljhandelsbranschen undersöker vi huruvida det finns en affärsnytta med big data, och framförallt vilka utmaningar och möjligheter som finns kopplade till det. Begrepp som business intelligence och analytics diskuteras i sambandet. I denna kvalitativa studie har tre experter från olika företag; IBM, Knowit och Exor, intervjuats. Resultatet från intervjuerna har kopplats till den teori som tagits fram ur litteratur kring ämnet, och jämförts i analysen. Samtliga identifierade utmaningar och möjligheter har listats, och bland slutsatser ses att de etiska och mänskliga faktorerna har stor betydelse, och att affärsnyttan kan vara beroende av ett företags storlek och marknad. Uppsatsen är skriven på svenska. / Enormous amounts of data is created and stored today, all the while only a small amount of data is being analysed and used. Big data is a term that has circulated for years, however in recent years its meaning have been increased. More enterprises are starting to open their eyes for big data, while few understand how to actually use it. Some even ask themselves: is there a business benefit? With a focus on the retail industry, we examine whether there is a business benefit with using big data, and above all what challenges and opportunities are connected to it. Terms such as business intelligence and analytics are discussed in the relationship to big data. In this qualitative study, three experts from different enterprises; IBM, Knowit and Exor, have been interviewed. The results from the interviews has been connected to the theory from the literature around the subject, and has been compared in the analysis. All identified challenges and opportunities have been listed, and among the conclusions can the ethical and human factors be seen to have a major importance, and that the business benefits can be dependent of an enterprises’ size and market. The essay is written in Swedish.

Page generated in 0.049 seconds