• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 119
  • 109
  • 75
  • 40
  • 40
  • 27
  • 22
  • 19
  • 10
  • 8
  • 7
  • 6
  • 6
  • 5
  • Tagged with
  • 1225
  • 1225
  • 181
  • 170
  • 163
  • 156
  • 150
  • 150
  • 149
  • 129
  • 112
  • 110
  • 110
  • 109
  • 108
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Dynamic Configuration of a Relocatable Driver and Code Generator for Continuous Deep Analytics / Dynamisk Konfigurering av en Omlokaliseringsbar Driver och Kod Genererare för Continuous Deep Analytics

Bjuhr, Oscar January 2018 (has links)
Modern stream processing engines usually use the Java virtual machine (JVM) as execution platform. The JVM increases portability and safety of applications at the cost of not fully utilising the performance of the physical machines. Being able to use hardware accelerators such as GPUs for computationally heavy analysis of data streams is also restricted when using the JVM. The project Continuous Deep Analytics (CDA) explores the possibility of a stream processor executing native code directly on the underlying hardware using Rust. Rust is a young programming language which can statically guarantee the absence of memory errors and data races in programs without incurring performance penalties during runtime. Rust is built on top of LLVM which gives Rust a theoretical possibility to compile to a large set of target platforms. Each specific target platform does however require a specific configured runtime environment for Rust’s compiler to work properly. The CDA compiler will run in a distributed setting where the compiler has to be able to reallocate to different nodes to handle node failures. Setting up a reassignable Rust compiler in such a setting can be error prone and Docker is explored as a solution to this problem. A concurrent thread based system is implemented in Scala for building Docker images and compiling Rust in containers. Docker shows a potential of enabling easy reallocation of the driver without manual configuration. Docker has no major effect on Rust’s compile time. The large Docker images required to compile Rust is a drawback of the solution. They will require substantial network traffic to reallocate the driver. Reducing the size of the images would therefore make the solution more responsive. / Moderna strömprocessorer använder vanligtvis Javas virtuella maskin (JVM) som plattform för exekvering. Det gör strömprocessorerna portabla och säkra men begränsar hur väl de kan använda kapaciteten i den underliggande fysiska maskinen. Att kunna använda sig av hårdvaruaccelerator som t.ex. grafikkort för tung beräkning och analys av dataströmmar är en anledning till varför projektet Continuous Deep Analytics (CDA) utforskar möjligheten att istället exekvera en strömprocessor direkt i den underliggande maskinen. Rust är ett ungt programmeringsspråk som statiskt kan garantera att program inte innehåller minnesfel eller race conditions", detta utan att negativt påverka prestanda vid exekvering. Rust är byggt på LLVM vilket ger Rust en teoretisk möjlighet att kompilera till en stor mängd olika maskinarkitekturer. Varje specifik maskinarkitektur kräver dock att kompileringsmiljön är konfigurerad på ett specifikt sätt. CDAs kompilator kommer befinna sig i ett distribuerat system där kompilatorn kan bli flyttad till olika maskiner för att kunna hantera maskinfel. Att dynamiskt konfigurera kompilatorn i en sådan miljö kan leda till problem och därför testas Docker som en lösning på problemet. Ett trådbaserat system för parallell exekvering är implementerat i Scala för att bygga Docker bilder och kompilera Rust i containrar. Docker visar sig att ha en potential för att möjliggöra lätt omallokering av drivern utan manuell konfiguration. Docker har ingen stor påverkan på Rusts kompileringstid. De stora storlekarna på de Docker bilder som krävs för att kompilera Rust är en nackdel med lösningen. De gör att om allokering av drivern kräver mycket nätverkstrafik och kan därför ta lång tid. För att göra lösningen kvickare kan storleken av bilderna reduceras.
362

Analysis and comparison of interfacing, data generation and workload implementation in BigDataBench 4.0 and Intel HiBench 7.0

Barosen, Alexander, Dalin, Sadok January 2018 (has links)
One of the major challenges in Big Data is the accurate and meaningful assessment of system performance. Unlike other systems, minor differences in efficiency can escalate to large differences in costs and power consumption. While there are several tools on the marketplace for measuring the performance of Big Data systems, few of them have been explored in-depth. This report investigated the interfacing, data generation and workload implementations of two Big Data benchmarking suites, BigDataBench and Hibench. The purpose of the study was to establish the capabilities of each tool with regards to interfacing, data generation and workload implementation. An exploratory and qualitative approach was used to gather information and analyze each benchmarking tool. Source code, documentation, and reports published by the developers were used as information sources. The results showed that BigDataBench and HiBench were designed similarly with regards to interfacing and data flow during the execution of a workload with the exception of streaming workloads. BigDataBench provided for more realistic data generation while the data generation for HiBench was easier to control. With regards to workload design, the workloads in BigDataBench were designed to be applicable to multiple frameworks while the workloads in HiBench were focused on the Hadoop family. In conclusion, neither of benchmarking suites was superior to the other. They were both designed for different purposes and should be applied on a case-by-case basis. / En av de stora utmaningarna i Big Data är den exakta och meningsfulla bedömningen av systemprestanda. Till skillnad från andra system kan mindre skillnader i effektivitet eskalera till stora skillnader i kostnader och strömförbrukning. Medan det finns flera verktyg på marknaden för att mäta prestanda för Big Data-system, har få av dem undersökts djupgående. I denna rapport undersöktes gränssnittet, datagenereringen och arbetsbelastningen av två Big Data benchmarking-sviter, BigDataBench och HiBench. Syftet med studien var att fastställa varje verktygs kapacitet med hänsyn till de givna kriterierna. Ett utforskande och kvalitativt tillvägagångssätt användes för att samla information och analysera varje benchmarking verktyg. Källkod, dokumentation och rapporter som hade skrivits och publicerats av utvecklarna användes som informationskällor. Resultaten visade att BigDataBench och HiBench utformades på samma sätt med avseende på gränssnitt och dataflöde under utförandet av en arbetsbelastning med undantag för strömmande arbetsbelastningar. BigDataBench tillhandahöll mer realistisk datagenerering medan datagenerering för HiBench var lättare att styra. När det gäller arbetsbelastningsdesign var arbetsbelastningen i BigDataBench utformad för att kunna tillämpas på flera ramar, medan arbetsbelastningen i HiBench var inriktad på Hadoop-familjen. Sammanfattningsvis var ingen av benchmarkingssuperna överlägsen den andra. De var båda utformade för olika ändamål och bör tillämpas från fall till fall.
363

Quantifying Traffic Congestion in Nairobi / Kvantifiering av trafik i Nairobi

Bojs, Eric January 2020 (has links)
This thesis aims to give insight into a novel approach for quantifying car traffic in developing cities. This is necessary to improve efficiency in resource allocation for improvements in infrastructure. The project took form of a case study of neighborhoods in the city of Nairobi, Kenya. The approach consists of a method which relies on topics from the field of Topological Data Analysis, together with the use of large data sources from taxi services in the city. With this, both qualitative and quantitative insight can be given about the traffic. The method was proven useful for understanding how traffic spreads, and to differentiate between levels of congestion: quantifying it. However, it failed to detect the effect of previous improvements of infrastructure. / Målet med rapporten är att ge insikt i en innovativ ansats för att kvantifiera biltrafik i utvecklingsstäder. Detta kommer som en nödvändighet för att kunna förbättra resursfördelning i utvecklandet av infrastruktur. Projektet utspelade sig som en fallstudie där stadsdelar i Nairobi, Kenya studerades. Ansatsen innefattar en metod som bygger på tekniker från topologisk dataanalys (eng. \textit{Topological Data Analysis}), tillsammans med stora datakällor från taxitjänster i staden. Detta hoppas ge både kvalitativ och kvantitativ information om trafiken i staden. Metoden visade sig vara användbar för att förstå hur trafik sprider sig och att differentiera mellan nivåer av trafik, alltså att kvantifiera den. Tyvärr så misslyckades metoden visa sig användbar för att mäta förbättringar i infrastruktur.
364

Cauldron: A Scalable Domain Specific Database for Product Data

Ottosson, Love January 2017 (has links)
This project investigated how NoSQL databases can be used together with a logical layer, instead of a relational database with separated backend logic, to search for products with customer specific constraints in an e-commerce scenario. The motivation behind moving from a relational database was the scalability issues and increased read latencies experienced as the data increased. The work resulted in a framework called Cauldron that uses pipelines a sequence of execution steps to expose its data stored in an in-memory key-value store and a document database. Cauldron uses write replication between distributed instances to increase read throughput at the cost of write latency. A product database with customer specific constraints was implemented using Cauldron to compare it against an existing solution based on a relational database. The new product database can serve search queries 10 times faster in the general case and up to 25 times faster in extreme cases compared to the existing solution. / Projektet undersökte hur NoSQL databaser tillsammans med ett logiskt lager, istället för en relationsdatabas med separat backend logik, kan användas för att söka på produkter med kundunika restriktioner. Motivationen till att byta ut relationsdatabasen berodde på skalbarhetsproblem och långsammare svarstider när datamängden ökade. Arbetet resulterade i ett ramverk vid namn Cauldron som använder pipelines sammankopplade logiska steg för att exponera sin data från en minnesbunden nyckel-värde-databas och en dokumentdatabas. Cauldron använder replikering mellan distribuerade instanser för att öka läsgenomstömmningen på bekostnad av högre skrivlatenser. En produktdatabas med kundunika restriktioner implementerades med hjälp av Cauldron för att jämföra den mot en befintlig lösning baserad på en relationsdatabas. Den nya databasen kan besvara sökförfrågningar 10 gånger snabbare i normalfallen och upp till 25 gånger snabbare i extremfallen jämfört med den befintliga lösningen.
365

Collecting Data for Building Automation Analytics : A case study for collecting operational data with minimal human intervention / Insamling av data för fastighetsautomationsanalys : En fallstudie för insamling av operativ data med minimal mänsklig intervention

Jan, Jonathan January 2018 (has links)
Approximately 40% of the total energy consumption within the EU is due to buildings, and similar numbers can be found in the US. If the principal inefficiencies in buildings were easily identifiable, then a facility manager could focus their resources to make the buildings more efficient, which would lead to both cost savings for the facility owners and decrease the building’s ecological footprint. In building automation systems today, data is already being collected every second, but due to the lack of standardization for describing this data, having access to data is not the same as being able to make use of it. The existing heterogeneity makes it very costly to gather data from multiple buildings, thus making it difficult to understand the big picture. Facility managers cannot fix what they cannot see; thus it is important to facilitate the visualization of the data collected from all of the different building automation systems. This potentially offers great benefits with regards to both sustainability and economy. In this thesis, the author’s goal is to propose a sustainable, cost and time effective data integration strategy for real estate owners who wish to gain greater insight into their buildings’ efficiency. The study begins with a literature study to find previous and on-going attempts to solve this problem. Some initiatives for standardization of semantic models were found. Two of these models, Brick and Haystack, were chosen. One building automation system (BAS) was tested in a pilot case study, to test the appropriateness of a solution. The key results from this thesis project show that data from building automation systems, can be integrated into an analysis platform, and an extract, transform, and load (ETL) process for this is presented. How time efficiently data can be tagged and transformed into a common format is very dependent upon the current control system’s data storage format and whether information about its structure is adequate. It is also noted that there is no guarantee that facility managers have access to the control system’s database or information about how that is structured, in such cases other techniques can be used such as BACnet/IP, or Open Platform Communications (OPC) Unified Architecture. / Ungefär 40 % av den totala energikonsumtionen i E.U. och U.S.A. förbrukas av fastigheter. Om de delar av fastigheten som är ineffektiva enkelt kunde identifieras, skulle det underlätta fastighetsförvaltarnas arbete i att göra byggnader mer energisnåla. Detta har i sin tur potential att minska kostnader och byggnaders ekologiska fotavtryck. I dagens fastighetsautomationssystem samlas data in varje sekund, men på grund av att det saknas ett standardiserat sätt att beskriva den på, är det skillnad på att ha tillgång till data och att faktiskt kunna använda sig av den. Heterogeniteten gör att det blir både kostsamt och tidskrävande för fastighetsförvaltare att samla in data från sina fastigheter. Fastighetsförvaltare kan inte åtgärda något det inte kan se. Därför är det viktigt att underlätta möjligheten för visualisering av data från olika typer av fastighetsautomationssystem. Att lyckas med detta har potential att ge positiva effekter både när det gäller hållbarhet och ekonomi. I den här uppsatsen är författarens mål att komma fram till en hållbar, kostnads- och tidseffektiv integrationsstrategi för fastighetsförvaltare som vill få bättre insikter hur effektiv deras byggnad faktiskt är. Forskningsarbetet inleds med en litteraturstudie för att finna tidigare och pågående försök att lösa detta problem. Några initiativ för standardisering av semantiska modeller för att beskriva data inom fastighetsautomation hittades. Två av dessa, Brick och Project Haystack, valdes ut. En byggnad, och ett fastighetsautomationssystem testades i en pilotstudie. Resultaten från studien pekar på att data från fastighetautomationssystem kan integreras med en analysplattform, och en så kallad ETL-process, efter de engelska orden: extract, transform, load; presenteras för att uppnå det målet. Hur tidseffektivt data kan taggas och transformeras beror på det nuvarande kontrollsystemets datalagringsformat och om information om dess struktur är adekvat. Det noteras att det inte finns någon garanti till att få åtkomst till kontrollsystemets databas, eller information om dess struktur, därför presenteras även alternativa tekniker, däribland BACnet/IP och Open Platform Communications (OPC) Unified Architecture.
366

Big data analys påverkan på revisionsutförandet : En kvalitativ studie om Big data analys påverkan på revisionskvalitet, revisionens legitimitet och revisorns kompetenser

Eriksson Lagneskog, Daniel, Kämpeskog, Niklas January 2023 (has links)
Likt flera branscher utvecklas revisionsbranschen under tidens gång. Nya arbetssätt och verktyg introduceras för att utveckla revisionsutförandet. Ett av dessa verktyg som har implementerats av många revisionsbolag är Big data analys. Forskningsområdet kring Big data analys användande i revisionsutförandet är i ett inledande stadie, och resultaten är skilda. Tidigare forskning är dock ense om att Big data analys har en påverkan på revisionsutförandet och att revisorns kompetenser spelar en avgörande roll om användandet av Big data analys blir framgångsrikt. Till följd av detta var studiens syfte att undersöka vilken påverkan användningen av Big data analys har på revisionsutförandet samt vilka kompetenser som behövs vid användandet av Big data analys. Utifrån studiens syfte formuleradestre forskningsfrågor som behandlade Big data analys påverkan på revisionskvaliteten, revisionsutförandets legitimitet samt vilka kompetenser som behövs för att uppnå komfort och upprätthålla professionell skepticism i revisionsutförandet.För att uppnå studiens syfte har insamlingen av empiri grundat sig i en kvalitativ metod. Tio respondenter deltog i studien, varav sju var auktoriserade revisorer och resterande tre var revisorsassistenter.De slutsatser som studien generat är att revisorns kompetenser ansågs väsentliga för hur välfungerande användandet Big data analys var. Dock ansåg inte respondenterna att det var några nya kompetenser som behövdes vid användandet av Big data analys. Utan det var alltjämt en god förståelse för revision och redovisning som behövdes. Vidare ansågs Big data analys bidra till mer komfort i revisionsutförandet. Samtidigt som den professionella skepticismen alltjämt genomsyrade allt i revisions arbetssätt, och då även Big data analyser. Däremot påvisades det att användandet av Big data analys kunde hjälpa revisorer finna fler revisionsbevis, vilket hjälpte revisorn att vara professionellt skeptisk gentemot det reviderade bolaget. Big data analys förtjänster att testa en större population, jämfört med traditionella stickprov, ansågs öka den övergripande revisionskvaliteten. Detta medförde även att legitimiteten påverkades positivt hos de bolag som hade större kunder med mer transaktioner. Medan revisionsbolaget som jobbade mot kunder med mindre verksamheter inte upplevde samma positiva inverkan på deras legitimitet vid användningen av Big data analys i revisionsutförandet. / Like several industries, the auditing industry is evolving over time. New methods and tools are being introduced to enhance the auditing process. One of these methods that has been implemented by many audit firms is Big Data analysis. The research field on the use of Big Data analysis in auditing is in its early stages, and the results are mixed. However, previous research agreed that Big Data analysis has an impact on the auditing process, and the auditor's competencies play a crucial role in the successful implementation of Big Data analysis.As a result, the aim of this study was to investigate the impact of using Big Data analysis on the auditing process and identify the competencies required for its effective use. Based on the study's objective, three research questions were formulated, addressing the impact of Big Data analysis on audit quality, the legitimacy of the auditing process, and the competencies needed to achieve comfort and maintain professional skepticism in the audit process when using Big Data analysis. To achieve the study's objective, empirical data was collected using a qualitative methodology. Ten respondents participated in the study, including seven certified auditors and three audit assistants. The study's conclusions indicate that the auditor's competencies were considered essential for the successful implementation of Big Data analysis. However, the respondents did not believe that any new competencies were required specifically for conducting Big Data analysis reviews. Instead, a solid understanding of auditing and accounting was deemed necessary. Furthermore, Big Data analysis was seen to contribute to greater comfort in the audit process. At the same time, professional skepticism continued to permeate the entire auditing approach, including Big Data analysis. However, it was demonstrated that the use of Big Data analysis could help auditors find more audit evidence, aiding the auditor in maintaining professional skepticism toward the audited company. The advantages of Big Data analysis in testing a larger population, compared to traditional sampling, were seen to enhance overall audit quality. This also had a positive impact on the legitimacy of companies with larger clients and more transactions. Conversely, audit firms working with smaller businesses did not experience the same positive impact on their legitimacy when using Big Data analysis in the audit process.
367

Digital Maturity in the Public Sector and Citizens’ Sentiment Towards Authorities : A study within the initiative Academy of Lifelong Learning, in partnership with RISE and Google

Cramner, Isabella January 2021 (has links)
This study was conducted in partnership with RISE and Google, within the initiative “Academy of Lifelong Learning”, aiming to propel the digital transformation in the Swedish public sector. The study investigated the digital maturity of 18 authorities in terms of maturity level (early, developing maturing), and within the driving areas (1) Citizen Centricity, (2) Leadership, (3) Digital Toolbox and (4) Security and Sustainability. Further, it explored how citizens’ sentiment towards public authorities relates to the organizations’ digital maturity scores. The results of a digital maturity survey showed that 16 of the 18 contributing organizations were developing, whereas two scored just enough to be classified as maturing. The organizations performed best within Security and Sustainability, and the worst within the category Digital Toolbox—where the biggest competence gaps were also identified. To unlock citizens’ sentiment towards the authorities, sentiment analysis was conducted on Facebook data. In a correlation analysis, a significant negative relationship was surprisingly found between (i) maturity score and (ii) sentiment score, as well as between (i) maturity score and (ii) positive comments. Presumably, this can be explained by citizens interacting the most with the more mature organizations and thus expressing their dissatisfaction more. However, more analysis is needed to draw conclusions. / Studien genomfördes i samarbete med RISE och Google inom initiativet ”Akademin för livslångt lärande” (Academy of Lifelong Learning), som syftar till att driva på den digitala transformationen i den svenska offentliga sektorn. Studien undersökte 18 myndigheters digitala mognad med fokus på mognadsnivå (early, developing maturing), och inom de drivande områdena (1) medborgarperspektivet, (2) ledarskap, (3) digitala verktygslådan och (4) säkerhet och hållbarhet. Vidare undersöktes medborgarnas attityder gentemot offentliga myndigheter i relation till organisationernas digitala mognad. Resultatet från mognadsundersökningen visade att 16 av de 18 medverkande organisationerna var developing, medan två organisationer precis kunde klassificeras som mature. Organisationerna presterade bäst inom säkerhet och hållbarhet och sämst inom kategorin digitala verktygslådan—där de största kompetensbristerna även identifierades. För att utvärdera medborgarnas attityder gentemot myndigheterna genomfördes en sentimentanalys baserat på data från Facebook. I en korrelationsanalys hittades överraskande nog en signifikant negativt samband mellan (i) digital mognad och (ii) sentimentpoäng, samt mellan (i) digital mognad och (ii) positiva kommentarer. Detta kan antagligen förklaras med att medborgarna interagerar mer med de mest mogna organisationerna och därmed är mer benägna att utrycka sitt missnöje gentemot dem. Ytterligare analys behövs dock för att kunna dra sådana slutsatser och förklara resultatet.
368

[pt] ATIVISMO TRANSNACIONAL NAS MÍDIAS SOCIAIS: UMA REVISÃO DA LITERATURA DO ATIVISMO DE MUDANÇAS CLIMÁTICAS / [en] TRANSNACTIONAL ACTIVISM IN SOCIAL MEDIA: A LITERATURE REVIEW OF CLIMATE CHANGE ACTIVISM

ROBERTA NADALUTTI LA ROVERE 27 May 2019 (has links)
[pt] Em sua expressão contemporânea, os processos de ativismo tornaram-se transnacionais, com suas causas, ações e organização realizados além dos limites das fronteiras nacionais, estabelecendo uma dinâmica com a lógica de horizontalidade da comunicação digital. Através da internet, os ativistas teriam mais possibilidades de estabelecer redes entre si, divulgar suas causas e ações, promover seu ponto de vista sobre os acontecimentos e gerar mais engajamento no debate público e na participação dos processos pelos cidadãos globais. Por isso, o objetivo deste trabalho é promover uma reflexão de como os artigos acadêmicos analisam casos específicos de ativismo transnacional e seus contextos sociopolíticos para que seja produzido um entendimento da forma e extensão dos potenciais de horizontalidade da internet que estão sendo concretizados. Essa reflexão foi baseada em duas perguntas de pesquisa: quem são os ativistas envolvidos no debate público de mudanças climáticas nas mídias sociais; e como a formação de redes de relacionamento entre ativistas no debate público promovido pelas mídias sociais é analisada pelos acadêmicos. Como conclusão, é possível encontrar indícios de quebra de agenda-setting, divulgação de novos enquadramentos de discurso, estabelecimento de redes epistêmicas complementares e organização transnacional e colaborativa de causas e ações de ativismo pela internet, apesar da análise de big data das mídias sociais ainda estar pouco aprofundada nesta área. / [en] In its contemporary form, the processes of activism became transnational, since its actions, causes and organization is done beyond the limit of national borders, establishing a dynamical relationship with the logics of digital communications. Using the internet, activists would have more possibilities of establishing networks of collaboration, publicize its causes and actions, promote specific points of view and generate more engagement in the public debate and more people to participate in activism. Therefore, the purpose of this work is to promote a brief review of how the academic literature is analyzing specific cases of transnational activism and its sociopolitical context to generate a better understanding of which and how the potentials of horizontalization from the internet are manifested. Two research questions are addressed: how are the actors of climate change activism analyzed in the social media data analysis of the literature, and how are the social networks of activists being explored. The conclusion is that it is possible to find evidences of activists breaking the agendasetting of traditional media, as well as promoting new framing of the discourse surrounding its actions and causes, new networks of collaboration and transnational and collaborative forms of organizing and creating actions through social media. However, big data analysis of activism processes in social media is still beginning and new research with more depth in the information analysis would benefit immensely in the comprehension of its dynamics
369

Data governance in big data : How to improve data quality in a decentralized organization / Datastyrning och big data

Landelius, Cecilia January 2021 (has links)
The use of internet has increased the amount of data available and gathered. Companies are investing in big data analytics to gain insights from this data. However, the value of the analysis and decisions made based on it, is dependent on the quality ofthe underlying data. For this reason, data quality has become a prevalent issue for organizations. Additionally, failures in data quality management are often due to organizational aspects. Due to the growing popularity of decentralized organizational structures, there is a need to understand how a decentralized organization can improve data quality. This thesis conducts a qualitative single case study of an organization currently shifting towards becoming data driven and struggling with maintaining data quality within the logistics industry. The purpose of the thesis is to answer the questions: • RQ1: What is data quality in the context of logistics data? • RQ2: What are the obstacles for improving data quality in a decentralized organization? • RQ3: How can these obstacles be overcome? Several data quality dimensions were identified and categorized as critical issues,issues and non-issues. From the gathered data the dimensions completeness, accuracy and consistency were found to be critical issues of data quality. The three most prevalent obstacles for improving data quality were data ownership, data standardization and understanding the importance of data quality. To overcome these obstacles the most important measures are creating data ownership structures, implementing data quality practices and changing the mindset of the employees to a data driven mindset. The generalizability of a single case study is low. However, there are insights and trends which can be derived from the results of this thesis and used for further studies and companies undergoing similar transformations. / Den ökade användningen av internet har ökat mängden data som finns tillgänglig och mängden data som samlas in. Företag påbörjar därför initiativ för att analysera dessa stora mängder data för att få ökad förståelse. Dock är värdet av analysen samt besluten som baseras på analysen beroende av kvaliteten av den underliggande data. Av denna anledning har datakvalitet blivit en viktig fråga för företag. Misslyckanden i datakvalitetshantering är ofta på grund av organisatoriska aspekter. Eftersom decentraliserade organisationsformer blir alltmer populära, finns det ett behov av att förstå hur en decentraliserad organisation kan arbeta med frågor som datakvalitet och dess förbättring. Denna uppsats är en kvalitativ studie av ett företag inom logistikbranschen som i nuläget genomgår ett skifte till att bli datadrivna och som har problem med att underhålla sin datakvalitet. Syftet med denna uppsats är att besvara frågorna: • RQ1: Vad är datakvalitet i sammanhanget logistikdata? • RQ2: Vilka är hindren för att förbättra datakvalitet i en decentraliserad organisation? • RQ3: Hur kan dessa hinder överkommas? Flera datakvalitetsdimensioner identifierades och kategoriserades som kritiska problem, problem och icke-problem. Från den insamlade informationen fanns att dimensionerna, kompletthet, exakthet och konsekvens var kritiska datakvalitetsproblem för företaget. De tre mest förekommande hindren för att förbättra datakvalité var dataägandeskap, standardisering av data samt att förstå vikten av datakvalitet. För att överkomma dessa hinder är de viktigaste åtgärderna att skapa strukturer för dataägandeskap, att implementera praxis för hantering av datakvalitet samt att ändra attityden hos de anställda gentemot datakvalitet till en datadriven attityd. Generaliseringsbarheten av en enfallsstudie är låg. Dock medför denna studie flera viktiga insikter och trender vilka kan användas för framtida studier och för företag som genomgår liknande transformationer.
370

Moving beyond connecting things : What are the factors telecommunication service providers need to consider when developing a Data-as-a-Service offering? / Steget vidare från uppkoppling av produkter: : Vilka faktorer bör IoT-operatörer ta hänsyn till vid utveckling av Data-as-a-Service tjänster?

GOHARI MOGHADAM, SHERVIN, ÅHLGREN, THOR January 2020 (has links)
The Internet of Things and connected devices has been getting more and more recognition in multiple industries the last few years. At the same time, the gathering of data is withholding a more central role for both companies and civilians. One type of Internet of Things is enabled by telecommunication Service Providers(TSP)providing SIMcards in devices, functioning by an advanced telecommunication infrastructure. This study aims to examine how these TSPs can leverage data generated by the communication infrastructure, by providing an additional data-as-a-service (DaaS) to current customers. The study was done at a global TSP within the area of SIM-fleet management/IoT enablement. The number of industries that are starting to connect devices are growing extensively, to get all types of information regarding the devices ranging from electricity-usage & geocoordinates to performance or other useful information. The data that is sent by the SIM-card belongs to the customer, and the TSPs does not access it. However, the telecommunication infrastructure generates data created by the communication of the devices, which is gathered by the TSP. Since a huge amount of data is attained by the TSP offering the infrastructure, the aim for this study is to examine eventual obstacles and opportunities of a DaaSoffering. How the data is to be delivered, customers connectivity-needs and how current insights streams are delivered are examples of subjects the study will examine. The work has its foundation in a theoretical reference frame and a qualitative empirical study. The theoretical reference provides a theoretical overview of the industry's development and earlier research within the area. It was created by conducting a literature study combined with reports provided by trade organizations and other stakeholders. The empirical study contains 6 interviews with employees at a global TSP, with an extensive history of connected devices. The two parts were then compiled in order to compare the result with the theoretical background. It appeared that a lot of the challenges of developing a DaaS from the result agreed with the theoretical reference frame. The customers' differences in connectivity-maturity was shown to pose a great challenge to standardize a DaaS-offering, and the clients analytical needs were dependent on the same premises. Furthermore DaaS is considered to have a great effect on the industry's future development, / Internet of Things och uppkopplade produkter har blivit ett allt vanligare begrepp inom flertalet branscher. Samtidigt har datainsamling blivit en mer central del av alltifrån affärsmodeller till något vanliga konsumenter har i åtanke. En variant av Internet of Things tillhandahålls genom SIM-kort i produkter, som tillhandahålls av operatörer, och funktionerar genom kommunikationsnätverk. Denna studie är en akademisk utredning kring hur dessa operatörer kan utnyttja data genererat från telekommunikations-infrastruktur till en tjänst för nuvarande kunder. Studien är utförd hos en global operatör inom området av SIM-fleet Management/IoT-enablement. Fler och fler industrier går mot att koppla upp produkter för att få information kring alltifrån prestanda, elanvändning hos produkten, geografisk position eller annan information som önskas. Den data som skickas tillhandahålls av kund, vilket operatören inte har någon tillgång till. Dock så genererar kommunikationen i sig data genom kommunikationsnätverket, som operatören samlar in. I och med att mängder av data blir tillgänglig för operatörerna som tillhandahåller infrastrukturen, är syftet med denna rapport att undersöka eventuella hinder och möjligheter att erbjuda kunder ytterligare data som en tjänst i sig. Hur datan ska levereras, kundernas analysbehov och hur nuvarande insikter levereras är några exempel på det studien utreder. Arbetet grundar sig i en litteraturstudie och en kvalitativ empirisk studie. Litteraturstudien ger en bakgrund och teoretisk överblick kring branschens utveckling och litteraturens syn på området. Detta gjordes genom vetenskapliga publikationer samt diverse rapporter från branschorganisationer och intressenter. Den empiriska studien genomfördes genom 6 intervjuer med anställda på en global operatör med lång historisk inom uppkopplade produkter. De två delarna sammanställdes sedan för att jämföra resultatet med den teoretiska bakgrunden. Det visades sig vara mycket i resultat som stämde överens med de teoretiska aspekterna kring utmaningar med att erbjuda Data-as-aService (DaaS). Kundernas olika mognadsgrad i sin uppkoppling visades sig vara en stor utmaning i att standardisera en DaaS, och kundernas analysbehov gick ofta isär på samma premisser. Vidare anses DaaS ha stor påverkan på hur branschen fortsätter utvecklas i framtiden, och konsensus är tjänsten i framtiden kommer bli mer och mer datadriven.

Page generated in 0.0563 seconds