• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 9
  • Tagged with
  • 21
  • 21
  • 12
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inhämtning & analys av Big Data med fokus på sociala medier

Åhlander, Niclas, Aldaamsah, Saed January 2015 (has links)
I en värld som till allt större del använder sig av sociala medier skapas och synliggörs information om användarna som tidigare inte varit enkel att i stor mängd analysera. I det här arbetet visas processen för att skapa ett automatiserat insamlingssätt av specifik data från sociala medier. Insamlad data analyseras därefter med noggrant utformade algoritmer och slutligen demonstreras processens nytta i sin helhet. Datainhämtningen från sociala medier automatiserades med hjälp av en mängd kombinerade metoder. Därefter kunde analysen av det inhämtade datat utföras med hjälp av specifika algoritmer som redovisades i det här arbetet. Tillsammans resulterade metoderna i att vissa mönster framkom i datan, vilket avslöjade en mängd olika typer av information kring analysens utvalda individer.
2

Prestanda- och beteendeanalys av parallella köer med iterator. / Performance and behavior analysis of concurrent queues with iterator.

Lodin, Viktor, Olovsson, Magnus January 2014 (has links)
I modern utveckling av hårdvara ligger det stort fokus på att producera processorer med fler och fler kärnor. Därmed behöver även mjukvaran utvecklas för att på bästa sätt utnyttja all denna parallella potential. En stor del av detta är då att kunna dela data mellan flera parallella processer, vilket uppnås med hjälp av parallella samlingsdatatyper. En vanlig operation på samlingsdatatyper är att iterera denna. Studiens mål var att analysera prestanda och beteende hos ett flertal kända algoritmer för iteration av datasamlingen kö. Även hur olika förutsättningar kan påverka iteratorns prestanda har värderats. Några exempel på dessa förutsättningar är antalet arbetstrådar som arbetar mot kön, initial storlek hos kön samt olika pinning strategier. Initial storlek beskriver hur många element som befinner sig i kön vid experimentens start och pinning strategi beskriver vilken kärna varje tråd skall binda sig till. Vissa iterator algoritmer lämnar garantier för att det tillstånd som returneras är ett atomiskt snapshot av kön. Ett atomiskt snapshot är en ögonblicksbild av hur kön såg ut vid någon fast tidpunkt. På grund av detta har det även varit ett mål att mäta hur stor kostnaden är för att få denna garanti. Utöver detta har prestandan hos enqueue och dequeue operationerna för respektive kö testats för att få en helhetsblick över köns prestanda.För att mäta prestandan har ett benchmarkprogram implementerats. Detta benchmarkprogram förser ett gränssnitt för samtliga köer att implementera, och kan utefter detta gränssnitt testa prestandan hos kön. Programmet kör mikrobenchmarks som mäter prestandan hos varje enskild operation hos kön. Det sätt som kön pressas på under dessa benchmarks är inte realistiskt för hur kön kan tänkas användas i skarpt läge. Istället mäts prestandan vid högsta möjliga belastning. Detta görs för att enklast kunna jämföra prestandan mellan de olika köerna.I studien har prestandan hos fyra köer med iteratorer testats, experimenten är utförda i C# med .NET 4.5 i en Windows miljö. Den parallella kö som finns i .NET biblioteket var en av köerna som testades. Dels för att det är intressant att se hur väl Microsoft optimerat denna, men också för att få en utgångspunkt att jämföra med de andra testade köerna. Michael och Scotts kö har även den testats, med två stycken olika iteratorer tillagda. Dessa är Scan and Return och Double Collect. Även en parallell kö framtagen med hjälp av universella metoder för att konstruera paralllella dataobjekt från sekventiella, baserad på den immutable kö som finns i .NET biblioteket har testats. En immutable kö är en kö som inte kan modifieras efter initiering.Resultaten från utförda benchmarks visar att Michael och Scott kön med Scan and Return iteratorn är den snabbaste på iteration, med Double Collect iteratorn som tvåa. Snabbast enqueue och dequeue operationer hittas i .NET bibliotekets parallella kö. Kön som bygger på immutable visar sig vara långsammast vad gäller iteration i de flesta fall. Den är även långsammast vad gäller enqueue och dequeue operationerna i samtliga fall. Kostnaden för att få en garanti för ett atomiskt snaphot mäter vi i skillnaden mellan Scan and Return och Double Collect iteratorerna. Detta på grund av att dessa är de två snabbaste iteratorerna och Scan and Return inte lämnar garantin medan Double Collect gör det. Denna kostnad visar sig vara relativt stor, Scan and Return presterar upp emot tre gånger så snabbt som Double Collect.Med hjälp av resultaten från denna studie kan nu utvecklare göra väl informerade val vad gäller vilken kö med iterator algoritm de skall välja för att optimera sina system. Detta kanske är som viktigast vid utveckling av större system, men kan även vara användbart vid mindre. / Program: Systemarkitekturutbildningen
3

Användning av Big Data-analys vid revision : En jämförelse mellan revisionsbyråers framställning och revisionsteamens användning

Lindh, Felicia, Södersten, Anna January 2021 (has links)
No description available.
4

BIG DATA-ANALYS INOM FOTBOLLSORGANISATIONER En studie om big data-analys och värdeskapande

Flike, Felix, Gervard, Markus January 2019 (has links)
Big data är ett relativt nytt begrepp men fenomenet har funnits länge. Det går att beskriva utifrån fem V:n; volume, veracity, variety, velocity och value. Analysen av Big Data har kommit att visa sig värdefull för organisationer i arbetet med beslutsfattande, generering av mätbara ekonomiska fördelar och förbättra verksamheten. Inom idrottsbranschen började detta på allvar användas i början av 2000-talet i baseballorganisationen Oakland Athletics. Man började värva spelare baserat på deras statistik istället för hur bra scouterna bedömde deras förmåga vilket gav stora framgångar. Detta ledde till att fler organisationer tog efter och det har inte dröjt länge innan Big Data-analys används i alla stora sporter för att vinna fördelar gentemot konkurrenter. I svensk kontext så är användningen av dessa verktyg fortfarande relativt ny och mångaorganisationer har möjligtvis gått för fort fram i implementeringen av dessa verktyg. Dennastudie syftar till att undersöka fotbollsorganisationers arbete när det gäller deras Big Dataanalys kopplat till organisationens spelare utifrån en fallanalys. Resultatet visar att båda organisationerna skapar värde ur sina investeringar som de har nytta av i arbetet med att nå sina strategiska mål. Detta gör organisationerna på olika sätt. Vilket sätt som är mest effektivt utifrån värdeskapande går inte att svara på utifrån denna studie.
5

Big Data Analys och Revision : En studie om hur revisorer använder analysverktyg på stora datamängder i revisionsprocessen för att säkerställa finansiell information.

Ryder, Joel, Arvidsson, Oliver January 2022 (has links)
Digitization has made information and data increasingly valuable to most organizations and in recent years, the concept of Big Data has increasingly taken place in the business world. Big Data analysis, i.e. analyzing Big Data, can lead to improved efficiency and improved quality in the audit. Large investments in Big Data analysis have been made in recent years. Despite these investments, the audit business lags behind the business world in using Big Data analysis. Researchers argue that there are many uses for Big Data analysis, but there are not many studies that show practically how auditors use Big Data analysis in their profession or factors that affect the use of new audit technologies. The purpose of the study is to gain a deeper understanding of how auditors use Big Data analysis in the audit process to assure financial information, also to explain the factors affecting the auditors use of new audit technologies. The empirical study has a qualitative method, an inductive approach and eight semi-structured interviews with respondents from different accounting firms around Sweden have been made. The interviewees believe that Big Data analysis is just in the beginning of its development. They think that Big Data analysis will be used in more areas in the future. The study shows that Big Data and Big Data analysis in the audit environment is hard to define. It is shown that auditors use Big Data analysis to complement traditional audit procedures, rather than replacing them. The study also examines the factors that affect the use of audit technologies. Factors affecting the auditors' use of BDA are legitimacy, ethics, laws & regulations, the auditor, and the responsible part of the financial information that is being assured.
6

Algebraic Simplifications of Metric Information / Algebraiska simplifikationer av metrisk information

Erninger, Klas January 2020 (has links)
This thesis is about how to interpret metric data with topological tools, such as homology. We show how to go from a metric space to a topological space via Vietoris-Rips complexes. We use the usual approach to Topological Data Analysis (TDA), and transform our metric space into tame parametrised vector spaces. It is then shown how to simplify tame parametrised vector spaces. We also present another approach to TDA, where we transform our metric space into a filtrated tame parametrised chain complex. We then show how to simplify chain complexes over fields in order to simplify tame parametrised filtrated chain complexes. / Denna uppsats handlar om att tolka metrisk data med hjälp utav topologiska verktyg, som exempelvis homologi. Vi visar hur man går från ett metriskt rum till ett topologiskt rum via Vieteris-Rips komplex. Vi använder den vanliga metoden till Topologisk Data Analys (TDA), och transformerar vårat metriska rum till tama parametriserade vektorrum. Det visas sedan hur vi kan förenkla tama parametriserade vektorrum. Vi presenterar även en annan metod för TDA, där vi går från ett metriskt rum till ett filtrerat tamt parametriserat kedjekomplex. Sedan visar vi hur man förenklar kedjekomplex över kroppar för att kunna förenkla filtrerade tama parametriserade kedjekomplex.
7

Data blending in health care : Evaluation of data blending

Chen, Qian January 2016 (has links)
This report is aimed at those who are interested in data analysis and data blending. Decision making is crucial for an organization to succeed in today’s market. Data analysis is an important support activity in decision making and is applied in many industries, for example healthcare. For many years data analysts have worked on structured data in small volumes, with traditional methods such as spreadsheet. As new data sources emerged, such as social media, data is generated in higher volume, velocity and variety [1]. The traditional methods data analysts apply are no longer capable of handling this situation. Hence scientists and engineers have developed a new technology called data blending. Data blending is the process of merging, sorting, joining and combining all the useful data into a functional dataset [2]. Some of the well-known data blending platforms include Datawatch, Microsoft Power Query for Excel, IBM DataWorks and Alteryx [3]. Synergus AB is a consulting company engaged in health economics, market access and Health Technology Assessment (HTA) [4]. The company does analysis for their clients. Unfortunately the way they work is not efficient. New tools and methods need to be applied in the company. The company has decided to apply data blending in their daily work. My task in this project was to build datasets for analysis and create workflows for future use with a data blending platform. For my interest, I did a research on data blending to understand how this new technology works. During the project I have worked with four data sources. These were Microsoft Excel worksheet, CSV file, MS Access database and JSON file. I built datasets the company needs. I also preceded a case study on data blending process. I focused on the three steps of data handling, namely input, process and output. After the project, I reached a conclusion that data blending offers better performance and functionality. It is easy to learn and use, too. / Denna rapport vänder sig till de som är intresserad av data analys och datahantering. Belsut fattande är avgörande för en organisation att lyckas i dagens marknad. Data analys är en viktig stöd inom beslutfattande och tillämpas i många industrier, till exempel hälsovård. I många år har data analyster arbetat med strukturerad data i små volymer, med traditionella arbetsmetoder såsom kalkyblad. Med nya data källor uppstått, såsom sociala media, data är genererad i högre volym, högre hastighet och högre variation. De traditionella metoder data analyster använder är inte längre kapabla av att hantera denna situation. Därför har vetenskapsmän och ingenjörer utvecklat ett ny teknologi kallad datahantering. Datahantering är en process för att sammanfoga, sortera och kombinera all värdeful data till en funktionell dataset. Några av de välkända datahanteringsplatformer inkluderar Datawatch, Microsoft Power Query for Excel, IBM DataWorks and Alteryx. Synergus AB är ett konsultföretag engagerad inom hälsoekonomi, marknad tillträde, och Health Technology Assessment (HTA). Företaget gör analys för deras kunder. Tyvärr är de arbetsmetoder inom företaget inte effektiv. Nya verktyg och metoder måste tillämpas inom företaget. Synergus AB har beslutat att tillämpa datahantering i deras dagliga arbete. Mitt uppdrag i detta projekt var att bygga dataset för analys och skapa arbetsflöde för framtida användning med en datahanteringsplatform. För mitt eget intresse, jag utförde en studie av datahantering för att förstå hur denna nya teknologi fungerar. Under projektet har jag arbetat med fyra data källor. De var Microsft Excel kalkylblad, CSV fil, MS Access databas och JSON fil. Jag byggde dataset företaget behöver. Jag också utförde ett fall studie om datahanteringsprocess. Jag fokuserade mig på de tre steg inom datahantering, nämligen inmatning, bearbetning och utmatning. Efter projektet kom jag till en slutsats att datahantering erjuder bättre prestanda och funktionelitet. Det är också lätt att lära sig och använda.
8

Standardiserade mätverktyg inom slutenvården – om möjligt, med betoning på röntgenverksamheter : En analys / Standardized measurement tools in inpatient care - if possible, with emphasis on radiology operations : A comparative analysis

Storm, Kent January 2017 (has links)
Att mäta och dokumentera kliniskt vårdarbetet har inte prioriterats inom röntgenverksamheter. Tillgång till jämförelsedata skulle möjliggöra olika former av standardisering för förbättrad vårdkvalitet och patientsäkerhet. Att SPC- diagram (statistisk process styrning diagram)  inte uppmärksammas får effekt på patientsäkerhetsarbetet. Aktuell studie avser att öka kunskapen om vilka mätverktyg som finns att tillgå, vilka svar de kan ge och deras användbarhet. Syftet var jämföra och analysera olika standardiserade mätverktyg som kan användas inom somatisk slutenvård, för att förbättra vårdkvalitet och patientsäkerhet. Om möjligt, med betoning på röntgenverksamheter. En syntetiserande (integrativ) litteraturöversikt, av typen systematisk litteraturstudie, i avsaknad av metaanalys, valdes. Metoden är kvalitativ med induktiv ansats, mixad med kvantitativ metod. Fjorton olika mätverktyg presenteras i denna studie. Mätverktygen Shewhart- (styr-) diagram, flödesscheman och orsak-och-verkan diagram beskrivs mest frekvent. Alla, i studien medtagna mätverktyg, förbättrar noggrannheten vid beslutsprocesser. Shewhart- (styr-) diagram visar på variation (slöseri) över tid och om en process är stabil eller instabil. Flödesscheman och orsak-och-verkan diagram visar var förbättringsinsatser bör fokuseras i första hand.  Mätverktygen Lean, WMS (workflow management system), RFMEA (radiology failure mode and effect analysis) är unika genom sin mångsidighet. Att använda standardiserade mätverktyg ger tillgång till kvalitativ och betydelsefull information som förbättrar vårdens kvalitet, patienternas säkerhet samt förenklar analysen av data. / Measuring and documenting clinical care work has not been prioritized in radiology operations. Access to comparative data would allow for different forms of standardization for improved quality of care and patient safety. That SPC charts (statistical process control charts) are not noticed affects patient safety work. This study aims to increase knowledge about measurement tools available, what answers they can provide and their usefulness. The purpose was to compare and analyze various standardized measuring tools that can be used in somatic in-patients care, to increase the quality of care and patient safety. If possible, with emphasis on radiology operations. A synthesizing (integrative) literature review, of the type systematic literature review, in absence of meta-analysis, was chosen. Method is qualitative inductive approach, mixed with quantitative method. Fourteen different measuring tools are presented in this study. Shewhart (control) charts, flow charts and cause-and-effect charts are most frequently described. All measurement tools, included in the study, improves the accuracy at decision making processes. Shewhart (control) chart shows variation (waste) over time and whether a process is stable or unstable. Flow charts and cause-and-effect charts show where improvement efforts should be focused primarily. The Lean measurement tools, WMS (workflow management system), RFMEA (radiology failure mode and effect analysis) are unique through their versatility. Using standardized measurement tools provides access to qualitative and meaningful information that improves quality of care, patient safety, and simplifies data analysis.
9

Algorithms for Multidimensional Persistence / Algoritmer för Multidimensionell Persistens

Gäfvert, Oliver January 2016 (has links)
The theory of multidimensional persistence was introduced in a paper by G. Carlsson and A. Zomorodian as an extension to persistent homology. The central object in multidimensional persistence is the persistence module, which represents the homology of a multi filtered space. In this thesis, a novel algorithm for computing the persistence module is described in the case where the homology is computed with coefficients in a field. An algorithm for computing the feature counting invariant, introduced by Chachólski et al., is investigated. It is shown that its computation is in general NP-hard, but some special cases for which it can be computed efficiently are presented. In addition, a generalization of the barcode for persistent homology is defined and conditions for when it can be constructed uniquely are studied. Finally, a new topology is investigated, defined for fields of characteristic zero which, via the feature counting invariant, leads to a unique denoising of a tame and compact functor. / Teorin om multidimensionell persistens introduserades i en artikel av G. Carlsson och A. Zomorodian som en generalisering av persistent homologi. Det centrala objektet i multidimensionell persistens är persistensmodulen, som representerar homologin av ett multifilterat rum. I denna uppsats beskrivs en ny algoritm för beräkning av persistensmodulen i fallet där homologin beräknas med koefficienter i en kropp. En algoritm för beräkning av karaktäristik-räknings-invarianten, som introducerade av Chachólski et al., utforskas och det visar sig att dess beräkning i allmänhet är NP-svår. Några specialfall för vilka den kan beräknas effektivt presenteras. Vidare definieras en generalisering av stäckkoden för persistent homologi och kraven för när den kan konstrueras unikt studeras. Slutligen undersöks en ny topologi, definierad för kroppar av karaktäristik noll, som via karaktäristik-räknings-invarianten leder till en unik avbränning.
10

Accurately extracting information from a finite set of different report categories and formats / Precis extraktion av information från ett begränsat antal rapporter med olika struktur och format på datan

Holmbäck, Jonatan January 2023 (has links)
POC Sports (hereafter simply POC) is a company that manufactures gear and accessories for winter sports as well as cycling. Their mission is to “Protect lives and reduce the consequences of accidents for athletes and anyone inspired to be one”. To do so, a lot of care needs to be put into making their equipment as protective as possible, while still maintaining the desired functionality. To aid in this, their vendor companies run standardized tests to evaluate their products. The results of these tests are then compiled into a report for POC. The problem is that the different companies use different styles and formats to convey this information, which can be classified into different categories. Therefore, this project aimed to provide a tool that can be used by POC to identify the report’s category and then accurately extract relevant data from it. An accuracy score was used as the metric to evaluate the tool’s accuracy with respect to extracting the relevant data. The development and evaluation of the tool were performed in two evaluation rounds. Additional metrics were used to evaluate a number of existing tools. These metrics included: whether the tools were open source, how easy they are to set up, pricing, and how much of the task the tool could cover. A proof of concept tool was realized and it demonstrated an accuracy of 97%. This was considered adequate when compared to the minimum required accuracy of 95%. However, due to the available time and resources, the sample size was limited, and thus this accuracy may not apply to the entire population with a confidence level higher than 75%. The results of evaluating the iterative improvements in the tool suggest that it is possible by addressing issues as they are found to achieve an acceptable score for a large fraction of the general population. Additionally, it would be beneficial to keep a catalog of the recurring solutions that have been made for different problems, so they can be reused for similar problems, allowing for better extensibility and generalizability. To build on the work performed in this thesis, the next steps might be to look into similar problems for other formats and to examine how different PDF generators may affect the ability to extract and process data present in PDF reports. / POC är ett företag som tillverkar utrustning, i synnerhet hjälmar, för vintersport och cyklister. Deras mål är att “Skydda liv och minska konsekvenserna från olyckor för atleter och vem som helst som är inspirerad till att bli en sådan”. För att uppnå detta har mycket jobb lagts ner för att göra deras utrustning så skyddande som möjligt., men samtidigt bibehålla samma funktionalitet. För att bidra med detta har POCs säljare genomfört standardiserade tester för att evaluera om deras produkter håller upp till standardena som satts på dem. Resultaten från dessa test är ofta presenterade i form av en rapport som sedan skickas till POC. Problemet är att de olika säljarna använder olika sätt och även format för att presentera den här informationen, som kan klassifieras in till olika kategorier. Därför avser det här projektet att skapa ett verktyg som kan användas av POC för att identifiera och därefter extrahera datan från dessa rapporter. Ett precisionsspoäng användes som mått för att utvärdera verktygets precision med avseende på att extrahera relevant data. Utvecklingen och utvärderingen av verktyget genomfördes i två utvärderingsomgångar. Ytterligare mått användes för att utvärdera ett antal befintliga verktyg. Dessa mått inkluderade: om verktygen var öppen källkod, hur enkla de är att installera och bröja använda, prissättning och hur mycket av uppgiften verktyget kunde täcka. En prototype utvecklades med en precision på 97%. Detta ansågs vara tillräckligt jämfört med den minsta nödvändiga precision på 95%. Men på grund av den tillgängliga tiden och resurserna var urvalsstorleken begränsad, och därför kanske denna noggrannhet inte gäller för hela populationen med en konfidensnivå högre än 75%. Resultaten av utvärderingen av de iterativa förbättringarna i verktyget tyder på att det är möjligt att genom att ta itu med problem som dyker upp, att uppnå en acceptabel poäng för en stor del av den allmänna befolkningen. Dessutom skulle det vara fördelaktigt att föra en katalog över de återkommande lösningar som har gjorts för olika problem, så att de kan återanvändas för liknande problem, vilket möjliggör bättre töjbarhet och generaliserbarhet. För att bygga vidare på det arbete som utförts i denna avhandling kan nästa steg vara att undersöka liknande problem för andra format och att undersöka hur olika PDF-generatorer kan påverka hur väl det går att extrahera och bearbeta data som finns i PDF-rapporter.

Page generated in 0.0679 seconds