• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1261
  • 687
  • 2
  • Tagged with
  • 1952
  • 1948
  • 1946
  • 203
  • 200
  • 188
  • 174
  • 156
  • 141
  • 139
  • 122
  • 111
  • 94
  • 93
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1081

Byte av Ärendehanteringssystem : - Förstudie och REST API av kund-databas

Dahlberg, Ted January 2018 (has links)
Leeroy Group AB är ett IT-produktbolag i Sundsvall som även sköter support för sina produkter. Detta görs i ett egenutvecklat ärendehanteringssystem som under tid utvecklats och skräddarsytts efter verksamhetens behov. Leeroy är nu ute efter ett kraftfullare ärendehanteringssystem som skall ge möjlighet att ta hand om fler ärenden ju mer företaget växer. Detta examensarbete har inkluderat en grundlig förstudie bland de anställda på Leeroy. En kartläggning av krav och behov som finns för Leeroys' supporthantering har gjorts och sammanställts till en kravspecifikation. Leeroy har valt att titta på två stycken utvalda ärendehanteringssystem: Jira Service Desk och Zendesk. Utifrån den kravspecifikation som framkommit görs en dokumentations-inhämtning baserat på dessa krav och behov, för att sedan kunna presentera ett lämpligt alternativ för Leeroy. För att sedan ytterligare göra detta byta till en smidigare process har ett REST API och enklare webbapplikation utvecklats för att kunna hämta in kund-data från den befintliga kund-databasen. Webb-applikationen kommer att fungera som en koncept-applikation där man med sökning mot butiksnamn eller butiksnummer får ut all relevant information som Leeroys' supportanställda behöver.
1082

Graphical User Interfaces for Multi-Touch Displays supporting Public Exploration and Guided Storytelling of Astronomical Visualizations / Grafiska användargränssnitt för multifunktionsdisplayer som stöder publik utforskning av astronomiska visualiseringar

Johansson, Hanna, Khullar, Sofie January 2018 (has links)
This report presents the development and implementation of a graphical user interface (GUI) for multi-touch displays as well as an application programming interface (API) for guided storytelling of astronomical visualizations. The GUI and the API is built using web technologies and the GUI is rendered in an OpenGL environment. The API is meant to provide the infrastructure needed to create different stories for the public, based on astronomical data. Both the resulting GUI and the API is developed such that it can be further developed and customized for different purposes.
1083

Developing a modular extendable tool for Serious Games content creation : Combining existing techniques with a focus on narrative generation and player adaptivity

Declercq, Julian January 2018 (has links)
A large part of any game development process consists of content creation, which costs both time and effort. Procedural generation techniques exist to help narrative generation, but they are scattered and require extensive manual labour to set up. On top of that, Serious Games content created with these techniques tend to be uninteresting and lack variety which can ultimately lead to the Serious Games missing their intended purpose. This paper delivers a prototype for a modular tool that aims to solve these problems by combining existing narrative generation techniques with common sense database knowledge and player adaptivity techniques. The prototype tool implements Ceptre as a core module for the generation of stories and ConceptNet as a commonsense knowledge database. Two studies have been conducted with content created by the tool. One study tested if generation rules created by commonsense can be used to flesh out stories, while the other one evaluated if adapted stories yield better scores. The results of the first test state that adding rules retrieved through common sense knowledge did not improve story quality, but they can however be used to extend stories without compromising story quality. It also shows that ideally, an extensive natural language processing module should be used to present the stories rather than a basic implementation. The statistically insignificant result of the second test was potentially caused by the compromises taken when conducting the test. Reconduction of this test using real game data, rather than data from the compromised personality test, might be preferable.
1084

Förutse försenade tåg med machine learning

Sundemo, John, Rustam, Stanikzai January 2018 (has links)
I denna uppsatts tittar vi på hur olika machine learning algoritmer presterar när man förutspår förseningar i tågtrafiken. Machine learning metoderna som tas upp i denna rapport är logistic regression, decision tree och neural network. Vi har försökt implementera alla tre ovan nämnda metoderna med data som vi själva har samlat in till vår egen databas med hjälp av Västtrafiks öppna API. En beskrivning på data som har samlats in diskuteras, grundläggande genomgång av de olika metoderna och generell information om vad machine learning är. Metoderna ställs upp mot varandra och dess prestation visas upp med hjälp av AUC poäng samt confusion matrix. / This thesis investigates the performance of predicting train delays with different machine learning algorithms. The machine learning algorithms that are studied and presented in this thesis are logistic regression, decision tree and neural network. We have tried to implement all of the above algorithms with the data that is collected by ourselves into our own database with the help of Västtrafiks open API. A brief description on our data that has been collected is presented, the fundamentals of the algorithms and general information about machine learning is presented. The algorithms are compared to each other and their performance are shown with the help of AUC score and a confusion matrix.
1085

Virtual Reality Data Visualization : Concepts, technologies and more

Gustafsson, Mattias, Odd, Oliver January 2018 (has links)
Data Visualization (DV) can be seen as an important tool for communication and data analysis. Especially when huge amounts of data are involved, visual representation of data can facilitate observation of trends and patterns as well as understanding. Currently, two dimensional displays are mainly used for Data Visualization, both in two and three dimensions (2D and 3D). However, two dimensional displays are limited in terms of 3D visualization because they do not allow for true sense of depth and do not cover the observer’s full Field Of View (FOV). An alternative approach is to use Virtual Reality (VR), which provides an immersive and interactive 3D environment. VR has been mainly used for gaming and simulated training. However, other areas are now emerging because VR technologies became relatively affordable. For example, one possibility is to explore VR for DV and this was the main goal of this project. To accomplish that, a literature study was performed to identify terminologies and definitions, hardware and software technologies, techniques and examples in the fields of DV and VR. In addition, in order to exemplify DV through VR, a prototype system was implemented using Unity 3D, a leading engine for VR. To visualize the developed VR environment, a HTC Vive Head Mounted Display (HMD) was used. The developed prototype system can display data from a local dataset in a scatter plot with three axis in VR. In the virtual environment created by the system, the user can select the attributes in the dataset to be displayed by the 3D scatter plot. Once the data is plotted, the user can use the handheld joystick to move, rotate, tilt and scale the scatter plot. Achieved results indicate immersion and interaction as the main perceived benefits of DV using VR. / Datavisualisering (DV) kan ses som ett viktigt verktyg för kommunikation och dataanalys, speciellt när stora mängder data behandlas. Visuell representation kan främja observationen av trender och mönster samt förståelsen av datan. För närvarande används tvådimensionella displayer huvudsakligen för datavisualisering, både i två och tre dimensioner (2D och 3D). Emellertid är tvådimensionella displayer begränsade i 3D-visualisering eftersom de inte möjliggör äkta djupseende, och täcker inte observatörens fulla synfält (Field Of View (FOV)). Ett alternativ tillvägagångssätt är att använda Virtual Reality (VR), vilket tillhandahåller en omslutande och interaktiv 3D-miljö. VR har huvudsakligen används för spel och simulerad träning. Däremot börjar nya användningsområden uppstå då VR teknologin har blivit mer prisvärd. Ett användningsområde är VR för DV, vilket var det huvudsakliga syftet för det här arbetet. För att uppnå syftet utfördes en litteraturstudie för att identifiera teknologier och definitioner, hårdvaru- och mjukvaruteknologier, tekniker och exempel inom området av DV och VR. Dessutom, för att exemplifiera DV genom VR, utvecklades ett prototypsystem. Vilket implementerades genom  Unity 3D, en av de ledande spelmotorerna. För att visualisera den utvecklade VR-miljön användes ett HTC Vive Head Mounted Display (HMD). Den utvecklade prototypen kan visualisera data från ett lokalt dataset genom ett spridningsdiagram med 3 axlar, i VR. I den virtuella miljön som skapas av systemet tillåts användaren att välja attribut från datasetet för att sedan visualisera dessa genom det tredimensionella spridningsdiagrammet. När datan väl är visualiserad, kan användaren använda de handhållna kontrollerna för att flytta, rotera, luta och skala grafen. Uppnådda resultat indikerar på omslutning och interaktion som de huvudsakliga fördelarna av DV genom VR.
1086

OnBoard : Applikation för personalhantering

Wigström, Simon January 2018 (has links)
Detta projekt har, för företaget Gisys räkning, gått ut på att från grunden skapa en applikation som förenklar processen när en nyanställning sker i företaget. Med detta menas ett gränssnitt där man kan lägga upp nya personer, utskick av formulär där den kommande medarbetaren får fylla i uppgifter och önskemål, utskick av övriga mail och checklistor där ansvarig på Gisys kan bocka av vad som är gjort och inte. Resultatet av denna applikation ses nu som en start på något större, efter många avstämningsmöten har kallar vi nu detta ett mindre intranät där nyanställningsprocessen snarare är en modul utav den större applikationen. Efter ett lyckat arbete och god respons från Gisys så finns planer alltså på att vidareutveckla applikationen med fler moduler.
1087

Front loader task automation with distance measurement / Automatisering av en frontlastares arbetsuppgift med avståndsmätning

Risberg, Emil January 2018 (has links)
Front loaders are used in many agricultural applications. They are used in daily tasks that are performed by operators. The operator uses multiple different front loader equipment carrying out tasks, which are more or less repetitive. A common thing between these tasks even though different equipment is used, is that the working cycle is similar. A working cycle consists of multiple sequences. One of them involves loader control for desired object handling. If that part of the working cycle could be automated it could reduce the workload and operator stress, which would increase an operator’s daily working capacity. The aim with the thesis is to research the possibility to automate a part of the front loader working cycle. The goal is to create a prototype that can be used to automate the loader control part of the working cycle. The prototype will be implemented on a front loader for testing of a working cycle. To achieve the aim and goal, work will include research about which sensor technology that is best suited for the prototype. It will also include tests to see if there is a difference in accuracy when using a cheap or an expensive sensor and if it is possible to automate a part of the front loader working cycle. A sensor analysis was made and the ultrasonic sensor technology was chosen for the prototype. One expensive prototype sensor and one cheap extra sensor for comparison testing were chosen. Software was written for the sensors and they were tested on a test bench. The prototype was implemented on a front loader for test of a working cycle. The prototype can measure distance and send the required commands based on that. This indicates that it is possible to automate a part of the front loader working cycle. / Frontlastare används till många dagliga arbetsuppgifter inom jordbruk. Arbetet utförs av operatörer, som använder olika redskap kopplade till frontlastarna när de utför arbetsuppgifterna. Arbetsuppgifterna är mer eller mindre repetitiva och trots att dem utförs med olika redskap har de liknande arbetscykler. En arbetscykel består av flertalet sekvenser. En av sekvenserna involverar lastarkontroll för önskad objekthantering. Om den delen av arbetscykeln automatiseras skulle det kunna minska arbetsbelastningen och stressnivån för operatören, vilket skulle kunna öka operatörens dagliga arbetskapacitet. Syftet med examensarbetet är att undersöka möjligheten att automatisera en del av en frontlastares arbetscykel. Målet är att skapa en prototyp som kan användas för att automatisera delen i arbetscykeln som rör lastarkontroll. Prototypen ska implementeras på en frontlastare för test av en arbetscykel. För att uppnå syfte och mål, kommer arbetet inkludera en undersökning av vilken sensorteknik som är bäst lämpad för prototypen. Det kommer även inkluderas tester för att se om det är någon skillnad i noggrannhet vid användning av en billig eller dyr sensor och om det är möjligt att automatisera en del av en frontlastares arbetscykel. En sensoranalys utfördes och ultraljud valdes som sensorteknik till prototypen. En dyr prototypsensor och en billig extrasensor valdes för att kunna utföra ett jämförelsetest. Mjukvara skrevs för sensorerna och de testades på testbänk. Prototypen implementerades på en frontlastare för test av en arbetscykel. Prototypen kan mäta avstånd och skicka nödvändiga kommandon baserade på det. Detta indikerar att det är möjligt att automatisera en del av en frontlastares arbetscykel.
1088

Practical Approach to Developing an Automation Testing Tool

Ståhlberg, Povel, Persson, Hannes January 2018 (has links)
Manually verifying a software under development can be time consuming because ofits complexity, but also because of frequent updates to different parts of the system. As thesoftware grows larger, a way of verifying the software automatically withoutuser-interaction is a good approach. Verifying a software systematically and automaticallywill both save time for the developers; and assure that the updated version functions asbefore. This report will present a starting point for automatic testing. This is done incooperation with XperDi, a company developing a plug-in for CAD-software thatcurrently verifies their functionality manually. This was achieved by developing a testingtool that support communication between Windows applications used by the plug-in; thiswas needed to automate the testing process. The reached conclusions during this thesisare promising as a starting point for XperDi; to move from manually to automaticverification. There are however several improvements that this report presents for furtherdevelopment of testing tool.
1089

A Simulation Based Approach to EstimateEnergy Consumption for Embedded Processors

Liu, ke January 2015 (has links)
Embedded systems have entered a new era in which system designers have to consider more and more strict energy consumption constraints. This thesis reviewsprevious studies of the processor energy consumption estimation. Particularly, wefocus on instruction-level energy consumption for embedded processors and explorethe energy consumption model for manycore architecture in real traffic pattern.The purpose of this thesis project is to estimate energy consumption and constructan energy model using an instruction-set simulator for embedded processors. OpenVirtual Platforms (OVP) and Epiphany Single Core Simulator (ESCS) are used toobtain an instruction sequence for a given software. Then, the functionality of energyconsumption estimation is integrated into OVP.Our energy consumption estimation approach categorizes instructions in fourgroups and uses base energy cost of each category to calculate the total energyconsumption for an application that runs on Epiphany core and ARM Cortex M0.The energy consumption estimation for Epiphany core has been successfully testedby BEEBS benchmarks. Details of the derivation process, results and analysis ofenergy consumption estimation methods are provided.
1090

TupleSearch : A scalable framework based on sketches to process and store streaming temporal data for real time analytics

Karlsson, Henrik January 2017 (has links)
In many fields, there is a need for quick analysis of data. As the number of devices connected to the Internet grows, so does the amounts of data generated. The traditional way of analyzing large amounts of data has been by using batch processing, where the already collected data is pro-cessed. This process is time consuming, resulting in another trend emerg-ing: stream processing. Stream processing is when data is processed and stored as it arrives. Because of the velocity, volume and variations in data. Stream processing is best carried out in the main memory, and means processing and storing data as it arrives, which makes it a big challenge. This thesis focuses on developing a framework for the processing and storing of streaming temporal data enabling the data to be analyzed in real time. For this purpose, a server application was created consisting of approximate in-memory data synopsizes, called sketches, to process and store the input data. Furthermore, a client web application was created to query and analyze the data. The results show that the framework can sup-port simple aggregate queries with constant query time regardless to the volume of data. Also, it can process data 6.8 times faster than a traditional database system. All this implies that the system is scalable, at the same time it with a query error vs. memory trade-off. For a distribution of ~3000000 unique items it was concluded that the framework can provide very accurate answers, with an error rate less than 1.1%, for the trendiest data using about 100 times less space than the actual size of the data set.

Page generated in 0.0427 seconds