• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 3
  • Tagged with
  • 17
  • 8
  • 7
  • 6
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Temperaturlogger

Pettersson, Sebastian January 2022 (has links)
Temperature has been and still is an important quantity that needs to be measured and logged for different applications from industries to our daily life.  This bachelor thesis aims to design a prototype for a temperature logger that can log temperature from four external thermocouples over the temperature range between -20 and +85 degrees during the time of four months with a set update frequency every 15 minutes. The prototype should programmable and be able to communicate with a PC and transfer measurement data to an SD card for storage. The V-model (a development process model) is used to create documents and confirm them in the later stages of the product development process. In the beginning of the project there was a general search for information about similar products and then a decision making on how the project was going to be conducted.  Following the “V-model” the project several surveys have been done regarding the functionality of different components. From there, decisions have been made from the results of what component is the best for this specific project. The components have then been used to design a full electric system with all the components connected, generating an overview of the whole system. After the system design, a printed board circuit (PCB) was designed using Altium Designer, for which all the previous information gathered in the documents was used, including the components chosen earlier and all the small components decided later based on the component’s datasheets. Due to the limited time of ten weeks for the project as well as the lack of experience in scheduling each step in the product development process, this degree project ended up only with finishing the design of the PCB but not the physical prototype. For the future work, it is suggested to add more external thermocouples in the temperature logger since the more thermocouples the logger has, the more analysis it can make at the same time and thus the more efficient the product can become. Besides, the algorithm for temperature logging can be made adaptive according to how fast the temperature changes. For instance, the logger is less frequently activated for lower temperature change. This can significantly reduce unnecessary workload and data storage to save energy and storage resource.
12

Communication Protocols Comparison For Industrial IoT / Jämförelse av kommunikationsprotokoll för industriell IoT

Mallous, Elias, Asa, Leo January 2023 (has links)
En av hörnstenarna inom Industri 4.0 och den moderna anslutningen på fabriksgolvet är användningen av standardiserade kommunikationsprotokoll. Med utvecklingen av kommunikation idag och dess användning i industrier blir behovet av att överföra information snabbt mer akut. I denna avhandling har etablerade IIoT-kommunikationsprotokoll utvärderats för deras prestanda för dataöverföringshastighet mellan system. De analyserade kommunikationsprotokollen är OPC-UA, MQTT, AMQP och ROS. Testmiljön för att utvärdera protokollen består av två datorer som är anslutna via en switch. Testerna består av att skicka tre typer av data, en bild i form av en bytearray, en JSON-fil och heltal. Resultaten av testet kommer att jämföras genom att se hur snabbt protokollen kan skicka dessa typer av data samtidigt. Resultaten kommer sedan att analyseras för att föreslå ett lämpligt protokoll för ett distributionssystem som skickar dessa typer av data. / One of the cornerstones of Industry 4.0 and the state-of-the-art industrial shop floor connectivity is the use of standardized communication protocols. With the development of communications today and its use in industries, the need to transfer information quickly becomes more urgent. In this thesis common IIoT communication protocols have been evaluated for their performance for data transfer rate between systems. The communication protocols that are analyzed are OPC-UA, MQTT, AMQP, and ROS. The test bench for evaluating the protocols is made up of two computers connected by a switch. The tests consist of sending three types of data, an image in the form of a bytearray, a JSON file and integers. The results of the test will be compared by seeing how fast the protocols can send these types of data concurrently. The results will then be analyzed to propose a suitable protocol for a distributed system sending these types of data.
13

Platt Hierarki : Metoder för omvandling av relationsdata till hierarkisk data

Grönblad, Carl, Eker, Magnus January 2011 (has links)
The relational database model was defined in the 1970‟s and is the dominating database type today.  The main difference between data from a relational database and a hierarchical data structure is that the relational database stores records in tables. The records have no particular order, but can include links in terms of relationships with other records. A hierarchical structure organizes data in the form of a tree structure  and  can for an example be found in organizational structures in which different levels involves different responsibilities.  If the data stored in a relational database is to be presented in a hierarchically, a conversion of the data structure is required. The intention of this paper is to describe how such a conversion can be performed.   To investigate the conversion methods, case studies has been conducted on the basis of a specific organization‟s hierarchical structure. Web based prototypes were developed in Silverlight to evaluate the conversion of a hierarchical structure, based on the organization that was represented in a relational database. Existing tools were used in order to extract data from a database and transfer data in a client-server architecture.  The result is a framework for the conversion of relational data into hierarchical structure and describes the process step by step. A conversion process includes the design of the database source, extraction and transfer of data to a web client and the algorithm for performing the conversion into a tree structure. / Relationsdatabaser definierades på 1970-talet och är den dominerande databastypen idag. Skillnaden mellan data i en relationsdatabas och en hierarkisk datastruktur är att relationsdatabasen sparar poster i tabeller. Poster i tabellerna behöver ingen inbördes ordning, men kan omfatta  kopplingar i form av relationer till andra poster. En hierarkisk struktur organiserar data i form av trädstruktur och återfinns till exempel i organisationsstrukturer där olika nivåer innefattar olika ansvarsområden.  Om data som sparats i en relationsdatabas skall visas upp hierarkiskt krävs en omvandling av datastrukturen. Syftet med uppsatsen är att redogöra för hur en sådan omvandling kan utföras.  För att utreda omvandlingsmetoder har fallstudier bedrivits utifrån en specifik organisations hierarkiska struktur. Webbaserade prototyper utvecklades i Silverlight för att utvärdera omvandling till hierarkisk struktur utifrån organisationen som fanns representerad i en relationsdatabas.  Till hjälp existerar verktyg för att extrahera data ur databas samt överföra data i klient-server arkitektur.  Resultatet är ett ramverk för omvandling av relationsdata till hierarkisk struktur  och beskriver processen steg för steg. En omvandlingsprocess omfattar utformning av databas för källa, extrahering och överföring av data till en webbklient samt  algoritm  för utförande av omvandling till trädstruktur.
14

The Compression of IoT operational data time series in vehicle embedded systems

Xing, Renzhi January 2018 (has links)
This thesis examines compression algorithms for time series operational data which are collected from the Controller Area Network (CAN) bus in an automotive Internet of Things (IoT) setting. The purpose of a compression algorithm is to decrease the size of a set of time series data (such as vehicle speed, wheel speed, etc.) so that the data to be transmitted from the vehicle is small size, thus decreasing the cost of transmission while providing potentially better offboard data analysis. The project helped improve the quality of data collected by the data analysts and reduced the cost of data transmission. Since the time series data compression mostly concerns data storage and transmission, the difficulties in this project were where to locate the combination of data compression and transmission, within the limited performance of the onboard embedded systems. These embedded systems have limited resources (concerning hardware and software resources). Hence the efficiency of the compression algorithm becomes very important. Additionally, there is a tradeoff between the compression ratio and real-time performance. Moreover, the error rate introduced by the compression algorithm must be smaller than an expected value. The compression algorithm contains two phases: (1) an online lossy compression algorithm - piecewise approximation to shrink the total number of data samples while maintaining a guaranteed precision and (2) a lossless compression algorithm – Delta-XOR encoding to compress the output of the lossy algorithm. The algorithm was tested with four typical time series data samples from real CAN logs with different functions and properties. The similarities and differences between these logs are discussed. These differences helped to determine the algorithms that should be used. After the experiments which helped to compare different algorithms and check their performances, a simulation is implemented based on the experiment results. The results of this simulation show that the combined compression algorithm can meet the need of certain compression ratio by controlling the error bound. Finally, the possibility of improving the compression algorithm in the future is discussed. / Denna avhandling undersöker komprimeringsalgoritmer för driftdata från tidsserier som samlas in från ett fordons CAN-buss i ett sammanhang rörande Internet of Things (IoT) speciellt tillämpat för bilindustrin. Syftet med en kompressionsalgoritm är att minska storleken på en uppsättning tidsseriedata (som tex fordonshastighet, hjulhastighet etc.) så att data som ska överföras från fordonet har liten storlek och därmed sänker kostnaden för överföring samtidigt som det möjliggör bättre dataanalys utanför fordonet. Projektet bidrog till att förbättra kvaliteten på data som samlats in av dataanalytiker och minskade kostnaderna för dataöverföring. Eftersom tidsseriekomprimeringen huvudsakligen handlar om datalagring och överföring var svårigheterna i det här projektet att lokalisera kombinationen av datakomprimering och överföring inom den begränsade prestandan hos de inbyggda systemen. Dessa inbyggda system har begränsade resurser (både avseende hårdvaru- och programvaruresurser). Därför blir effektiviteten hos kompressionsalgoritmen mycket viktig. Dessutom är det en kompromiss mellan kompressionsförhållandet och realtidsprestanda. Dessutom måste felfrekvensen som införs av kompressionsalgoritmen vara mindre än ett givet gränsvärde. Komprimeringsalgoritmen i denna avhandling benämns kombinerad kompression, och innehåller två faser: (1) en online-algoritm med dataförluster, för att krympa det totala antalet data-samples samtidigt som det garanterade felet kan hållas under en begränsad nivå och (2) en dataförlustfri kompressionsalgoritm som komprimerar utsignalen från den första algoritmen. Algoritmen testades med fyra typiska tidsseriedataxempel från reella CAN-loggar med olika funktioner och egenskaper. Likheterna och skillnaderna mellan dessa olika typer diskuteras. Dessa skillnader hjälpte till att bestämma vilken algoritm som ska väljas i båda faser. Efter experimenten som jämför prestandan för olika algoritmer, implementeras en simulering baserad på experimentresultaten. Resultaten av denna simulering visar att den kombinerade kompressionsalgoritmen kan möta behovet av ett visst kompressionsförhållande genom att styra mot den bundna felgränsen. Slutligen diskuteras möjligheten att förbättra kompressionsalgoritmen i framtiden.
15

Realtidssammanställning av stora mängder data från tidsseriedatabaser / Realtime compilation of large datasets from time series databases

Rådeström, Johan, Skoog, Gustav January 2017 (has links)
Stora mängder tidsseriedata genereras och hanteras i tekniska försörjningssystem och processindustrier i syfte att möjliggöra övervakning av systemen. När tidserierna ska hämtas och sammanställas för dataanalys utgör tidsåtgången ett problem. Examensarbetet hade som syfte att ta reda på hur utvinning av tidsseriedata borde utföras för att ge bästa möjliga svarstid för systemen. För att göra hämtningen och sammanställningen så effektiv som möjligt testades och utvärderades olika tekniker och metoder. De områden som tekniker och metoder jämfördes inom var sammanställning av data inom och utanför databasen, cachning, användandet av minnesdatabaser jämfört med andra databaser, dataformat, dataöverföring, och förberäkning av data. Resultatet var att den bästa lösningen bestod av att sammanställa data parallellt utanför databasen, att använda en egen inbyggd minnesdatabas, att använda Google Protobuf som dataformat, samt att förberäkna data. / Large amounts of time series data are generated and managed within management systems and industries with the purpose to enable monitoring of the systems. When the time series is to be acquired and compiled for data analysis, the expenditure of time is a problem. This thesis was purposed to determine how the extraction of time series data should be performed to give the systems the best response time possible. To make the extraction and compilation as effective as possible, different techniques and methods were tested and evaluated. The areas that techniques and methods were compared for were compilation of data inside and outside the database, caching, usage of in-memory databases compared to other databases, dataformats, data transfer, and precalculation of data. The results showed that the best solution was to compile data in parallel outside the database, to use a custom built-in in-memory database, to use Google Protobuf as data format, and finally to use precalculated data.
16

Integrering av glukosmätare med molntjänst för hemmonitorering / Integration of Glucose Meter with Cloud Service for Remote Patient Monitoring

Karoumi, Daniel, Luong, Oscar January 2021 (has links)
Under detta examensarbete har en lösning framtagits som underlättar distansmonitorering av patienter. Då olika medicinska produkter skickar data till sina egna plattformar blir det krångligt för både patienten och vårdgivaren att ta fram och hålla koll på alla vitalparametrar som tas. Därför har en gemensam plattform, LinkWatch, utvecklats. Idag kan flera vitalparametrar mätas och ses i plattformen. En säker och effektiv dataöverföring mellan en blodsockermätare och LinkWatchs webbserver har gjorts för att utöka funktionaliteten på LinkWatch. Målet med projektet var att integrera en blodsockermätare med LinkWatch. Arbetet har utförts i programmeringsspråken Kotlin och Swift. För att få kunskap om dataöverföringen söktes information om bland annat standarden FHIR, Bluetooth Low Energy samt tidigare arbeten. Resultatet av arbetet är två applikationer, en för iOS och en för Android. Mobilapplikationerna kan koppla sig till blodsockermätaren via Bluetooth, överföra dess värden till mobilen samt skicka dessa till LinkWatchs webbserver. Applikationerna har enkla användargränssnitt och enkla layouter för att underlätta patientens användning av applikationerna. Använder patienten LinkWatch, kan patienten se sitt blodsockervärde tillsammans med andra vitalparametrar och på så sätt få en bra överblick över sin hälsa. Projektet är positivt för diabetiker och andra som är intresserade av hälsa. Tack vare den användarvänliga plattformen och mångsidigheten av LinkWatch, kan användare enklare kunna hålla koll på sitt blodsockervärde och göra livsviktiga åtgärder vid uppkomst av symtom. Vidare kan även vårdgivare ta del av information som LinkWatch lämnar ut för att exempelvis se trender i patientens blodsockervärden. Fördelarna med att dela data med vårdgivaren är bland annat reducerade kostnader och ökad trygghet hos patienterna. / During this project, a solution has been developed that promotes remote patient monitoring. As different medical products send data to their own platforms, it becomes troublesome for both the patient and the care provider to take and keep track of all the vital parameters. Hence a common platform, LinkWatch, has been developed. LinkWatch is a platform where all the patient's medical signs can be seen. To increase the functionality of LinkWatch, a secure and efficient data transfer between a blood glucose meter and LinkWatch’s web server has been established. The goal of this project was to integrate a blood glucose meter with LinkWatch. The programming languages Kotlin and Swift were used to develop the mobile applications. To gain knowledge about the data transfer, research was done to obtain information about the FHIR standard, Bluetooth Low Energy and previous work in the field. The results of the project are two applications, one for iOS and one for Android. The mobile applications can connect to the blood glucose meter with Bluetooth, transfer its values to the mobile phone and send these to LinkWatch’s web server. When the records are in LinkWatch’s system, the patient is able to see their glucose levels along with other vital parameters. This project will have a major impact on patients with diabetes and others who are interested in health. Thanks to the user-friendly platform and the flexibility of LinkWatch, users of the application will be able to more easily keep track of their blood sugar value and take early action in the event of symptoms. Furthermore, health care providers can also take part in information that LinkWatch will provide, for example see trends in the patient's blood sugar values. The benefits with sharing data with the health care providers are cost reductions and increased patient satisfaction.
17

Malicious Entity Categorization using Graph modelling / Skadlig Entity Kategorisering med användning graf modellering

Srinivaasan, Gayathri January 2016 (has links)
Today, malware authors not only write malicious software but also employ obfuscation, polymorphism, packing and endless such evasive techniques to escape detection by Anti-Virus Products (AVP). Besides the individual behavior of malware, the relations that exist among them play an important role for improving malware detection. This work aims to enable malware analysts at F-Secure Labs to explore various such relationships between malicious URLs and file samples in addition to their individual behavior and activity. The current detection methods at F-Secure Labs analyze unknown URLs and file samples independently without taking into account the correlations that might exist between them. Such traditional classification methods perform well but are not efficient at identifying complex multi-stage malware that hide their activity. The interactions between malware may include any type of network activity, dropping, downloading, etc. For instance, an unknown downloader that connects to a malicious website which in turn drops a malicious payload, should indeed be blacklisted. Such analysis can help block the malware infection at its source and also comprehend the whole infection chain. The outcome of this proof-of-concept study is a system that detects new malware using graph modelling to infer their relationship to known malware as part of the malware classification services at F-Secure. / Idag, skadliga program inte bara skriva skadlig programvara men också använda förvirring, polymorfism, packning och ändlösa sådana undan tekniker för att fly detektering av antivirusprodukter (AVP). Förutom individens beteende av skadlig kod, de relationer som finns mellan dem spelar en viktig roll för att förbättra detektering av skadlig kod. Detta arbete syftar till att ge skadliga analytiker på F-Secure Labs att utforska olika sådana relationer mellan skadliga URL: er och fil prover i Förutom deras individuella beteende och aktivitet. De aktuella detektionsmetoder på F-Secure Labs analysera okända webbadresser och fil prover oberoende utan med beaktande av de korrelationer som kan finnas mellan dem. Sådan traditionella klassificeringsmetoder fungerar bra men är inte effektiva på att identifiera komplexa flerstegs skadlig kod som döljer sin aktivitet. Interaktioner mellan malware kan innefatta någon typ av nätverksaktivitet, släppa, nedladdning, etc. Till exempel, en okänd loader som ansluter till en skadlig webbplats som i sin tur släpper en skadlig nyttolast, bör verkligen vara svartlistad. En sådan analys kan hjälpa till att blockera malware infektion vid källan och även förstå hela infektion kedja. Resultatet av denna proof-of-concept studien är ett system som upptäcker ny skadlig kod med hjälp av diagram modellering för att sluta deras förhållande till kända skadliga program som en del av de skadliga klassificerings tjänster på F-Secure.

Page generated in 0.0657 seconds