Spelling suggestions: "subject:"datorsystem"" "subject:"aktorsystem""
731 |
Improving the flexibility of DPDK Service Cores / Förbättring av flexibiliteten hos DPDK Service CoresBlazevic, Denis Ivan, Jansson, Magnus January 2019 (has links)
Data Plane Development Kit is a highly used library for creating network applications that can be run on all hardware. Data Plane Development Kit has a component called Service Cores, which allows the main applications to create services that will run independently. These services are manually mapped to specific CPU cores, and are scheduled in a round-robin method. Because of the manual mapping, and the scheduling, the different load for each service can impact the start time for each service. By having services not run when supposed to, the throughput will degrade. In this thesis, we investigate and try to solve the issue by implementing a basic load balancer into the Service Core component. Our results show that an basic load balancer, that will balance upon reaching a CPU upper threshold, will increase the throughput of services while decreasing the delay between each service run.
|
732 |
A Rich Context Model : Design and ImplementationSotsenko, Alisa January 2017 (has links)
The latest developments of mobile devices include a variety of hardware features that allow for more rich data collection and services. Numerous sensors, Internet connectivity, low energy Bluetooth connectivity to other devices (e.g., smart watches, activity tracker, health data monitoring devices) are just some examples of hardware that helps to provide additional information that can be beneficially used for many application domains. Among others, they could be utilized in mobile learning scenarios (for data collection in science education, field trips), in mobile health scenarios (for health data collection and monitoring the health state of patients, changes in health conditions and/or detection of emergency situations), and in personalized recommender systems. This information captures the current context situation of the user that could help to make mobile applications more personalized and deliver a better user experience. Moreover, the context related information collected by the mobile device and the different applications can be enriched by using additional external information sources (e.g., Web Service APIs), which help to describe the user’s context situation in more details. The main challenge in context modeling is the lack of generalization at the core of the model, as most of the existing context models depend on particular application domains or scenarios. We tackle this challenge by conceptualizing and designing a rich generic context model. In this thesis, we present the state of the art of recent approaches used for context modeling and introduce a rich context model as an approach for modeling context in a domain-independent way. Additionally, we investigate whether context information can enhance existing mobile applications by making them sensible to the user’s current situation. We demonstrate the reusability and flexibility of the rich context model in a several case studies. The main contributions of this thesis are: (1) an overview of recent, existing research in context modeling for different application domains; (2) a theoretical foundation of the proposed approach for modeling context in a domain-independent way; (3) several case studies in different mobile application domains.
|
733 |
Code analysis : Uncovering hidden problems in a codebase by commits to a version control system / Kod analys : Avslöja gömda problem i en kodbas med commits till ett versionhanteringssystemReijo, Ken, Kåhre, Martin January 2019 (has links)
Syfte – Startpunkten för den här studien var att identifiera effektiva och ineffektiva delar av en kodbas som kan leda till förbättringar av koden. Detta utfördes på förfrågan av ett företag. För att stödja begärandet utnyttjades en bok av författaren Adam Tornhill. Han diskuterar flera metoder (också kallade analysmetoder) som används för att lokalisera och analysera platser i kod där effektivitet och ineffektivitet föreligger. De använder alla diverse variabler för det här syftet. En webbapplikation utvecklades för att upptäcka den här varianten av kod med hjälp av dessa variabler. Det spekulerades att det kan saknas samband mellan variablerna som kan upptäckas. Detta skulle ge mer insikt i hur verksam och overksam kod kan urskiljas och evalueras, utöver den insikt Adam Tornhills metoder understöder. Det vetenskapliga syftet och bidraget var därför att särskilja potentiella korrelationer mellan analysmetoderna. En frågeställning härleddes från detta syfte: ● Finns det korrelation hos variabler bland befintliga analysmetoder och i sådant fall, vilka är det? Metod – För att svara på frågeställningen var en noggrannare granskning av variablerna nödvändig för att utvärdera vilka som hade potentiella relationer. Efter det hämtades kvantitativa data av de valda variablerna från 7 open source projekter. Data erhölls från git commit historik från 2 år tillbaka. Informationen presenteras i form av grafer som examinerades för mönster och kontext bland de analysmetoder som var i fokus. Statistiska formler (som Pearsons korrelationskoefficient) utnyttjades i syfte att beräkna exakt korrelation för variablerna. Signifikansnivå sattes på 0,001 och ett p-värde kalkylerades. För de projekt med p-värde mindre än signifikansnivå beräknades även ett median och medelvärde med deras olika korrelationskoefficienten. Resultat – I slutet påträffades två stycken variabler som undersöktes genom grafer för samband. Utredningen visade ett tydligt mönster som indikerar att när fler personer arbetar på en fil kommer också antalet logiska kopplingar att öka för korresponderande fil. För de olika korrelationsvärden visade det sig att 6 av de 7 projekten hade ett p-värde mindre än den satta signifikansnivån 0,001 som innebär att 6 koefficienter är mycket statistiskt signifikanta. Det var bara för 5 av de 6 projekten med godkänd signifikans som positiv korrelation uppmättes. Medelvärdet för de 6 projekten med p-värde mindre än signifikansnivån var 0.41 och medianvärdet 0.63 vilket indikerar en positiv korrelation mellan antal författare och logiska kopplingar Implikationer – I projekt där många personer jobbar på en fil borde försiktighetsåtgärder erfordras med avseende till logiska kopplingar. Vissa förhindrande medel kanske kan etableras för att vägleda andra att minska, eller i alla fall inte onödigt ackumulera, logiska kopplingar när åtskilliga personer inträder på en fil. Begränsningar – Bara två analysmetoder och deras två variabler undersöktes för korrelation och det kan finnas fler variabler som kan ha korrelation. De 7 projekten som det utvanns data från var alla från open source och därför kanske inte resultatet stämmer för closed source projekt. / Purpose – The starting point of this study was to locate efficient and inefficient code in a codebase to improve upon it, as a request from a company. To help with their request a book was used by author Adam Tornhill who has made several methods (also called analysis methods) for this purpose. They all use different variables that locate problems in the code. A web application was developed to use these variables. It was speculated that relationships between the variables may be missing which could improve the analysis methods and in turn uncover efficient and inefficient code better. The main scientific purpose and contribution was therefore to discover associations between the specific variables presented by Adam Tornhill. A question derived from this purpose: ● Are there correlations with variables among existing analysis methods and in that case, what are they? Method – To answer the question posed, a closer look on the variables was needed to see which ones had a potential connection. After that empirical data of the chosen variables was gathered in the form of quantitative data from 7 open source projects from two years back. This was done by fetching commits from git, called commit history, and presenting the data in a suitable way in form of graphs. In the end the graphs were reviewed to detect possible patterns and then statistical formulas (Pearson's correlation coefficient) were used to calculate the exact correlation between the variables. A significance level was set at 0,001 and then p-value calculated. Median and mean value of the correlation coefficients of projects with p-value less than the significance level were also calculated. Findings – Two variables were inspected in the end, number of authors and number of logical couplings for the same file, and were made into a new analysis method with a graph. Through the graph analysis the methods seem to vary together. The graph shows a clear pattern that as more people work a module the more logical couplings will increase. For 6 out of 7 of the projects analyzed, the p-value was less than the significance level set from the beginning, meaning 6 coefficients were highly statistically significant. It was only for five out of these 6 that a positive coefficient was calculated. For the 6 projects with p-value less than significance the mean correlation coefficient was 0.41 and median 0.63, which both indicate a positive correlation between number of authors and number of logical couplings. Implications – Projects that have several people working on a module should watch out for logical couplings on that same module. Perhaps preventative measures can be made to ensure that people watch out for these logical couplings as more people start working on a module. Limitations – Only two analysis methods and their variables were inspected for further determination of a correlation, and there could be more correlations that are missing. Furthermore, the 7 projects that were used as data were open source and therefore the result from this study may not be the same as for closed source projects.
|
734 |
Post-Quantum Public Key Cryptography for the Internet of ThingsMagnusson, Olof, Hurtig, Mats January 2019 (has links)
Recent progress in the field of quantum computers provide radically improved muscles to search and sort in lists, solve systems of equations and prime factorize – virtues that inflict an immediate threat to the most common systems for public key cryptography used in a vast proportion of today’s computer networks. NTRUEncrypt is a lattice-based cryptography system which inhibits quantum computers for breaking the algorithm in polynomial time. The cryptographic algorithm is one of the seventeen that passed the first round in the NIST Post-Quantum standardisation competition which serves an indication that this system is robust against the efforts from a cryptanalysist to compromise its security properties. With the development of a server and client application that is built using Python3 integrated with WolfSSL, the results obtained from the experiment show that the suggested model acquires the capabilities to overcome the quantum computers capacities, providing fast quantum-safe asymmetric encryption algorithm for TLS communication in smart homes. The handshake process with NTRUEncrypt and WolfSSL is proven to be significantly faster comparing to other algorithms tested.
|
735 |
An Empirical Study of the Global Behavior of Structured Overlay Networks as Complex SystemsPaul, Ruma R. January 2015 (has links)
Distributed applications built on top of Structured Overlay Networks (SONs) operate based on certain self-* behaviors of the underlying Peer-to-Peer network. Among those, self-organization and self-healing are the two most prominent and assumed properties. The operating environment of distributed systems continues to be more inhospitable with the advance and demand of new technologies; for example in case of mobile and ad hoc networks Churn (node turnover) can be extremely high due to node mobility, frequent disconnects/reconnects and configuration changes. Also, in such dynamic environments, the system may face high Churn (node turnover) and Network partition in a frequent manner. The situation becomes worse if the self-healing behavior of underlying SON is not complete and well defined. This implies the following non-trivial questions: Can the maintenance mechanism of a SON heal the damage to the structure due to harshness of the operating environment and reverse it back? What are the pre-conditions; in other words, what properties the healing mechanism should possess in order to achieve reversibility against stressful environments? Existing literature lacks such assessment and verification study of the self-healing property of a SON. In this thesis, we investigate both the behavior and design of a system that operate in inhospitable environments. This work is relevant to systems with both peaks of high stress (e.g. partitions, churn, network dynamicity etc.) and continuous high stress. We evaluate existing overlay maintenance strategies, namely Correction-on-Change, Correction-on-Use, Periodic Stabilization, and Ring Merge. We define the reversibility property of a system as its ability to repair itself to its original state. We propose a new strategy, called Knowledge Base, to improve conditions for reversibility against inhospitable environments. By means of simulations, we demonstrate reversibility for overlay networks with high levels of partition and churn. We make general conclusions about the ability of the maintenance strategies to achieve reversibility. Identification of Phase Transitions in a SON can provide useful information about the properties of each state of the system. Also, this enables to find the critical points in the operating space and parameters influencing them. The applications running on top of the SON can potentially utilize this knowledge to adapt its operation accordingly in different system states. In this thesis, a representative ring-based SON, namely Beernet is chosen and extended to achieve reversibility. The resulting overlay, Beernet++ exhibits reversible phase transitions under churn. We analyze the critical points observed during such transitions. We present the behavior of Beernet++ for high level of churn and network partitioning, along with their interaction. / <p>QC 20150929</p>
|
736 |
Smart task logging : Prediction of tasks for timesheets with machine learningBengtsson, Emil, Mattsson, Emil January 2018 (has links)
Every day most people are using applications and services that are utilising machine learning, in some way, without even knowing it. Some of these applications and services could, for example, be Google’s search engine, Netflix’s recommendations, or Spotify’s music tips. For machine learning to work it needs data, and often a large amount of it. Roughly 2,5 quintillion bytes of data are created every day in the modern information society. This huge amount of data can be utilised to make applications and systems smarter and automated. Time logging systems today are usually not smart since users of these systems still must enter data manually. This bachelor thesis will explore the possibility of applying machine learning to task logging systems, to make it smarter and automated. The machine learning algorithm that is used to predict the user’s task, is called multiclass logistic regression, which is categorical. When a small amount of training data was used in the machine learning process the predictions of a task had a success rate of about 91%.
|
737 |
Feature Extraction for the Cardiovascular Disease DiagnosisTang, Yu January 2018 (has links)
Cardiovascular disease is a serious life-threatening disease. It can occur suddenly and progresses rapidly. Finding the right disease features in the early stage is important to decrease the number of deaths and to make sure that the patient can fully recover. Though there are several methods of examination, describing heart activities in signal form is the most cost-effective way. In this case, ECG is the best choice because it can record heart activity in signal form and it is safer, faster and more convenient than other methods of examination. However, there are still problems involved in the ECG. For example, not all the ECG features are clear and easily understood. In addition, the frequency features are not present in the traditional ECG. To solve these problems, the project uses the optimized CWT algorithm to transform data from the time domain into the time-frequency domain. The result is evaluated by three data mining algorithms with different mechanisms. The evaluation proves that the features in the ECG are successfully extracted and important diagnostic information in the ECG is preserved. A user interface is designed increasing efficiency, which facilitates the implementation.
|
738 |
Jämförelse mellan utveckling i WordPress och intern utveckling : En fallstudie med jämförelse av fem kriterier: dokumentation, säkerhet, kodkvalitet, utvecklingstid och skillnad i kodstorlek / Comparison of development in WordPress and In-house development : A case study comparing five criteria: documentation, security, codequality, development time and difference in code sizeVestin, Alexander January 2018 (has links)
Valet mellan att utveckla ett system eller att köpa ett komplett är inte det lättaste för många organisationer. CriseIT har efterfrågat nya funktioner till sin övningsplattform som är byggd i WordPress. Ett problem inom systemutveckling är att utvecklarna väljer en utvecklingsmetod där alla av kundens krav inte kan realiseras. Kan man realisera alla CriseITs krav med WordPress eller är det bättre att utveckla ett eget system för att möta dessa? Syftet med uppsatsen är att informera CriseIT-projektet om ”kostnaden” i olika bemärkelser av att anpassa ett CMS respektive ett egenutvecklat webbsystem. Uppsatsen jämför dessa utvecklingsmetoder med fem olika kriterier: dokumentation, säkerhet, kodkvalitet, utvecklingstid och skillnad i kodstorlek. För att jämföra systemets utvecklingsprocess används dokumentanalys för att få data om kriterierna inom andra projekt om systemutveckling. Uppsatsen använder också koden av komponenterna för att jämföra kodkvalitet, utvecklingstiden och skillnaden i kodstorlek. Resultatet av undersökningen visar data om varje kriterium från WordPress och den egenutvecklade komponenten. Slutsatsen av uppsatsen är att organisationer kan köpa färdiga system och utveckla mindre samt lättare krav. Men om systemet inte stödjer den funktionalitet de behöver är det bra om organisationen bygger ett system internt för att realisera alla kraven. För CriseIT borde de ompröva utvecklingsmetoden för sitt informationssystem om fler krav behöver blir utvecklade än de som nu finns implementerade.
|
739 |
Diametermätning av timmer med stereovisionIsaksson, David, Fredriksson, Jonas January 2018 (has links)
Syfte – Syftet för den här studien är att utveckla en metod för att mäta diametern på travat timmers ändträytor i en bild med förvridet perspektiv där ytorna befinner sig på olika djup i förhållande till varandra, för att effektivisera mätning inom skogsindustrin. Metod – Denna studie genomfördes i samarbete med Cind AB, och arbetet var uppdelat i två faser med Design Science Research som forskningsmetod. I Fas 1 rektifierades bilder på ändträytorna manuellt och i Fas 2 utnyttjades ett punktmoln för att uppskatta rektifieringsplanet. Detta gjordes i en stereokamerarigg i skala 1:25 på 139 stockar. Samtliga stockar mättes digitalt i de rektifierade bilderna och manuellt med ett digitalt skjutmått. Ett konfidensintervall för differensen beräknades fram för att bedöma mätnoggrannheten. Resultat – Konfidensintervallet för Fas 1 tyder på att metoden har potential då rektifieringsplanet placeras korrekt, vilket Fas 2 visar är en svår och komplex uppgift. Slutsatser – Den utvecklade metodens mätnoggrannhet uppnådde inte studiens mål på 5% felmarginal. Det skulle dock vara möjligt att mäta ändträytor med god noggrannhet om punktmolnet har tillräckligt hög kvalitet. Begränsningar – Mjukvaran som använder punktmolnet för att rektifiera bilderna är en modifierad version av Cinds proprietära produkt. Datamängden som används i studien samlas endast in via Cinds testrigg. / Purpose – The purpose of this study is to develop a method for measuring the diameter of piled logs on a truck in a picture that has skewed perspective and where the end surfaces are at different depths in relation to each other. The intent of this method is to further streamline log measurement in the logging industry. Method – This study was conducted in collaboration with Cind AB, and the work was split in two phases with Design Science Research as research method. In Phase 1, images with log end surfaces were rectified manually, and in Phase 2 a point cloud was used to estimate the rectification plane. This was done with a stereo camera rig in scale 1:25 on a total of 139 logs. All logs were digitally measured in the rectified images and manually measured with a digital caliper. A confidence interval for the difference was calculated to assess the measurement accuracy. Findings – The confidence interval from Phase 1 indicates that the developed method has potential when the rectification plane is placed correctly, which Phase 2 shows is a difficult and complex task. Conclusions – The developed method did not reach the desired measurement accuracy of 5% margin of error, which means that the goal of the study was not achieved. It would be possible to measure the end surfaces of logs with high precision if the point cloud is of a sufficiently high quality. Limitations – The software that utilizes point cloud information to rectify the images is a modified version of Cind’s proprietary product. The dataset that is used in this study is collected solely through Cind’s test rig.
|
740 |
Integrering av BIM- och GIS-data på semantiska webben / Integration of BIM and GIS data on the semantic webHäggström, Linus January 2018 (has links)
Jordens befolkning beräknas öka med 2 miljarder människor fram till år 2050. Samtidigt som befolkningsmängden ökar kommer befolkningstätheten i städerna öka. Det gör att städerna måste bli smartare och mer hållbara för att klara av befolkningsökningen. Information- och kommunikationsteknik (ICT) kommer att vara en stor del i att göra städerna smartare genom att kommunicera med invånare men även mellan olika system inom staden. Två system i staden som kommer att behöva kommunicera är Geografiska Informationssystem (GIS) och Byggnadsinformationsmodeller (BIM). För att systemen ska kommunicera krävs att informationen är maskinläsbar. Ett sätt att göra det på är att använda World Wide Web-grundaren, Tim Berners-Lee´s, koncept om semantiska webben. Semantiska webben möjliggör att datorer kan förstå innebörden och semantiken i informationen som lagras på semantiska webben. Syftet med examensarbetet har varit att studera hur semantisk webbteknik kan användas vid integration av BIM- och GIS-data. De frågor som besvarat under arbetets gång är hur GIS och BIM beskrivs med semantisk webbteknik och hur det är möjligt att visualisera BIM- och GIS-data från samma databas. För att uppnå syftet och besvara frågorna har en explorativ och kvalitativ metod använts. Först genomfördes en litteraturstudie för att författaren skulle bygga upp en förståelse kring den semantiska webben och hur BIM- och GIS-data är uppbyggt. Efter litteraturstudien översattes teorikunskaperna till verklighet genom att sätta upp en semantisk databas och konvertera GIS- och BIM-data till den semantiska webben. Resultatet visade att både BIM- och GIS-data kunde konverteras och lagras på den semantiska webben. För att konvertera och lagra geografiska information användes Open Geospatial Consortiums (OGC) ontologi GeoSPARQL. För BIM användes World Wide Web Consortiums (W3C) framtagna ontologi för byggnader Linked Building Data (LBD). Vid visualisering av data från databasen användes RDF2Map för att visualisera GIS-data men inget sätt för att visualisera BIM-data direkt från databasen identifierades. För att analysera resultatet genomfördes en fallstudie på riktiga projektdata. Projektdata hämtades från Swecos projektering av en pumpstation vid återöppningen av dagbrottet i Svappavaara åt LKAB. Fallstudien gav resultatet att geografisk information kan konverteras, lagras och visualiseras på den semantiska webben. Byggnadsinformationsmodellen som användes i projektet i Svappavaara var enbart till för visualisering och därför innehöll inte geometrierna någon information utöver geometrierna. På grund av detta lyckades inte någon konvertering göras till LBD. Slutsatsen från examensarbetet är att geografisk information är möjligt att lagra och visualisera på den semantiska webben men att visualiseringen bör utvecklas till att använda GeoSPARQL för att säkerställa korrekta geometrier. Byggnadsinformationsmodeller kan lagras på den semantiska webben men visualisering är inte möjlig direkt från databasen. Lagringen av BIM är även begränsad av hur stor modellen är, vid modellstorlek över 46 megabyte klarar ej konverteraren av att konvertera. Ytterligare slutsatser från examenarbetet är att vid projektering av en BIM-modell måste information lagras på rätt sätt i modellen och att det är viktigt att ingen information går förlorad vid export. / The population of the earth is calculated to increase by 2 billion people by the year 2050. As population increases, urban densities will increase. To manage all the people cities must become smarter and more sustainable. Information and communication technology (ICT) will be a major part of making the cities smarter by communicating with residents, but also for different systems within the city. Two examples of systems that will need to communicate are Geographical Information Systems (GIS) and Building Information Models (BIM). For the systems to communicate, the information need to be machine readable. One way to do this is to use the World Wide Web founder, Tim Berners-Lee´s, concept the semantic web. Semantic web enables computers to understand the meaning and semantics of the information stored in the semantic web. The purpose of this thesis has been to study how semantic web technology can be used for integration of BIM and GIS data. The questions answered during the work are how GIS and BIM can be described with semantic web technology and if it is possible to visualize BIM and GIS data from the same database. To reach the purpose and answer the questions, an explorative and qualitative method has been used. First, a literature study was conducted to enable the author to build an understanding of the Semantic Web and how BIM and GIS data were built. After the literature study, the theory of knowledge was translated into reality by setting up a semantic database and transforming GIS and BIM data into the semantic web. The result showed that both BIM and GIS data could be converted and stored in the semantic web. To transform and store geographic information, Open Geospatial Consortiums (OGC) ontology GeoSPARQL was used. For BIM, World Wide Web Consortiums (W3C) ontology for buildings Linked Building Data (LBD) was used. RDF2Map was used to visualize GIS data from the database. However, no method to visualize BIM data directly from the database was identified. To analyze the result, a case study was conducted on real project data. The project data was obtained from Sweco's design of a LKAB pump station, at the reopening of the open pit in Svappavaara. The case study resulted in geographic information being transformed, stored and visualized on the semantic web. The building information model used in the Svappavaara project was only provided visualization and therefore the model did not contain any information of the geometries. Because of this, no conversion was made to LBD. The conclusion from the thesis is that geographic information is possible to store and visualize on the semantic web but that the visualization should be developed using GeoSPARQL to ensure correct geometries. BIM models can be stored on the semantic web, but visualization is not possible directly from the database. The storage of BIM is limited by the size of the model. Model larger than 46 megabytes was not able to be converted. Another conclusion from the thesis is that, when designing a BIM model, information must be properly stored and exported to ensure that no information is lost.
|
Page generated in 0.086 seconds