• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 27
  • Tagged with
  • 181
  • 83
  • 59
  • 57
  • 49
  • 45
  • 44
  • 37
  • 25
  • 25
  • 24
  • 23
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Performance Evaluation and Elastic Scaling of an IP Multimedia Subsystem Implemented in a Cloud

Umair, Muhammad January 2013 (has links)
Network (NGN) technology which enables telecommunication operators to provide multimedia services over fixed and mobile networks. All of the IMS infrastructure protocols work over IP which makes IMS easy to deploy on a cloud platform. The purpose of this thesis is to analysis a novel technique of “cloudifying” the OpenIMS core infrastructure. The primary goal of running OpenIMS in the cloud is to enable a highly available and horizontally scalable Home Subscriber Server (HSS). The resulting database should offer high availability, and high scalability. The prototype developed in this thesis project demonstrates a virtualized OpenIMS core with an integrated horizontal scalable HSS. Functional and performance measurements of the system under test (i.e. the virtualized OpenIMS core with horizontally scalable HSS) were conducted. The results of this testing include an analysis of benchmarking scenarios, the CPU utilization, and the available memory of the virtual machines. Based on these results we conclude that it is both feasible and desirable to deploy the OpenIMS core in a cloud. / IP Multimedia Subsystem (IMS) ramverk är ett Next Generation Network (NGN) teknik som möjliggör teleoperatörer att erbjuda multimediatjänster via fasta och mobila nät. Alla IMS infrastruktur protokollen fungera över IP som gör IMS lätt att distribuera på ett moln plattform. Syftet med denna uppsats är att analysera en ny teknik för “cloudifying” den OpenIMS kärninfrastrukturen.  Det primära målet med att köra OpenIMS i molnet är att möjliggöra en hög tillgänglighet och horisontellt skalbara Server Home Subscriber (HSS). Den resulterande databasen bör erbjuda hög tillgänglighet och hög skalbarhet. Prototypen utvecklas i detta examensarbete visar en virtualiserad OpenIMS kärna med en integrerad horisontell skalbar HSS. Funktionella och prestanda mätningar av systemet under test (dvs. virtualiserade OpenIMS kärnan med horisontellt skalbara HSS) genomfördes. Resultaten av detta test inkluderar en analys av benchmarking scenarier, CPU-användning, och tillgängligt minne för de virtuella maskinerna. Baserat på dessa resultat drar vi slutsatsen att det är både möjligt och önskvärt att distribuera OpenIMS kärnan i ett moln.
132

Optimizing System Level Testing of Evolved Packet Gateway

Wang, Guojun January 2013 (has links)
The goal of this thesis project is to improve industrial system testing efficiency. The thesis is mainly focused on the field of telecommunication. Testing is one of the most important steps before selling a product to customers and testing is also an important component of after sale maintenance. The work load for testers can be decreased and more projects could be carried out in parallel, if the testing efficiency can be improved. The thesis project is carried out within the Ericsson Product Development Unit (PDU) Packet Core System Test section. The goal is to improve the system testing efficiency of the Evolved Packet Gateway, as system testing has gradually become one of the bottle necks for the whole product release. Ericsson wants to accelerate its pace in releasing new products to the market and releasing new software to their customers. An initial investigation was made to get a clear view about how the complete system testing procedure is currently carried out and then, an analysis was made based on this information. Ideas were collected for a proposed new implementation and finally a prototype for the most useful ideas was developed and evaluated to show how the system testing efficiency can be improved. Finally, these ideas were proved to be valuable for Ericsson PDU Packet Core System Test section and two of them have been adopted and are already under developing. / Målet med detta examensarbete är att förbättra effektiviteten inom industriell systemtestning.  Avhandlingen är främst inriktad på området för telekommunikation. Testning är ett av de viktigaste stegen innan försäljning av en produkt till kunder och testning är också en viktig komponent under underhållsfasen. Genom att förbättra effektiviteten i testerna kan arbetsbelastningen för testare minskas och flera projekt genomföras parallellt. Examensarbetet har utförts inom Ericssons produktutvecklingsenhet (PDU) Packet Core, avdelning System Test. Avhandlingens mål är att effektivisera systemtestning av Evolved Packet Gateway (EPG), eftersom systemtest gradvis blivit flaskhalsen för hela produktens release. Ericsson vill påskynda takten som de släpper nya produkter på marknaden och ny mjukvara till sina kunder. En första undersökning gjordes för att få en tydlig bild av hur systemtest utförs för närvarande och därefter, gjordes en analys baserat på denna information.  Idéer samlades in för att föreslå en ny implementering och slutligen utvecklades en prototyp av en specifik idé och den harutvärderats för att visa hur effektiviteten hos systemtest kan förbättras. Slutligen, var dessa idéer visade sig vara värdefullt för Ericsson PDU Packet Core System Test avsnitt och två av dem har antagits och håller redan på att utveckla.
133

Query builder for database system / Framtagning av verktyg för att skapa databasförfrågningar

Stigeborn, Patrik, Strömgren, Jonathan January 2015 (has links)
Large amount of data is used by companies to enable good analysis of their system’s workability. Data can be stored in a partitioned database, to enable an optimal way of accessing the data. The problem with partitioning is that the complexity of the database structure increases. Therefore retrieving data demands higher expertise of the user. This degree project will examine different solutions to create an efficient and easy to use method, to access and retrieve data from a database with such architecture. Interviews have been conducted at Ericsson and were an important source of information. Existing query builders were another source - they were analyzed for comparison and ideas. As result of research and development, a customized query builder was created. It was adapted to Ericsson’s database environment and internal software. The SQL-queries are generated dynamically using the query builder that was developed in this degree project. The query builder takes input parameters, interpret them and then generate a query. It was implemented in C++, and satisfies specific demands and functionality. / Stora mängder data används av företag för att skapa bra analyser av deras systems prestanda. Denna data kan lagras i partitionerade databaser, för att möjliggöra optimal hämtning av data. Problemet med partitionering är att det skapar komplex databasstruktur, därmed ökar kraven på användaren i samband med inhämtning av data. I detta examensarbete kommer vi att undersöka olika lösningar för att skapa en effektiv och lättanvändlig metod för att få åtkomst och hämta data från en partitionerad databas. Intervjuer har genomförts med anställda på Ericsson, som tillsammans med litteraturstudier har varit vår främsta informationskälla. Resultatet av våran undersökning och utveckling blev en specialanpassad query builder. Den är anpassad för Ericssons databasmiljö och interna system. SQL-frågor kommer att genereras dynamiskt utav vår query builder. Denna query builder kommer att ta emot indata, vilket den sedan kommer att tolka och utifrån detta skapa en SQL-förfrågan. Query buildern är uppbyggd i C++, och tillfredställer givna krav på funktionallitet.
134

Addressing non-conformities in a ERTMS implementation : Collecting non-conformities in ERTMS simulation and analyzing their management via a database

Ndikuriyo, Laurier January 2015 (has links)
The European Rail Traffic Management System (ERTMS) aims to standardize train control command and communication systems in Europe. The main goal of its introduction is to develop trans-European railway traffic and increase competition. The two main components of ERTMS are European Train Control System (ETCS), which is an Automatic Protection System (ATP), and GSM–Railway (GSM-R).GSM-R is a radio transmission system that provides data and voice communication between the train and trackside facilities. Classical rail signaling systems are recommended to be updated to meet these standards. This master’s thesis is conducted in cooperation with Bombardier Transportation (BT), the rail equipment division of firm Bombardier Inc. It explores a part of ERTMS implementation and aims to identify its failures/non-conformities during its simulation. A non-conformity is any deviation or nonfulfillment of a requirement involving a product manufactured at BT. This thesis first collects failures/non conformities in test sessions and stores it into databases. A failure/non-conformity is processed by many engineers from the time it is detected in a test until it is resolved.  This thesis project seeks to investigate the exchange and the management of failures in both the tools and databases, together with analyzing the interaction between engineers through tools and databases. Non conformities detected during the simulation is stored in databases. The goal is to utilize this data to highlight parts of ERTMS implementation which generate most of non-conformities during the simulation. This information indicates to engineers where to focus and act in order to improve Bombardier Transportation’s products. This thesis successfully simulated a part of ERMS implementation. Several different tests cases were conducted and seven non-conformities were detected. These non-conformities were used to investigate and analyze the process of managing failures in tools and databases. This thesis proved that the exchange and the management of information about non-conformities was inefficient and time consuming. In the worst case, non-conformities were completely lost during this process. Several corrective actions were proposed in order to improve the handling of non-conformities. / Europeiskt styrsystem för järnvägstrafik (ERTMS) har i mål att till standardisera tåglednings- och kommunikationssystem i Europa. Den huvudsakliga målsättningen är att utveckla transeuropeiska järnvägstrafiken och öka konkurrensen. De två viktigaste komponenterna i ERTMS är European Train Control System (ETCS) och GSM-Railway (GSM-R). ECTS är Automatisk Protection System (ATP). GSM-R är en radiotransmissions system som tillhandahåller data och röstkommunikation mellan tåg och markanläggningar. Klassisk järnväg signalsystem rekommenderas att uppdatera för att uppfylla dessa standarder. Denna magisteruppsats sker i samarbete med Bombardier Transportation (BT) som är järnvägsutrustning uppdelningen av företaget Bombardier Inc. Det skall utforskas en del av ERTMS implementering och som syftar till att identifiera sina avvikelser och misslyckanden under sin simulering. Denna avhandling samlar först med misslyckanden/icke-avvikelser i testsessioner och lagrar det i databaser. Ett icke-avvikelser är någon icke uppfyllande av ett krav som medför en produkt som tillverkas vid BT. Ett misslyckande/icke-avvikelse behandlas av många ingenjörer från den tidpunkt då den upptäcks i ett test tills det är löst. Detta examensarbete syftar till att undersöka utbytet och hanteringen av brister i både verktyg och databaser, tillsammans med att analysera samspelet mellan ingenjörer via verktyg och databaser. De upptäckta enhetligheterna under simuleringen lagras i databaser. Målet är att utnyttja dessa data för att markera delar av ERTMS implementering som genererar merparten av avvikelser under simuleringen. Denna information indikerar att ingenjörer var att fokusera och agera i syfte att förbättra Bombardier Transportations produkter. Denna avhandling har med framgång simulerat en del av ERMS implementering. Flera olika tester fall genomfördes och sju avvikelser upptäcktes. Dessa avvikelser användes för att undersöka och analysera processen för att hantera misslyckanden inom verktyg och databaser. Avhandlingen visade att utbyte och hantering av information om avvikelser var ineffektivt och tidsödande. I värsta fall, var avvikelser helt förlorad under denna process. Flera korrigerande åtgärder föreslogs för att förbättra hanteringen av avvikelser.
135

MySQL och MongoDB operationer med Node.sj som ramverk / MySQL and MongoDB operations with Node.js used as framework

Zsambokrety Eliason, Adam January 2023 (has links)
Data används i stora mängder i dagens samhälle. Sjukvården är inget undantag och i den branschen kan analyser av data rädda liv eller uppfinna läkemedel. För att kunna bruka data i modern tid måste ett databassystem användas. Att välja rätt databassystem kan vara svårt och kräver att man vet varför man väljer den ena över den andra. Här jämförs två databaser för att generera data på om det skilljer sig mellan operationstiderna hos en relationsdatabas och en dokumentbaserad databas. Studien har valt att göra ett tekniskt experiment där MySQL brukas som relationsdatabas medans MongoDB används som dokumentbaserad databas. Node.js används som ramverk för att skapa applikationer där testning sker. Data är hämtad från U.S. Department of Health &amp; Human Services (2023) och representerar sjukvårdsdata från COVID. Operationstyperna INSERT och SELECT är de två som undersöks i denna studien. Resultatet bevisar att båda de framlagda hypoteserna stämmer. MongoDB var i båda testerna mer effektiv och producerade lägre operationstider för INSERT och SELECT. / <p>Stavningskorrigerad titel: MySQL och MongoDB operationer med Node.js som ramverk</p>
136

Dynamic First Match : Reducing Resource Consumption of First Match Queries in MySQL NDB Cluster

Kumar, Hara January 2020 (has links)
Dynamic First Match is a learned heuristic that reduces the resource consumption of first match queries in a multi-threaded, distributed relational database, while having a minimal effect on latency. Traditional first match range scans occur in parallel across all data fragments simultaneously. This could potentially return many redundant results. Dynamic First Match reduced this redundancy by learning to scan only a portion of the data fragments first, before scanning the remaining fragments with a pruned data set. Benchmark tests show that Dynamic First Match could reduce resource consumption of first match queries containing first match range scans by over 40% while having a minimal effect on latency. / Dynamisk Första Match är en lärd heuristik som minskar resursförbrukningen för första match frågor i en flertrådad och distribuerad relationsdatabas, samtidigt som den har en minimal effekt på latens. Första match frågor resulterar i många intervallavsökningar. Traditionellt intervallskanningarna körs parallellt över alla datafragment samtidigt. Detta kan potentiellt ge många överflödiga resultat. Dynamisk Första Match minskade denna redundans genom att lära sig att bara skanna en del av datafragmenten innan återstående datafragmenten skannades med en beskuren datamängd. Jämförelsetester visar att Dynamisk Första Match kan minska resursförbrukningen för första match frågor med intervallavsökningar med över 40% samtidigt som den har en minimal effekt på latens.
137

Developing Submarine for Monitoring Water Quality through a Cooperative and Innovative Approach

Hammoud, Mohammad January 2022 (has links)
This report is about implementing a real-time monitoring water qualitysystem to measure water quality autonomously in any water environment.The purpose of collecting data is to analyze the results and build a clearpicture to move quickly to find solutions in the event of pollution or any otherdangerous circumstances. The report explains the submarine system thatconnects to the winch system, part of the primary system.Two Raspberry Pi microcontrollers and sensors are used to collect the data.Serial connection is used to build communication between themicrocontrollers in order to transfer data between them. The focus area of thewhole project is the communication part since the prototype’s design is not apart of this thesis. Storing the collected data happens in the centralmicrocomputer in a CSV file. However, it should be stored in a databaseserver to take advantage of this data in the fastest way possible. / Den här rapporten handlar om att implementera ett vattenkvalitetssystem förövervakning i realtid för att mäta vattenkvaliteten självständigt i vilkenvattenmiljö som helst. Syftet med att samla in data är att analysera resultatoch bygga upp en tydlig bild för att snabbt kunna hitta lösningar i händelseav föroreningar eller andra farliga omständigheter. Rapporten förklararubåtssystemet som ansluter till vinschsystemet, en del av det primärasystemet.Två Raspberry Pi-mikrokontroller och sensorer används för att samla in data.Seriell anslutning används för att bygga kommunikation mellanmikrokontrollerna för att överföra data mellan dem. Fokusområdet för helaprojektet är kommunikationsdelen eftersom design av prototypen inte är endel av detta arbete. Lagring av insamlade data sker i den centrala mikrodatorni en CSV-fil. Det bör dock sparas i en databasserver för att dra resultat ochslutsatser av denna data på snabbast möjliga sätt.
138

Lagring och visualisering av information om stötdämpare

Settlin, Johan, Ekelund, Joar January 2019 (has links)
Att genom simuleringar få en förståelse för hur en stötdämpares inställningar påverkar dess egenskaper kan leda till förbättrad väghållning, ökad trafiksäkerhet samt snabbare varvtider på racerbanan. Genom att visualisera de simulerade data för att ge användare en uppfattning om hur inställningarna på stötdämparen kommer att bete sig i praktiken.Det här arbetet hade som mål att utforma en databas som efterliknar en stötdämpares egenskaper samt att visualisera dessa egenskaper på en webbsida. Kravinsamling gjordes genom intervjuer med experter och information införskaffades via litteraturstudier. Utifrån insamlade krav och fallstudier utvecklades en relationsdatabas som innehåller information om en dämpares komponenter och uppbyggnad samt ett visualiseringsverktyg där egenskaperna hos dämparen visualiserades på en webbsida. Databasen och visualiseringsverktyget sammanfogades sedan till en prototyp för att möjliggöra simulering av en dämpares egenskaper på webben.Resultatet av fallstudierna visade att databashanteringssystemet MySQL och grafbiblioteket Chart.js var bäst lämpade för prototypen utifrån de insamlade kraven. Funktionaliteten av protypen validerades av projektets uppdragsgivare och felmarginalen för simuleringarna var under 1%. Detta implicerar att databasmodellen som tagits fram håller god kvalitet och att resultatet visualiseras på ett korrekt och förståeligt sätt. / By perform simulations to achieve an understanding of how a shock absorbers setting affect its characteristics could result in improved road holding, increased roadworthiness and faster lap times at the racetrack. By visualizing the simulated data, users can get an understanding in how the settings on the shock absorber will behave.This work had as a goal to design a database that mimic a shock absorbers characteristic and to visualize these characteristics on a website. Requirements was gathered through interviews with experts and information was procured through literature studies. From the gathered requirements and case studies a relational database, that contain information about a shock absorbers components and construction, was developed. A visualization tool to visualize the characteristics of a shock absorber was also developed. The database and the visualization tool where then joined to create a prototype for simulating a shock absorbers characteristic on the web.The result from the case studies indicated that the database management system MySQL and the graph library Chart.js was best suited for the prototype, based on the collected requirements. The functionality of the prototype was validated by the client and the margin of error for the simulation was below 1%. This implies that the database model that has been produced is of good quality and that the visualization of the result is presented in a correct and apprehensible manner.
139

Proposal and Evaluation of a Database Data Model Decision Method / Förslag och utvärdering av en beslutsmetod för databasmodeller

Hauzenberger, Sabina, Lindholm Brandt, Emil January 2020 (has links)
A common problem when choosing a data model for a database is that there are many aspects to take into consideration–making the decision difficult and time-consuming. Therefore this work aims to create a decision method that enhances the decision by making it more suitable for the use-case at hand as well as making it quicker. First, the Analytical Hierarchy Process, a multi-criteria decision method, was identified as a suitable framework that the created decision method was based on. It was developed iteratively and later validated through a survey at Omegapoint. The survey had 27 respondents, but 14 answers were discarded due to being too unreliable, which led to a total of 13 utilized responses. The decision method was implemented in a web application to simplify the survey process, where the respondents use the web application, and answered some follow up questions about the web application’s result and process. It was found that it is possible to create a decision method which makes the choice of a data model quicker and better suited for the use-case. The method is reliable among a subsample of the respondents in the survey as 11 out of 13 respondents found the decision method’s result to be reasonable. However, the small sample size makes it impossible to draw any statistical conclusions of the reliability of the decision method. Additionally, the decision method helps to make the decision quicker, but this is only proven among the respondents in the survey. Based on the results, we conclude that it is possible to create a decision method which makes the decision quicker and better suited for the use-case. However this is only proved among the survey respondents, and a future work could aim to repeat the validation in order to statistically validate the reliability of the decision method. / Ett vanligt problem vid valet av datamodell för en databas är att det finns många aspekter att ta hänsyn till–vilket gör valet svårt och tidskrävande. Detta arbete försöker därför skapa en beslutsmetod som kan förbättra beslutet genom att göra det snabbare och bättre anpassat för användningsområdet. Först valdes Analytical Hierarchy Process, en multikriterie-beslutsmetod, som grund till den framtagna beslutsmetoden. Beslutsmetoden utvecklades iterativt och validerades sedan genom en undersökning på Omegapoint. Undersökningen hade 27 respondenter, men 14 svar plockades bort då de var för inkonsekventa, vilket ledde till att 13 svar användes till slut. I undersökningen använde deltagarna en webb applikation, baserad på beslutsmetoden, och svarade sedan på några frågor och gav feedback om artefaktens resultat och process. Resultaten visade att det är möjligt att skapa en beslutsmetod som gör valet av datamodell snabbare och bättre anpassat för användningsområdet. Metoden anses vara träffsäker bland deltagarna i undersökningen, där 11 av 13 ansåg att resultatet var rimligt. Däremot kan arbetet inte dra några statistiska slutsatser om hur träffsäker metoden är generellt på grund av det låga antalet deltagare i undersökningen. Utöver en god tillförlitlighet, bidrar metoden till ett snabbare beslut, men detta kan endast bevisas för deltagargruppen i undersökningen. Givet resultaten kan vi dra slutsatsen att det är möjligt att skapa en beslutsmetod som gör valet av datamodell snabbare och bättre anpassat för användningsområdet. Detta kan däremot endast kan bevisas för deltagargruppen i undersökningen och därför föreslås att ett framtida arbete skulle kunna upprepa valideringen med en större deltagargrupp för att kunna fastslå modellens tillförlitlighet statistiskt.
140

The GDPR Compliance of Blockchain : A qualitative study on regulating innovative technology

Melin, Karin January 2019 (has links)
This thesis aims to explore the compliance of blockchain technology and the GDPR. The GDPR was implemented for the EU member states in May 2018 with the purpose of harmonizing data protection regulation. However, the regulation is based on the notion that data is stored and processed in a centralized system. This causes an issue when it comes to distributed networks, and in particular with the distributed ledger technology (DLT), the underlying technology of blockchain. For this thesis, a literature review has been conducted to investigate the problems of GDPR compliance for blockchain projects, and what technical solutions exist to make a blockchain solution more GDPR compliant. In addition, interviews have been conducted to investigate the technical and legal perspectives on the current and future situations of regulation and technology. Compatibility problems mainly concern the immutability and transparency of a blockchain and examples of technical solutions that handle those problems can be found in the literature. Nevertheless, none of the discussed solutions are yet to guarantee full GDPR compliance. The technical and legal perspectives share ideas of the main compliance issues. However, differences such as interpretation of technical details can be identified, indicating problems to arise when regulating blockchains in the future. Further interdisciplinary work on guidelines for the GDPR is necessary for blockchain projects to be successful in complying with the regulation as well as to strengthen the technology neutrality of the GDPR.

Page generated in 0.2106 seconds