• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • Tagged with
  • 11
  • 6
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Konstruktion och utredning av databasstöd för Länsstyrelsens Kalkningsverksamhet

Moen, Daniel January 2008 (has links)
<p>För databasutveckling finns en mängd regler och standarder framtagna för att databasen ska bli så effektiv och felfri som möjligt. Ibland följs inte dessa fullt ut av olika anledningar. Detta kan leda till problem som i värsta fall kan få konsekvenser för verksamheten som använder sig av den. Ett exempel på en databas där man avvikit från gällande designregler är den som var tänkt att införas för kalkningsverksamheten för Länsstyrelsen i Gävleborg. I det här arbetet har jag gjort en utredning kring denna databas, identifierat dessa avvikelser, utrett varför dessa uppstått och vad dessa har lett till eller eventuellt kan leda till i det här sammanhanget. Jag har också byggt en ny databas enligt gällande regler anpassad för Gävleborgs kalkningsverksamhet. Resultaten jag kommit fram till är att dessa standardavvikelser och felaktigheter troligen beror på en kombination av bristande gränssnitt i form av formulär samt okunskap om databasdesign och administration hos personalen.</p>
2

Effektivt arbetsmiljöarbete : en studie baserad på några företag

Andersson Kalentun, Roger, Åberg, Jonas January 2004 (has links)
No description available.
3

Effektivt arbetsmiljöarbete : en studie baserad på några företag

Andersson Kalentun, Roger, Åberg, Jonas January 2004 (has links)
No description available.
4

Konstruktion och utredning av databasstöd för Länsstyrelsens Kalkningsverksamhet

Moen, Daniel January 2008 (has links)
För databasutveckling finns en mängd regler och standarder framtagna för att databasen ska bli så effektiv och felfri som möjligt. Ibland följs inte dessa fullt ut av olika anledningar. Detta kan leda till problem som i värsta fall kan få konsekvenser för verksamheten som använder sig av den. Ett exempel på en databas där man avvikit från gällande designregler är den som var tänkt att införas för kalkningsverksamheten för Länsstyrelsen i Gävleborg. I det här arbetet har jag gjort en utredning kring denna databas, identifierat dessa avvikelser, utrett varför dessa uppstått och vad dessa har lett till eller eventuellt kan leda till i det här sammanhanget. Jag har också byggt en ny databas enligt gällande regler anpassad för Gävleborgs kalkningsverksamhet. Resultaten jag kommit fram till är att dessa standardavvikelser och felaktigheter troligen beror på en kombination av bristande gränssnitt i form av formulär samt okunskap om databasdesign och administration hos personalen.
5

Databasdesign: Nulägesanalys av normalisering

Wesslén Weiler, Johannes, Öhrn, Emelie January 2016 (has links)
År 1970 introducerades normalisering med syfte att organisera data i relationsdatabaser för att undvika redundant data och reducera risker för anomalier. Idag finns indikationer på att en mer nyanserad bild av normalisering behövs då dagens databaser ställs inför nya utmaningar och krav. Det här arbetet utförs i form av en fallstudie där en analys av tre databaser inom olika verksamheter genomförs. Med utgångspunkt i normalformerna genomförs en explorativ analys för att identifiera vilka aspekter som påverkar normalisering i industrin. Slutsatsen av arbetet är att det är svårt för en oberoende part till databasen att avgöra och tolka normalformernas uppfyllnad. Faktorer som påverkar normalisering av databaser är: utvecklarens intuition, användarens påverkan av datakvalitet samt den tekniska skuld som quickfixes orsakar. / Normalization was first introduced in 1970 with the purpose to organize data within relational databases in a way to avoid data redundancy and reduce the number of anomalies. As databases are facing new challenges and requirements, indications have been identified which points to a need for a more detailed view of normalization. This work is the outcome of a case study where three databases are analyzed. With the normal forms as starting point, an explorative analysis is made with the goal to identify different aspects that affects the way normalization is conducted within the industry. The conclusion is that it is difficult for an outsider to the database to interpret and determine whether the normal forms are fulfilled or not. Aspects affecting normalization are: the developer's intuition, users' impact on data quality and the technical debt that quickfixes creates.
6

Dokumentationsmodell för fibernätverk : Utveckling av ett insticksprogram i QGIS / Documentation model for fiber networks : Development of a plug-in for QGIS

Pihl, Petra January 2019 (has links)
Samhällets ökande beroende av bredbandsstruktur och framför allt av digitala tjänster ställer krav på stabilitet och driftsäkerhet. Det innebär att infrastrukturen måste vara robust nog att motstå påfrestningar och ha så god kvalitet att den fungerar och är tillgänglig även vid störningar. Det har hittills inte funnits någon etablerad standard för hur ett nät bör förläggas vilket har lett till en stor variation kring hur nät anläggs och vilken kvalitet de håller. Post- och telestyrelsen (PTS) har på regeringens uppdrag tagit fram föreskrifter som ska leda till att bredbandsnätet byggs upp driftsäkert och robust. Föreskrifter har tagits fram tillsammans med flera av branschens aktörer och beskriver hur en robust fiberanläggning ska anläggas och drivas. Anvisningarna går under samlingsnamnet Robust fiber. I detta examensarbete är det kraven på dokumentation av fibernät som studeras. På grund av Sveriges regerings bredbandsstrategi så har utbyggande av fibernätverket gått i sådan takt att dokumentation släpar efter. Geografiska informationssystem (GIS) är lämpliga att utnyttja för dokumentation och analys av robustheten i fibernät. Syftet med examensarbetet är utveckla en metod till opensource programvaran QGIS för att dokumentera fibernätverk och information om dess beståndsdelar. Metoden för arbetet var att designa en relationsdatabas med stöd för geografiska objekt och implementera detta i QGIS för att modellera upp fibernätverkets struktur och generera en översikt. Databasen sköter information om objekt och utsökningar kan utföras med SQL-frågeuttryckt och kopplas ihop med nätöversikt i QGIS. Resultatet visar att det är möjligt att till stor del uppfylla kraven för dokumentation. Det problem som dock inte lyckades lösas var dokumentationskravet att kunna visa schematiska ritningar för kanalisation.
7

Applikation för sökning i databaslogg samt design av databas / Application for Searching a Database Log and Design for a Database

Håkansson, Gunnar January 2012 (has links)
Den här rapporten behandlar ett system som använder en databas som lagringsplats för loggar. En bra metod för att hämta ut dessa loggar saknades och databasdesignen behövde förbättras för sökningar i loggarna. En applikation för att hämta och söka i loggposter från databasen skapades. En undersökning om hur databasdesignen kunde förbättras genomfördes också. Båda delarna gjordes i ett projekt för att de hörde ihop. Applikationen skulle använda databasen. Då jag inte kunde göra vilka ändringar jag ville i databasen gjordes relativt begränsade ändringar i den. Större ändringar utreddes teoretiskt. Applikationen gjordes mot den existerande databasdesignen, med ett undantag: en vy lades till. Rapporten undersöker index och andra metoder att göra sökningar i en databas snabbare. En metod för att hämta data inom ett intervall i en databas utvecklades och den beskrivs i rapporten. Metoden söker efter all data som har värden på en kolumn som faller inom ett intervall och där databasen är ordnad, eller nästan ordnad, på den kolumnen. Metoden ger oexakta svar om databasen är nästan ordnad på den kolumnen. Den är snabbare än en motsvarande exakt sökning. / This report considers a system where a database is used as the back-end storage for logging. A suitable method for extracting information from the logs was missing and the database design needed an improvement for log searching. An application for extracting and filtering the logs was created. An evaluation of how the database could be improved was also performed. Both parts were done in one project since they were heavily connected. The application would use the database. Since I couldn’t make arbitrary changes to the database only relatively limited changes were made in practice. Larger changes were evaluated theoretically. The application was made against the existing database, with one exception: a view was added. The report handles indexes and other methods for speeding up database searches. A method for fetching data inside an interval in a database was developed and is described in the report. The method searches for all data where the value of a column is inside an interval and the database is ordered, or almost ordered, on that column. The method gives inexact answers if the database is almost ordered on that column. It is faster than a corresponding exact search.
8

Unlocking the Potential of Biodiversity Data : Managing and Sharing Data from Biodiversity Surveys / Att låsa upp potentialen av biodiversitets data : Hantering och delning av data från Naturvärdesinventeringar

Karlsson, Tom, Rådberg, Anton January 2023 (has links)
Biodiversity surveys conducted by consulting firms generate valuable biodiversity data. However, the full potential of this data remains untapped without proper structuring and integration into a collaborative network of shared data. This thesis addresses the lack of studies exploring data management in biodiversity surveys and the specific requirements for data structuring. The objective of this Bachelor’s thesis is to introduce the concepts of data management in biodiversity surveys and collaborative data sharing, which have gained scientific popularity due to advancements in data-driven technologies and growing public interest in environmental sustainability. Using a qualitative and exploratory approach based on the Design Science Research paradigm, this research draws general conclusions on data management practices in biodiversity surveys and identifies the requirements for new data standards. The findings of this thesis serve as a starting point for ongoing efforts toward establishing a standardised structure for biodiversity survey data. Such a structure would enable meaningful insights through data-driven technologies and facilitate integration into a collaborative network of shared data. By addressing the gap in understanding data management and data standards in biodiversity surveys, this research contributes to the effective utilization of biodiversity data, ultimately supporting the achievement of sustainability goals. / Naturvärdesinventeringar utförda av konsultfirmor i Sverige genererar en betydande mängd biodiversitetsdata. För att utnyttja värdet av denna data fullt ut är strukturerad hantering och öppen samverkan och delning av data inom öppna data-ekosystem avgörande. Genom att organisera och standardisera datan på ett enhetligt sätt blir den mer användbar och kan bidra till att uppnå globala och nationella hållbarhetsmål. Trots behovet finns det brist på studier som fokuserar på datahantering vid Naturvärdesinventeringar och specifikt specificerar kraven för strukturerad hantering av data. Detta kandidatarbete introducerar ämnet datahantering från Naturvärdesinventeringar samt delning av data inom öppna data-ekosystem. Dessa ämnen har blivit alltmer populära inom forskningen på grund av framstegen inom datadrivna teknologier och det ökande allmänna intresset för miljömässig hållbarhet. Med en kvalitativ och utforskande metod baserad på Design Science Research-paradigmet drar denna forskning generella slutsatser om god praxis för datahantering vid Naturvärdesinventeringar samt identifierar krav som behöver uppfyllas för att kunna dela datan inom öppna data-ekosystem. Resultaten av detta arbete utgör en grund för fortsatt arbete mot att etablera en standardiserad struktur för biodiversitetsdata från Naturvärdesinventeringar. En sådan struktur skulle möjliggöra djupare insikter genom datadrivna teknologier samt underlätta integreringen av data inom öppna data-ekosystem. Genom att belysa kunskapsbristen inom datahantering och datastandarder vid Naturvärdesinventeringar bidrar detta arbete till en effektivare användning av biodiversitetsdata och stödjer därmed arbetet med att uppnå hållbarhetsmålen.
9

Populating a Database to be used with an Indoor Positioning System / Populera en databas som ska användas med ett inomhuspositioneringssystem

Halvarsson, Maria, Qin, Jinglan January 2022 (has links)
Indoor Positioning System (IPS) are becoming more common in many areas such as retail, warehouses, smart facilities, and manufacturing.In recent years, Bluetooth Low Energy (BLE)-based IPS has become increasingly popular due to its low cost and low energy consumption. One of the more recent updates, Bluetooth 5.1, provides the ability to compute the location using Angle of Arrival (AoA) or Angle of Departure (AoD). These new features have allowed for better positioning accuracies, where AoA-based positioning has shown sub-meter accuracy. An application area for BLE-based IPS is retail stores where the technology can benefit both the store and its customers. This thesis investigates how to populate a database to be used with an IPS in a real-life store. The assumption is that customers will have BLE equipped devices and run an application that will send the properly formatted BLE advertisements, such that an BLE IPS can locate the user in the store. Additionally, we assume that the application can use the device's e-compass or other means to determine in which direction the user's device is oriented. Based on the position and orientation of the user, the software is assumed to access a database to know what item(s) are near the customer. However, the question remains of how did this data get into the database? This degree project explores this in detail and assesses the amount of time and effort needed to populate this database and the amount of time and effort needed to keep this database up to date. This project followed an iterative Design Science Research (DSR) methodology where the artifact is the database. A relational database was used as they are widely used and joins can easily be performed and it is easy to modify existing tables. The application was developed in Spring Boot and React. Amazon Web Services (AWS) was used to host and provide the necessary services for the database and application. The result showed that the estimated time needed to populate the database in a supermarket with a sales area of 5300 m2, 36623 products, and 220 containers is 106.64 hours and 107.13 hours in the worst case assuming a walking speed of 1.4 m s-1. Updating a product would take 10.34 s and 10.37 s if the time it takes for a staff member to walk to the place where the product is located is excluded. / Inomhuspositioneringssystem (IPS) har blivit allt vanligare inom många områden. De senaste åren har Bluetooth Low Energy (BLE)-baserad inomhuspositionering blivit mer populärt på grund av egenskaper som låg kostnad och låg energikonsumption. En av de senaste versionerna; Bluetooth 5.1 kan beräkna positionen med hjälp av ankomstvinkeln (eng. Angle of Arrival (AoA)) och utgångsvinkeln (eng. Angle of Departure (AoD)). Angle of Arrival (AoA)-baserad positionering kan uppnå en noggrannhet under 1 m. Ett Bluetooth Low Energy (BLE)-baserat IPS kan tillämpas i butiker där det kan gynna både butikens medarbetare och dess kunder. Detta examensarbete kommer att undersöka hur en databas som ska användas med ett IPS i en butik kan populeras. Antagandet i detta projekt är att kunderna kommer ha BLE utrustade enheter som kör ett program som tillåter att användaren kan lokalisera sig i butiken. Dessutom antar vi att applikationen kan använda enhetens e-kompass eller annan hårdvara för att kunna avgöra i vilken riktning användarens enhet är orienterad. Baserat på användarens position och riktning, antas det att mjukvaran kan komma åt databasen och veta vilka produkter som ligger i närheten av kunden. Dock kvarstår frågan: Hur sparades denna data i databasen? Det här examensarbetet kommer alltså att undersöka hur en databas i en butik kan vara uppbyggd om vi utgår från antagandet att BLE är tillämpat i butiken. Vi kommer även bedöma hur mycket tid som krävs för att populera en databas och hålla denna databas uppdaterad. Ett iterativ arbetsätt tillämpades i examensarbetet. I projektet användes en relationsdatabas eftersom det är enkelt att utföra join-operationer och uppdatera tabbeller i databasen. Applikationen som skapades tillhandahåller funktioner för att spara, uppdatera, radera och söka produkter i databasen. Frontend var kodad i React och backend var kodad i Spring Boot. Amazon Web Services (AWS) molntjänser och deras verktyg användes för att köra applikationen och databasen. Resultatet visade att populera en databas med produkter i en mataffär med en säljyta på 5300 m2, 36623 produkter, och 220 behållare (hyllor, kylskåp, etc.) tog 106.64 timmar i bästa fall och 107.13 timmar i värsta fall om vi antar en gångfart i 1.4 m s-1.
10

Video Game Network Analysis : A Study on Tooling Design / Nätverksanalys för Videospel : En Studie om Verktygsdesign

Eksi, Murat, Pihl, Markus January 2020 (has links)
Crackshell is an indie game studio situated in Stockholm. They released particular iterations of a game called Hammerwatch, which is developed with their in-house game engine and they are still working to extend both the Hammerwatch and the game engine. Hammerwatch is a rogue-like multiplayer game played by up to four players in a single session by using peer to-peer network topology. These days, Hammerwatch has gotten significantly popular and the planned features have led the team to question of whether their network utilization is performant and in what ways they can improve this utilization. Even though they the are ones who implemented the network part of Hammerwatch, they don’t exactly have an understanding of the underlying behavior of the utilization, nor they have any way to analyze it currently. This project is aimed to design and implement a proper tooling implementation for their data analysis needs by identifying the network topology, datastructures, extraction, storage and providing an environment that is easy to analyze the network utilization. In order to achieve this aim, an iterative approach through design thinking has been conducted with Crackshell. In this regard, there were certain decisions to be made in accordance with the constraints and the purpose of the tooling, which is defined with the help of Crackshell by the conducted workshops as a module of the design thinking approach. The above-mentioned strategy allowed a swift understanding of the problemthat led the tooling to be approved as both helpful and easy-to-use by Crackshell. The data analysis tool was implemented by using a local data extraction solution, MongoDB and Jupyter Notebook in Python together with extensions that helped further with the analysis of the collected data. The results of the data analysis deemed itself as a significant success, where problems such as the game events being sent unnecessarily frequently, stale data issues, caching opportunities, and potential data clustering issues in network packets were pointed out. Crackshell was happy with the provided ability to look at their network utilization in a detailed manner, which led them to use the implemented tooling for further analysis as Hammerwatch is kept developing. / Crackshell är en indie-spelstudio belägen i Stockholm. De har släppt ett antal spel som heter Hammerwatch, vilket är utvecklat med sin egen spelmotor. Hammerwatch och dess spelmotor utvecklas fortfarande kontinuerligt. Det är ett rogue-liknande multiplayer-spel som spelas av upp till fyra spelare i en enda session med hjälp av peer-to-peer-nätverkstopologi. Hammerwatch blev snabbt populärt och de planerade funktionerna har lett teamet till en fråga om deras nätverksanvändning är effektiv ur prestandasynpunkt och på vilka sätt de kan förbättra den. Även om det är de som implementerade nätverksdelen av Hammerwatch, har de inte exakt en förståelse för det underliggande beteendet hos nätverkskommunikationen, och de har inte heller något sätt att analysera det för närvarande.Detta projekt syftade till att utforma och implementera verktyg för att dataanalys genom att identifiera nätverkstopologi, datastrukturer, extraktion, lagring och tillhandahålla en miljö som gör det lätt att analysera nätverksanvändningen. För att uppnå detta mål valdes en iterativ metod baserad på “design thinking” denna genomfördes tillsammans med Crackshell. Under designfasen fattades beslut kring begränsningar och syfte med verktyget.Ovan nämnda strategi möjliggjorde en snabb förståelse av problemet som ledde till utvecklandet av ett verktyg som både godkänts som användbart och lätt att använda av Crackshell. Dataanalysverktyget implementerades med hjälp av en lokal lösning för utvinning av data, MongoDB och Jupyter Notebook i Python tillsammans med tillägg som hjälpte till vidare med analysen av insamlade data.Resultaten av dataanalysen löste in sig som en betydande framgång, där problem som spelhändelser som skickades onödigt ofta, data som var gammal när den nådde fram, cachemöjligheter och potentiella problem med datakluster i nätverkspaket kunde hittas. Crackshell var nöjd med resultatet och nya förmågan att titta på deras nätverksanvändning på ett detaljerat sätt. De kommer kunna använda det utvecklade verktyget till framtida analyser vid fortsatt vidareutveckling av spelmotorn.

Page generated in 0.0872 seconds