• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

En objektorienterad, semistrukturerad databas för lagring av proteininformation

Ahlgren, Linus January 2001 (has links)
<p>Under det senaste årtiondet har molekylärbiologin genomgått stora förändringar. Genom utvecklingen av tekniker för DNA-sekvensiering har man kunnat utforska stora mängder information. Denna information lagras i biodatabaser som i många fall är länkade med varandra för att ge användaren ett bredare sökfält. SWISS-PROT är ett exempel på en sådan biodatabas som lagrar proteininformation.</p><p>Användare som har mindre kunskap om databasens uppbyggnad och unika identifierare kan dock stöta på problem i form av en mängd sökresultat, där endast en mindre del är intressanta för användaren. Missförstånd och tvetydigheter kan också uppstå i länkade biodatabaser, då databaserna har olika uppbyggnad och definitioner på olika "byggstenar" i databasen.</p><p>Arbetet i denna rapport ska därför fokusera på att skapa en databas för molekylärbiologidata som tar hand om dessa problem. För att kunna åstadkomma detta ska ett databashanteringssystem som har funktionaliteter som erbjuder lösningar till dessa problem användas. Den data, i form av proteininformation, som ska lagras hämtas från en SWISS-PROT-domän. I arbetet kommer databashanteringssystemet Lore att användas.</p>
2

XML-baserade dataöverföringar i flera steg

Jildenhed, Mattias January 2004 (has links)
<p>Behovet av datautbyte mellan olika system, ökar ständigt. Därför byggs fler och fler system med möjligheten att utbyta och överföra data via XML. Då olika system lagrar data på olika sätt, måste de strukturella och innehållsmässiga skillnaderna hanteras innan data kan överföras.</p><p>Syftet med detta arbete är att undersöka hur dataöverföringar mellan XML-dokument i flera steg påverkas av strukturella eller innehållsmässiga skillnader. Arbetet visar i vilka fall data inte kan överföras korrekt. Studien utförs genom en experimentell metod. Experimenten genomförs med en applikation som utvecklats för ändamålet.</p><p>Resultatet från studien visar att problem kan uppstår då käll- och målstrukturen lagrar ett element eller attribut med olika datatyper, de övriga strukturmässiga skillnaderna genererar få problem. De innehållsmässiga skillnaderna medför att data inte kan identifieras då attributet saknas i käll- eller målstrukturen.</p>
3

XML-baserade dataöverföringar i flera steg

Jildenhed, Mattias January 2004 (has links)
Behovet av datautbyte mellan olika system, ökar ständigt. Därför byggs fler och fler system med möjligheten att utbyta och överföra data via XML. Då olika system lagrar data på olika sätt, måste de strukturella och innehållsmässiga skillnaderna hanteras innan data kan överföras. Syftet med detta arbete är att undersöka hur dataöverföringar mellan XML-dokument i flera steg påverkas av strukturella eller innehållsmässiga skillnader. Arbetet visar i vilka fall data inte kan överföras korrekt. Studien utförs genom en experimentell metod. Experimenten genomförs med en applikation som utvecklats för ändamålet. Resultatet från studien visar att problem kan uppstår då käll- och målstrukturen lagrar ett element eller attribut med olika datatyper, de övriga strukturmässiga skillnaderna genererar få problem. De innehållsmässiga skillnaderna medför att data inte kan identifieras då attributet saknas i käll- eller målstrukturen.
4

En objektorienterad, semistrukturerad databas för lagring av proteininformation

Ahlgren, Linus January 2001 (has links)
Under det senaste årtiondet har molekylärbiologin genomgått stora förändringar. Genom utvecklingen av tekniker för DNA-sekvensiering har man kunnat utforska stora mängder information. Denna information lagras i biodatabaser som i många fall är länkade med varandra för att ge användaren ett bredare sökfält. SWISS-PROT är ett exempel på en sådan biodatabas som lagrar proteininformation. Användare som har mindre kunskap om databasens uppbyggnad och unika identifierare kan dock stöta på problem i form av en mängd sökresultat, där endast en mindre del är intressanta för användaren. Missförstånd och tvetydigheter kan också uppstå i länkade biodatabaser, då databaserna har olika uppbyggnad och definitioner på olika "byggstenar" i databasen. Arbetet i denna rapport ska därför fokusera på att skapa en databas för molekylärbiologidata som tar hand om dessa problem. För att kunna åstadkomma detta ska ett databashanteringssystem som har funktionaliteter som erbjuder lösningar till dessa problem användas. Den data, i form av proteininformation, som ska lagras hämtas från en SWISS-PROT-domän. I arbetet kommer databashanteringssystemet Lore att användas.
5

Automated Extraction of Data from Insurance Websites / Automatiserad Datautvinning från Försäkringssidor

Hodzic, Amar January 2022 (has links)
Websites have become a critical source of information for many organizations in today's digital era. However, extracting and organizing semi-structured data from web pages from multiple websites poses challenges. This is especially true when a high level of automation is desired while maintaining generality. A natural progression in the quest for automation is to extend the methods for web data extraction from only being able to handle a single website to handling multiple ones, usually within the same domain. Although these websites share the same domain, the structure of the data can vary greatly. A key question becomes how generalized such a system can be to encompass a large number of websites while maintaining adequate accuracy. The thesis examined the efficiency of automated web data extraction on multiple Swedish insurance company websites. Previous work showed that good results can be achieved with a known English data set that contains web pages from a number of domains. The state-of-the-art model MarkupLM was chosen and trained with supervised learning using two pre-trained models, a Swedish and an English model, on a labeled training set of car insurance customers' web data using zero-shot learning. The results show that such a model can achieve good accuracy on a domain scale with Swedish as the source language with a relatively small data set by leveraging pre-trained models. / Webbsidor har blivit en kritisk källa av information för många organisationer idag. Men att extrahera och strukturera semistrukturerade data från webbsidor från flertal webbplatser är en utmaning. Speciellt när det är önskvärt med en hög nivå av automatisering i kombination med en generaliserbar lösning. En naturlig utveckling i målat av automation är att utöka metoderna för datautvinning från att endast kunna hantera en specifik webbplats till flertal webbplatser inom samma domän. Men även om dessa webbplatser delar samma domän så kan strukturen på data variera i stor utsträckning. En nyckelfråga blir då hur pass generell en sådan lösning kan vara samtidigt som en adekvat prestanda uppehålls. Detta arbete undersöker prestandan av automatiserad datautvinning från ett flertal svenska försäkringssidor. Tidigare arbete visar på att goda resultat kan uppnås på ett känt engelskt dataset som innehåller webbsidor från ett flertal domän. Den toppmoderna modellen MarkupLM valdes och blev tränad med två olika förtränade modeller, en svensk och en engelsk modell, med märkt data från konsumenters bilförsäkringsdata. Modellen blev utvärderad på data från webbplatser som inte ingick i träningsdatat. Resultaten visar på att en sådan modell kan nå god prestanda på domänskala när innehållsspråket är svenska trots en relativt liten datamängd när förtränade modeller används.
6

Semantisk interoperabilitet för hantering av XML

Lindgren, Ida, Norman, Isabelle January 2014 (has links)
Business Analytics används idag i ökad grad i organisationer som grund till beslutsfattande. Ett av villkoren för att kunna använda sig av Business Analytics för att utföra analyser av data från olika källor är att det finns interoperabilitet mellan dem. Syftet med den här studien är att undersöka om det är möjligt att skapa en IT-artefakt som kan hämta data ifrån flertalet XML-dokument med olika struktur för att uppnå semantisk interoperabilitet och på så vis möjliggöra för Business Analytics. Med olika struktur menar vi att benämningarna på taggarna skiljer sig språkmässigt men har samma semantiska betydelse. Lösningen skapas genom forskningsstrategin Design Science vilket innebär att en IT-artefakt utvecklas som kunskapsbidrag, och visar att en implementation av en lösning är möjlig för de semantiska problem vi identifierat. Resultatet av utvecklingen är en flexibel IT-artefakt där en användare kan koppla samman och hämta data från XML-filer med olika struktur. Denna sammankoppling skapas genom att användaren själv kan bygga upp och använda en ontologi med de ord som används som taggar i XML-filerna. Genom att använda ontologier på det här sättet visar vi med vår forskning att det är möjligt att uppnå semantisk interoperabilitet mellan XML-filer med olika struktur. Utifrån resultatet av den IT-artefakt vi skapar kan vi dra slutsatser om att det går att skapa en generell lösning för denna typ av problematik. / Today Business Analytics is becoming increasingly popular and is utilized by organizations to analyze data that is used as support for decision-making. Business Analytics requires that interoperability exists between the data sources used to gather and compile data for analysis to ensure that data can be correctly interpreted. Therefore, the aim of this study is to investigate the possibility of creating an IT-artifact for querying several XML-documents consisting of various structures in order to achieve semantic interoperability, thus enabling Business Analytics. The structural differences considered in this report focuses on when XML-tags have been given different names that essentially have the same semantic meaning. The research strategy Design Science has been used when creating the solution. As a result of the research strategy the knowledge contribution is an IT-artifact. The IT-artifact is a Proof of concept that demonstrates a possible implementation of a solution that handles the semantic problems identified in this report. The result of the development is a flexible application that users can utilize to gather data from XML-files with different structures. This is made possible by letting the user create an ontology containing the tag names from the XML-files. By using ontologies like this we have given proof that it is possible to accomplish interoperability between XML-files with different structures. The conclusion that can be drawn from the development of the IT-artifact is that it is possible to create a general solution for the identified problem.
7

Streamlining Certification Management with Automation and Certification Retrieval : System development using ABP Framework, Angular, and MongoDB / Effektivisering av certifikathantering med automatisering och certifikathämtning : Systemutveckling med ABP Framework, Angular och MongoDB

Hassan, Nour Al Dine January 2024 (has links)
This thesis examines the certification management challenge faced by Integrity360. The decentralized approach, characterized by manual processes and disparate data sources, leads to inefficient tracking of certification status and study progress. The main objective of this project was to construct a system that automates data retrieval, ensures a complete audit, and increases security and privacy.  Leveraging the ASP.NET Boilerplate (ABP) framework, Angular, and MongoDB, an efficient and scalable system was designed, developed, and built based on DDD (domain-driven design) principles for a modular and maintainable architecture. The implemented system automates data retrieval from the Credly API, tracks exam information, manages exam vouchers, and implements a credible authentication system with role-based access control.  With the time limitations behind the full-scale implementation of all the planned features, such as a dashboard with aggregated charts and automatic report generation, the platform significantly increases the efficiency and precision of employee certification management. Future work will include these advanced functionalities and integrations with external platforms to improve the system and increase its impact on operations in Integrity360.

Page generated in 0.081 seconds