• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 229
  • 36
  • Tagged with
  • 265
  • 245
  • 242
  • 184
  • 171
  • 131
  • 130
  • 114
  • 87
  • 84
  • 64
  • 55
  • 55
  • 49
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Automatic event detection oncontinuous glucose datausing neural networks / Automatisk eventdetektion på kontinuerligglukosdata med användet av neurala nätverk

Borghäll, David January 2023 (has links)
Automatically detecting events for people with diabetes mellitus using continuousglucose monitors is an important step in allowing insulin pumps to automaticallycorrect the blood glucose levels and for a more hands-off approach to thedisease. The automatic detection of events could also aid physicians whenassisting their patients when referring to their continuous glucose monitordata. A range of different deep learning algorithms has been applied forpredictions of different events for continuous glucose monitor data, such asthe onset for hyperglycemia, hypoglycemia or mealtime events. This thesisfocused on constructing sequences labelled from an unbalanced and assumedmisslabelled dataset to classify them as such using four different deep learningnetworks using convoluted neural networks and recurrent neural networks.Manual correction of the dataset allowed for only clear events starting witha high positive gradient to be labelled as positive. The classification wasperformed on exact timepoints and in time windows to allow the classificationto to be done around the beginning of an event instead of the exact timepoint.The results from using the unbalanced and assumed misslabelled datasetshowed the networks performing similarly, with high Recall and Precisionbelow 0.5, thus not found to be of use in a for automatic event detection.Further testing by using another dataset or further configurations is neededto clarify the capabilities of automatically detecting events. DDAnalytics willnot use any of the developed networks in any of their products. / Automatisk detection av event för personer med diabetes från deras kontinuerligaglukosmätare är ett viktigt steg för att låta insulinpumpar automatiskt korrigeraglukosnivåer och möjliggöra en mindre självreglering av personens diabetes.Denna automatiska detektion skulle även kunna hjälpa läkare vid samtalmed patienter och deras data från kontinuerliga glukosmätarna. En mängd avolika djupinlärningsalgoritmer har använts för förutsägelser av olika event förkontinuerlig glukosmätardata, som början av hyperglykemier, hypoglykemiereller måltider. Detta examensarbete fokuserar på skapandet av sekvenserfrån ett obalanserat och antaget inte helt korrekt markerade event i dataset,för att kunna klassificera dessa event med fyra olika djupinlärningsnätverk.Dessa nätverk bygger på konvolution och rekursiva neurala nätverk. Manuellkorrektion av datasetet möjliggjorde så att endast tydliga event som börjar meden kraftig positiv ökning av gradienten var markerade som positiva event.Klassificeringen genomfördes på både exakta tidssteg och i tidsfönster såatt början av event kunde detekteras snarare än bara det exakta tidssteget.Resultaten genom användandet av detta tidigare nämnda dataset visade liknanderesultat för samtliga nätverk, med hög Återkallelse och Precision under 0.5.Dessa resultat ledde till att nätverken inte kan antas kunna utföra automatiskevent detektion, och skulle behöva ytterligare testning på ett annat dataset medmer korrekta markerade event eller ytterligare konfigureringar på nätverken föratt verifiera dessas möjligheter att automatiskt klassificera event i kontinuerligglukosdata. DDanalytics kommer inte använda något av dessa framtagnanätverk i några av deras produkter.
42

Synthetic data generation for domain adaptation of a retriever-reader Question Answering system for the Telecom domain : Comparing dense embeddings with BM25 for Open Domain Question Answering / Syntetisk data genering för domänadaptering av ett retriever-readerbaserat frågebesvaringssystem för telekomdomänen : En jämförelse av dense embeddings med BM25 för Öpen Domän frågebesvaring

Döringer Kana, Filip January 2023 (has links)
Having computer systems capable of answering questions has been a goal within Natural Language Processing research for many years. Machine Learning systems have recently become increasingly proficient at this task with large language models obtaining state-of-the-art performance. Retriever-reader architectures have become a powerful approach for building systems that enable users to enter questions and get factual answers from a corpus of documents. This architecture uses a retriever component that fetches the most relevant documents and a reader which in turn extracts the answer from the documents. These systems commonly use transformer-based models for both components, which have been fine-tuned on a general domain of documents, such as Wikipedia. However, the performance of such systems on new domains, with different vocabularies, can be lacking. Furthermore, new domains of, for instance, company-specific documents often lack annotated data which makes training new models cumbersome. This thesis investigated how a retriever-reader-based architecture can be adapted to a corpus of Telecom documents by generating question-answer data using a large generative language model, GPT3.5. Also, it compared the usage of a dense retriever using BERT to a BM25-based retriever on the domain. Findings suggest that generating training data can be an effective approach for fine-tuning a dense retriever, increasing the Top-K retrieval accuracy by 20 points for k = 10, compared to a dense retriever fine-tuned on Wikipedia. Additionally, it is found that the sparse retriever outperforms the best dense retriever, although, there is reason to believe that the structure of the test dataset could influence this. Finally, the results also indicate that the performance of the reader is not improved by the generated data although future work is needed to draw better conclusions. / Datorsystem som kan svara på frågor har varit ett mål inom forskningsfältet naturlig språkbehandling i många år. System som använder sig av maskininlärning, så som stora språkmodeller har under de senaste åren uppnått hög prestanda. Att använda sig av en så kallad retriever-reader arkitektur har blivit ett kraftfullt tillvägagångssätt för att bygga system som gör det möjligt för användare att ställa frågor och få faktabaserade svar hämtade från en korpus av dokument. Denna arkitektur använder en retriever som hämtar den mest relevanta informationen och en reader som sedan extraherar ett svar från den hämtade informationen. Dessa system använder vanligtvis transformer-baserade modeller för båda komponenterna, som har tränats på en allmän domän som t.ex., Wikipedia. Dock kan prestandan hos dessa system vara bristfällig när de appliceras på mer specifika domäner med andra ordförråd. Dessutom saknas ofta annoterad data för mer specifika domäner, som exempelvis företagsdokument, vilket gör det svårt att träna modeller på dessa områden. I denna avhandling undersöktes hur en retriever-reader arkitektur kan appliceras på en korpus telekomdokument genom att generera data bestående av frågor och tillhörande svar, genom att använda en stor generativ språkmodell, GPT3.5. Rapporten jämförde även användandet av en BERT-baserad retriever med en BM25-baserad retriever för denna domän. Resultaten tyder på att generering av träningsdata kan vara ett effektivt tillvägagångssätt för att träna en BERT-baserad retriever. Den tränade modellen hade 20 poäng högre noggranhet för måttet Top-K retrieval vid k = 10 jämfört med samma model tränad på data från Wikipedia. Resultaten visade även att en BM25-baserad retriever hade högre noggranhet än den bästa BERT-baserade retrievern som tränats. Dock kan detta bero på datasetets utformning. Slutligen visade resultaten även att prestandan hos en tränad reader inte blev bättre genom att träna på genererad data men denna slutsats kräver framtida arbete för att undersökas mer noggrant.
43

LiDAR Perception in a Virtual Environment Using Deep Learning : A comparative study of state-of-the-art 3D object detection models on synthetic data / LiDAR perception i en virtuell miljö med djupinlärning : En jämförelsestudie av state-of-the-art 3D objekt detekteringsmodeller på syntetisk data

Skoog, Samuel January 2023 (has links)
Perceiving the environment is a crucial aspect of autonomous vehicles. To plan the route, the autonomous vehicle needs to be able to detect objects such as cars and pedestrians. This is possible through 3D object detection. However, labeling this type of data is time-consuming. By utilizing a virtual environment, there is an opportunity to generate data and label it in a quicker manner. This thesis aims to investigate how well three selected state-of-the-art models perform on a synthetic dataset of point cloud data. The results showed that the models attain a higher average precision compared to a dataset from the real world. This is mainly due to the virtual environment’s simplicity in relation to the real world’s detail. The results also suggest that models using different representations of point cloud data have different capabilities of transferring knowledge to the real world. / Att uppfatta miljön är en avgörande aspekt av autonoma fordon. Till planera rutten behöver det autonoma fordonet kunna upptäcka föremål som bilar och fotgängare. Detta är möjligt genom 3D-objektdetektering. Att märka denna typ av data är dock tidskrävande. Genom att använda en virtuell miljö, finns det en möjlighet att generera data och märka dem på ett snabbare sätt sätt. Denna avhandling syftar till att undersöka hur väl tre valda state-of-the-art modeller utför på en syntetiskt dataset av punktmolndata. Resultaten visade att modellerna uppnår en average precision jämfört med ett dataset från den riktiga världen. Detta beror främst på den virtuella miljöns enkelhet i förhållande till den verkliga världens detaljer. Resultaten tyder också på att modeller som använder olika representationer av punktmolnsdata har olika möjligheter att överföra kunskap till den verkliga världen.
44

Deep Learning for Predicting Electrical Power in 5G / Djupinlärning för att förutspå elektrisk effekt för 5G

Mellberg, Robert January 2022 (has links)
5G is currently being implemented around the world. A way to save resources in 5G could be to have several sector carriers sharing one power source. This requires being able to predict the electrical power of the sector carriers to make sure they do not exceed the capability of the power source. This thesis investigates deep learning for predicting the electrical power of a sector carrier. The chosen deep learning models are Multilayer perceptron (MLP) and Long short-term memory network (LSTM) and they are trained and evaluated on seven generated datasets from a sector carrier in Lund. The study consists of two parts, comparing the predictive performance between MLP and LSTM as well as determining the importance of each input feature on the predictions. It is concluded from the results that the MLP outperforms the LSTM in all datasets and should be the preferred model. The most important input feature for the predictions is by far the number of Resource elements (REs) used per slot. The number of Physical resource blocks (PRBs), modulation, scaling, number of streams and codebook indices have varying importance. The results can be used for guidance when implementing a real time system for which model and which input features to include. More work is required in investigating how the models perform on aggregated data from several sector carriers and determining if the models could feasibly be implemented for real time predictions. / 5G håller på att implementeras runtom i världen. Ett sätt att spara resurser i 5G skulle kunna vara att ha flera sektorbärare dela på en strömkälla. För att implementera detta behöver man kunna förutsäga effekten av sektorbärarna för att försäkra sig om att de inte kommer överstiga den maximala effekten strömkällan tillåter. I denna avhandling undersöks djupinlärning för att förutsäga effekten av en sektorbärare. De använda djupinlärningsmodellerna är Multilayer perceptron (MLP) och Long short-term memory (LSTM) och de tränas och utvärderas på sju stycken olika dataset genererade från en sektorbärare i Lund. Studien är uppdelad i två delar, en del där MLP och LSTM jämförs med hänsyn till deras prediktiva förmåga och en del där varje datavariabel utvärderas till hur viktig den är för modellernas förutsägelser. Från resultaten kunde slutsatsen dras att MLP presterar bättre än LSTM på alla sju dataset och att MLP bör väljas före LSTM. Den viktigaste datavariabeln är antalet resurs element med en signifikant skillnad jämfört med övriga datavariabler. Antalet fysiska resursblock, modulationen, skalningsfaktorn, antalet strömmar och kodboksindex har varierande viktighet. Resultaten kan användas som stöd för implementering av realtid system för att bestämma lämplig model och data. Mer arbete krävs för att undersöka hur modellerna presterar på data som är aggregerat från flera sektorbärare samt undersöka huruvida det är genomförbart att implementera ett realtid system för förutsägelser utifrån beräkningskraft och kostandsanalys.
45

Investigating the Use of Deep Learning Models for Transactional Underwriting / En Undersökning av Djupinlärningsmodeller för Transaktionell Underwriting

Tober, Samuel January 2022 (has links)
Tabular data is the most common form of data, and is abundant throughout crucial industries, such as banks, hospitals and insurance companies. Albeit, deep learning research has largely been dominated by applications to homogeneous data, e.g. images or natural language. Inspired by the great success of deep learning in these domains, recent efforts have been made to tailor deep learning architectures for tabular data. In this thesis, two such models are selected and tested in the context of transactional underwriting. Specifically, the two models are evaluated in terms of predictive performance, interpretability and complexity, to ultimately see if they can compete with gradient boosted tree models and live up to industry requirements. Moreover, the pre-training capabilities of the deep learning models are tested through transfer learning experiments across different markets. It is concluded that the two models are able to outperform the benchmark gradient boosted tree model in terms of RMSE, and moreover, pre-training across markets gives a statistically significant improvement in RMSE, on a level of 0.05. Furthermore, using SHAP, together with model specific explainability methods, it is concluded that the two deep learning models’ explainability is on-par with gradient boosted tree models. / Tabelldata är den vanligaste formen av data och finns i överflöd i viktiga branscher, såsom banker, sjukhus och försäkringsbolag. Även om forskningen inom djupinlärning till stor del dominerats av tillämpningar på homogen data, t.ex. bilder eller naturligt språk. Inspirerad av den stora framgången för djupinlärning inom dessa domäner, har nyligen ansträngningar gjorts för att skräddarsy djupinlärnings-arkitekturer för tabelldata. I denna avhandling väljs och testas två sådana modeller på problemet att estimera vinst marginalen på en transaktion. Specifikt utvärderas de två modellerna i termer av prediktiv prestanda, tolkningsbarhet och komplexitet, för att i slutändan se om de kan konkurrera med gradient boosted tree-modeller och leva upp till branschkrav. Dessutom testas för-träningsförmågan hos djupinlärningmodellerna genom överföringsexperiment mellan olika marknader. Man drar slutsatsen att de två modellerna kan överträffa benchmark gradient boosted tree-modellen när det gäller RMSE, och dessutom ger för-träning mellan marknader en statistiskt signifikant förbättring av RMSE, på en nivå av 0,05. Vidare, med hjälp av SHAP, tillsammans med modellspecifika förklaringsmetoder, dras slutsatsen att de två djupinlärning-modellernas förklaringsbarhet är i nivå med gradient boosted tree-modellerna.
46

Evaluation of generative machine learning models : Judging the quality of generated data with the use of neural networks / Evaluering av generativa maskininlärningsmodeller : Evaluering av genererad data med hjälp av neurala nätverk

Yousefzadegan Hedin, Sam January 2022 (has links)
Generative machine learning models are capable of generating remarkably realistic samples. Some models generate images that look entirely natural, and others generate text that reads as if a human wrote it. However, judging the quality of these models is a major challenge. Today, the most convincing method is to use humans to evaluate the quality of generated samples. However, humans are biased, costly, and inefficient. Therefore, there is a great need for automatic methods. MAUVE is a recent advancement in the evaluation of generative text models. It compares generated data with real data and returns a score that quantifies their similarity. This is accomplished with the help of a neural network, which provides the understanding of text required to evaluate its quality. MAUVE is motivated by its correspondence with human judgment, and this is shown in multiple experiments. This thesis contributes in two significant ways: First, we complement experiments and discussions made in the original paper. Importantly, we demonstrate that MAUVE sometimes fails to recognize quality differences between generative models. This failure is due to the choice of neural network. Later, we demonstrate that MAUVE can be used for more than just text evaluation. Specifically, we show that it can be applied to images. This is accomplished by using a neural network specialized in image recognition. However, the steps can be repeated for any data type, meaning that MAUVE can potentially become a more generalized measurement than suggested in the original paper. Our second contribution is an extension toMAUVEcalled Sequence-MAUVE (S-MAUVE). The score MAUVE produces can be seen as an average of the overall quality of generated text. However, some generative models initially produce excellent text, but see drops in quality as the sequences grow longer. Therefore, a single score that represents entire sequences is likely to omit important details. Instead, S-MAUVE evaluates generated text at the smallest possible level. The result is a sequence of scores, which give users more detailed feedback about the behavior of a generative model. / Generativa maskininlärningsmodeller kan generera data av enastående kvalitet. Vissa modeller genererar bilder av ansikten som ser helt realistiska ut, och andra genererar text som verkar varit skriven av en människa. Trots detta så är det inte klart hur dessa modeller ska evalueras. Idag så är den främsta metoden mänsklig evaluering: En person får utgöra huruvida generade data verkar realistisk eller inte. Mänsklig evaluering har flera nackdelar. Människor är partiska, dyra och långsamma. Därför behövs det automatiska evalueringsverktyg. MAUVE är ett ny metod för att evaluera generative textmodeller som jämför hur lik genererad data är med äkta data. Detta åstadkoms med hjälp av ett neuralt nätverk, som bidrar med den förståelse av text som krävs för att evaluera den. MAUVE är motiverat av att dess omdömen överensstämmer med mänsklig evaluering. Den här uppsatsen bidrar på två sätt. Till att börja med komplementerar vi experiment och diskussioner gjorda i den ursprungliga rapporten o m MAUVE. Till exempel så visar vi att MAUVE ibland inte lyckas känna av kvalitetsskillnader mellan olika generativa modeller. Detta på grund av val av neuralt nätverk. Efteråt så demonstrerar vi att MAUVE kan appliceras på andra typer av data än text. Mer specifikt så applicerar vi MAUVE på bilder. Detta åstadkoms genom att använda ett neuralt nätverk specialiserat på bildigenkänning, istället för text. Stegen vi följer kan upprepas för vilken typ av data som helst, vilket innebär att MAUVE kan användas som ett mer generellt mått än vad den ursprungliga artikeln ger sken för. Vårt andra bidrag är att utveckla MAUVE till det vi kallar för S-MAUVE. MAUVE använder bara sammanfattningar av hela texter som bas för sina jämförelser. En konsekvens av det är att den endast gör påståenden om textdatas genomsnittliga kvalitet. Men, det är välkänt att kvaliteten hos genererad textdata kan variera beroende på var i texten man befinner sig. Många generativa textmodeller producerar sekvenser som är verklighetstrogna i början, men blir sämre och repetitiva senare. Till skillnad från MAUVE så evaluerar S-MAUVE genererad text på minsta möjliga detaljnivå. Resultaten är en sekvens av poäng, som ger användare mer information om egenskaperna hos den studerade generativa modellen.
47

Data-Driven Motion Planning : With Application for Heavy Duty Vehicles / Datadriven rörelseplanering : Med tillämpning för tunga fordon

Palfelt, Oscar January 2022 (has links)
Motion planning consists of finding a feasible path of an object between an initial state and a goal state, and commonly constitutes a sub-system of a larger autonomous system. Motion planners that utilize sampling-based algorithms create an implicit representation of the search space via sampling said search space. Autonomous systems that rely on real-time motion planning benefit from the ability of these algorithms to quickly compute paths that are optimal or near optimal. For sampling-based motion planning algorithms, the sampling strategy greatly affects the convergence speed of finding these paths, i.e., how the sampling distribution is shaped within the search space. In baseline approaches, the samples may be drawn with uniform probability over this space. This thesis project explores a learning-based approach that can utilize experience from previous successful motion plans to provide useful information in novel planning scenarios, as a means of improvement over conventional motion planning methods. Specifically, the focus has been on learning the sampling distributions in both the state space and the control space of an autonomous ground vehicle. The innovatory parts of this work consist of (i) learning the control space sampling distributions, and (ii) learning said distributions for a tractor-trailer system. At the core of the method is an artificial neural network consisting of a conditional variational autoencoder. This artificial neural network is capable of learning suitable sampling distributions in both the state space and control space of a vehicle in different planning scenarios. The method is tested in four different environments and for two kinds of vehicles. Evaluation is partly done by comparison of results with a conventional motion planning algorithm. These evaluations indicates that the artificial neural network can produce valuable information in novel planning scenarios. Future work, primarily on how the artificial neural network may be applied to motion planning algorithms, is necessary to draw further conclusions. / Rörelseplanering består av att hitta en genomförbar bana för ett objekt mellan ett initialtillstånd och ett måltillstånd, och utgör vanligtvis ett delsystem av ett större autonomt system. Rörelseplanerare som använder provtagningssbaserade algoritmer skapar en implicit representation av sökutrymmet via provtagning av sökutrymmet. Autonoma system som förlitar sig på rörelseplanering i realtid drar nytta av dessa algoritmers förmåga att snabbt beräkna banor som är optimala eller nästan optimala. För provtagningssbaserade rörelseplaneringsalgoritmer påverkar provtagningsstrategin i hög grad konvergenshastigheten för att hitta dessa vägar, dvs. hur provtagningsfördelningen är formad inom sökutrymmet. I standardmetoder kan stickproven dras med jämn sannolikhet över detta utrymme. Detta examensarbete utforskar en lärande-baserat metod som kan utnyttja erfarenheter från tidigare lyckade rörelseplaner för att tillhandahålla användbar information i nya planeringsscenarier, som ett medel för förbättring jämfört med konventionella rörelseplaneringsmetoder. Specifikt har fokus legat på att lära sig provtagningssfördelningarna i både tillståndsrummet och styrsignals-rummet för ett autonomt markfordon. De nyskapande delarna av detta arbete består av att (i) lära sig kontrollutrymmessamplingsfördelningarna, och (ii) inlärning av nämnda provtagningsfördelningarna för ett traktor-släpsystem. Kärnan i metoden är ett artificiellt neuralt nätverk bestående av en conditional variational autoencoder. Detta artificiella neurala nätverk är kapabelt att lära sig lämpliga provtagningsfördelningar i både tillståndsrummet och kontrollrummet för ett fordon i olika planeringsscenarier. Metoden testas i fyra olika miljöer och för två olika av fordon. Utvärdering görs delvis genom jämförelse av resultat med en konventionell rörelseplaneringsalgoritm. Dessa utvärderingar tyder på att det artificiella neurala nätverket kan producera värdefull information i nya planeringsscenarier. Mer forskning, i första hand med hur det artificiella neurala nätverket kan tillämpas på rörelseplaneringsalgoritmer, är nödvändigt för att dra ytterligare slutsatser.
48

Deep Learning for the prediction of RASER-MRI profiles

Arvidsson, Filip, Bertilson, Jonas January 2023 (has links)
Magnetic resonance imaging (MRI) is a critical diagnostic tool in medical practice, enabling non-invasive visualization of anatomy and physiological processes. Nonetheless, MRI has inherent spatial resolution limitations, which may limit its diagnostic capabilities. Recently, a new technology employing Radio-frequency Amplification by Stimulated emission of Radiation (RASER) has emerged to improve MRI resolution. Similar to a laser, RASER-MRI signals spontaneously emerge without the need for a radio frequency pulse(RF), which additionally enhances the safety of the process. However, RASER-MRI images frequently exhibit a significant presence of image artifacts due to the nonlinear behavior between image slices. This master’s thesis aims to determine whether image artifacts can be eliminated using deep artificial neural networks. The neural networks were trained on purely synthetic data, due to the complexity of real RASER experiments. The implementation was split into three phases. The first phase focused on the reconstruction of 1D RASER profiles. The test done during this phase showed that the reconstruction was preferably made with a Convolutional Neural Network (CNN). The CNN does not require knowledge of the total population inversion, and the ideal input was the most volatile RASER spectrum. The second phase was dedicated to reconstructing simulated RASER-MRI images. This phase started with the creation of a random RASER-MRI image generator which was used to generate the training and testing data. The reconstruction was successful and was further enhanced with an image-to-image Unet. The entire deep learning pipeline did not suffice for real data, which sparked the third phase. The third phase focused on simulating more realistic RASER data. The new data improved the result, however, the reconstruction did not suffice. Further research needs to be done into ways to make the simulation more realistic to improve the reconstruction of the real RASER-MRI image. However, this project concludes that simulated RASER-spectra can be reconstructed using deep learning.
49

Semantic Similarity Comparison of Political Statements by ChatGPT and Political Representatives / Jämförelse i semantisk likhet mellan politiska uttalanden från ChatGPT och från politiska representanter

Lihammer, Sebastian January 2023 (has links)
ChatGPT is a recently released chatbot that through the use of deep learning can generate human-like statements on a variety of topics. Deep learning models have a potential to affect politics. They can for instance be used as a source for political information or be used to create and spread political messages. ChatGPT is itself able to describe the stances of different political parties and can generate political messages based on these stances. In this thesis, a semantic similarity program, utilizing the models Stanza and Sentence-BERT, is implemented. This program is used to compare the semantic similarity of political statements and information generated by ChatGPT to authentic statements and information written by Swedish political representatives prior to the 2022 general election. The results of the thesis demonstrate that ChatGPT with relatively high accuracy (over 60 % when three options are available) is able to correctly reflect the standpoints of Swedish political parties in specific political questions. When compared to authentic political information using semantic similarity, there is no discernible difference between the scores achieved by ChatGPT’s statements and the scores achieved by authentic statements from political representatives. This might reflect that ChatGPT performs well in semantically mimicking the style used by political representatives. Alternatively, the result could indicate limited usefulness of semantic similarity as a comparative method for political statements. / ChatGPT är en nyligen släppt chattrobot som med hjälp av djupinlärning kan skapa människo-liknande uttalanden inom en rad olika ämnen. Det är möjligt för djupinlärningsmodeller att ha politisk påverkan. Djupinlärningsmodeller kan exempelvis användas som källor för politisk information eller användas för att skapa och sprida politiska meddelanden. ChatGPT har förmågan att beskriva ståndpunkterna hos olika politiska partier samt generera politiska meddelanden baserat på dessa ståndpunkter. I denna studie implementeras ett program för att avgöra semantisk likhet mellan texter. Programmet använder modellerna Stanza och Sentence-BERT. Med hjälp av programmet jämförs semantisk likhet mellan politiska uttalanden och information genererad av ChatGPT, och autentiska uttalanden och autentisk information skriven av svenska politiska representanter innan riksdagsvalet i Sverige 2022. Studiens resultat visar att ChatGPT med relativt hög korrekthet (över 60 % när tre alternativ är möjliga) lyckas framföra samma ståndpunkter som riktiga representanter från de olika partierna i specifika politiska frågor. Ingen märkbar skillnad i semantisk likhet hittas när ChatGPT:s och riktiga representanters uttalanden jämförs med riktig politisk information. Detta kan visa på att ChatGPT är bra på att semantiskt härma stilen som används av politiska representanter. Resultatet kan alternativt tolkas som tydande på att semantisk likhet har ett begränsat värde som jämförelsemetod för politiska texter.
50

A visual approach to web information extraction : Extracting information from e-commerce web pages using object detection

Brokking, Alexander January 2023 (has links)
Internets enorma omfattning har resulterat i ett överflöd av information som är oorganiserad och spridd över olika hemsidor. Det har varit motivationen för automatisk informationsextraktion av hemsidor sedan internets begynnelse. Nuvarande strategier använder främst heuristik och metoder för naturlig språkbehandling på HTML-koden för hemsidorna. Med tanke på att hemsidor utformas för att vara visuella och interaktiva för mänsklig användning utforskar denna studie potentialen för datorseendebaserade metoder för informationsextraktion från webben. I denna studie tränas och utvärderas state-of-the-art modeller för objektigenkänning i flera experiment på dataset av e-handelswebbplatser för att utvärdera modellernas potential. Resultaten indikerar att en förtränad Conditional DETR-arkitektur med en ResNet50 ryggrad kan finjusteras för att konsekvent identifiera måletiketter från nya domäner med ett mAP_50 >80%. Visuell extraktion på nya exempel inom kända domänstrukturer visade en ännu högre mAP_50 över 98%. Slutligen granskar denna studie den nuvarande litteraturen för dataset som kan användas inom visuell extraktion och belyser vikten av domänmångfald i träningsdata. Genom detta arbete ges initiala insikter i tillämpningen av datorseende inom informationsextraktion från webben, i hopp om att inspirera vidare forskning i denna riktning. / The vastness of the internet has resulted in an abundance of information that is unorganized and dispersed across numerous web pages. This has been the motivation for automatic web page extraction since the dawn of the internet era. Current strategies primarily employ heuristics and natural language processing methods to the HTML of web pages. However, considering the visual and interactive nature of web pages designed for human use, this thesis explores the potential of computer-vision-based approaches for web page extraction. In this thesis, state-of-the-art object detection models are trained and evaluated in several experiments on datasets of e-commerce websites to determine their viability. The results indicate that a pre-trained Conditional DETR architecture with a ResNet50 backbone can be fine-tuned to consistently identify target labels of new domains with an mAP_50 >80%. Visual extraction on new examples within known domain structures showed an even higher mAP_50 above 98%. Finally, this thesis surveys the state-of-the datasets that can be used for visual extraction and highlights the importance of domain diversity in the training data. Through this work, initial insights are offered into the application of computer vision in web page extraction, with the hope of inspiring further research in this direction.

Page generated in 0.1414 seconds