• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 71
  • 1
  • Tagged with
  • 156
  • 86
  • 50
  • 47
  • 44
  • 31
  • 28
  • 23
  • 20
  • 19
  • 19
  • 18
  • 18
  • 17
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Kunimodellen : En utbildningsmodell för signaltekniker på Roslagsbanan / The Kuni model : An education model for signal maintenance technicians at Roslagsbanan

Kuniholm, Johanna January 2019 (has links)
För att kunna hitta och åtgärda signalfel på Roslagsbanan i Stockholm är det viktigt att de tekniker som arbetar med signalsystemet har rätt kunskaper och känner sig trygga i hur systemet fungerar. En del av säkerhetssystemet på Roslagsbanan kallas ATC (automatic train control) och ger tågföraren information om var tåget framför befinner sig, vilket besked nästa signal ger och hur växlar och vägbommar står. ATC ingriper även genom att bromsa tåget automatiskt om föraren inte stannar vid en stoppsignal. För att effektivisera felsökning i ATC-systemet vill företaget som sköter drift och underhåll av signalsystemet, banan och elförsörjningen på Roslagsbanan, Strukton Rail AB, genomföra utbildningar för sina signaltekniker. De vill ha en mall för hur utbildningar i felsökning kan se ut som kan användas med övningsutrustning, och som kan appliceras på andra tekniska system. För att skapa den här mallen var mina frågeställningar ”Hur kan en pedagogisk modell för utbildning inom felsökning i säkerhetssystemet ATC på Roslagsbanan se ut? Hur påverkar modellen deltagarnas aktivitet jämfört med andra utbildningar inom järnvägsbranschen?”. Det var viktigt från Struktons sida att deltagarna skulle vara aktiva och samarbeta med varandra under utbildningen. Efter att ha läst om det sociokulturella perspektivet på lärande, accelererat lärande och lärande på arbetsplatsen och även hållit intervjuer med två tekniker på Strukton och två utbildare i andra sammanhang i järnvägsbranschen för att höra vad de tycker är bra utbildning har jag skapat en utbildningsmodell för internutbildning i signalsystemet ATC, döpt till Kunimodellen. Modellen baseras på att deltagarna tillsammans löser olika felsökningsfall. Utbildningen börjar med en genomgång av systemet som kan vara olika djupgående beroende på deltagarnas förkunskaper. Sedan löser deltagarna fall genom att sitta i grupper och diskutera fram en plan för hur de ska felsöka och sedan testa sin plan praktiskt i testutrustningen där felet är planterat. Beroende på utbildningsbehov och tillgänglig tid kan de få lösa olika många och olika svåra fall, men fallen bör täcka in så många komponenter i systemet som möjligt. I slutet av utbildningen finns ett reflektionsmoment där deltagarna får berätta för varandra vad de har lärt sig under dagen. För att få en mätbar indikation på om deltagarna har lärt sig något under utbildningen får de fylla i en enkät precis innan och precis efter utbildningen med frågor om hur trygga de känner sig på en femgradig skala att felsöka i de olika komponenterna. Det genomfördes två utbildningar med Kunimodellen, där vardera innehöll två fall att lösa, för sammanlagt sju deltagare. För att mäta deltagaraktiviteten under utbildningarna fyllde jag i ett observationsschema under 20 minuter per timme där jag registrerade om varje deltagare hade talat eller inte under 40 intervall om 30 sekunder var, vilket jag även gjorde på två andra utbildningar som signaltekniker går för att få en kontrollgrupp. Dessutom hölls gruppintervjuer med deltagarna efter utbildningarna för att få höra vad de tyckte om modellen och vad som kan förbättras. Resultaten visar att deltagarna har varit nöjda i intervjuerna och tyckt att det varit en bra modell att arbeta efter, men att det saknades viss teknisk information kring testutrustningen som finns i verkligheten. De ville även ha mer djupgående information i genomgången i början av utbildningen med fokus på bland annat varför ATC-systemet finns. Deltagarnas upplevda trygghet i felsökning ökade i enkäten efter utbildningen, men de var inte entydigt mer aktiva i utbildningar med Kunimodellen än i de utbildningar som jämförts med. Kunimodellen förändrades inte särskilt mycket mellan utbildningarna. Resultaten ska dock bara ses som indikationer på grund av det lilla antalet deltagare, att deltagarna inte nödvändigtvis var representativa för hela gruppen och att alla personer som blev intervjuade kände mig som intervjuade. / To be able to find and solve signal failures in Roslagsbanan in Stockholm, it is important that the maintenance technicians working with the signalling system has the right knowledge and feel confident with how the system works. One part of the safety system at Roslagsbanan is called ATC (automatic train control) which sends information to the train driver about where adjacent trains are located and how upcoming signals, switches and road crossing barriers are set. The ATC also interferes by applying brakes if the driver does not stop at a stop signal. To make troubleshooting of the ATC system more efficient, the company maintaining the signalling system, tracks and power supply at Roslagsbanan, Strukton Rail AB, would like to further educate their maintenance technicians. They want a model for training sessions in troubleshooting that can be used with training equipment and can be applied to other technical systems. To create this model my research questions were ”What could a pedagogical model for troubleshooting education on the safety system ATC at Roslagsbanan look like? How does the model affect the participants’ activity compared to other education sessions in the railway business?”. It was important to Strukton that participants should be active and cooperate with each other during the session. After reading about the sociocultural perspective on learning, accelerated learning and workplace learning and also conducting interviews with two technicians at Strukton and two teachers in other parts of the railway business to hear what they value as good education, I created an educational model for in-service training of the signalling system ATC, named the Kuni model. The model is based on participants solving troubleshooting cases together. An education session starts with an overview of the system that can vary in detail depending on the participants’ previous knowledge. Then the participants solve cases by discussing in groups and agreeing on a plan on how they should troubleshoot, and then try their plan on the test equipment where the error is planted. Depending on their need for education and the available time, they can get a different number of cases on different levels, but the cases should try to cover as many of the system’s components as possible. At the end of the session there is time for reflection where the participants tell each other what they have learnt. To get a measurable indication of if the participants have learned anything, they fill out a questionnaire just before and just after the education with questions on how confident they feel troubleshooting the different components. Two such sessions were held with the Kuni model, each with two cases to solve, for a total of seven participants. To measure participant activity, I filled out an observation form for 20 minutes per hour where I registered whether each participant had spoken or not for 40 intervals of 30 seconds each, which I also did at two other training sessions that signalling technicians attend to get a control group. Additionally, I conducted group interviews with the participants after the sessions to see what they thought of the model and what could be improved. The results from the interviews show that the participants were content and thought it was a good model to work with, but that some technical information about the test equipment that exists in the real world was missing. They also wanted more detailed information in the initial overview with focus on, among other things, why the ATC system exists. The participants’ self-estimated confidence in troubleshooting increased after the session, but they were not significantly more active during training with the Kuni model than the control groups. The Kuni model itself did not change very much between sessions. The results should however only be seen as indications due to the small number of participants, the participants not necessarily being representative for the whole group and since all people interviewed knew me when I interviewed them.
142

Maskininlärning för automatisk extrahering av citat från recensioner : Med användning av BERT, Inter-Sentence Transformer och artificiella neuronnätverk / Machine learning for automatic extraction of quotes from reviews : Using BERT, Inter-Sentence Transformer, and artificial neural networks

Hällgren, Clara, Kristiansson, Alexander January 2021 (has links)
Att manuellt välja en eller flera meningar ur en filmrecension att använda som citat kan vara en tidskrävande uppgift. Denna rapport utvärderar övervakade maskininlärningsmodeller för att skapa en prototyp som automatiskt kan välja lämpliga citat ur recensioner. Utifrån resultatet av en litteraturstudie valdes två modeller att implementera och utvärdera på data bestående av filmrecensioner och tillhörande manuellt valda citat. Av arbetets två implementerade modeller, BERT med Inter-Sentence Transformer och BERT med ett artificiellt neuronnät, visade den sistnämnda marginellt bättre resultat. Modellerna utvärderades med ROUGE och jämfördes med tidigare studiers toppresultat inom automatisk textsummering. Slutsatsen är att de modeller som utvärderades inte presterar tillräckligt väl inom problemområdet för att motivera en driftsättning utan ytterligare utvecklingsarbete. Dock visar resultaten att det finns potential i att de utvärderade tillvägagångssätten delvis kan ersätta manuella val av citat i framtiden. / To choose a number of sentences from a movie review to use as a quote can be time consuming if done manually. This thesis evaluates supervised machine learning models to create a prototype that automatically can choose such quotes. The thesis chose, based on a literature study, two models to implement and evaluate on data consisting of movie reviews and their respective corresponding manually chosen quotes. Out of the thesis two implemented models, BERT with Inter-Sentence Transformer and BERT with an artificial neural network, the latter showed marginally better results. The models were evaluated with ROUGE and was compared with state-of-the-art models regarding automatic text summarization. The conclusion is that the models that were evaluated do not perform well enough for the problem to motivate full deployment without further development efforts. However, the results show that there is potential that the evaluated methods can partially replace manual labour when choosing quotes.
143

Machine learning multicriteria optimization in radiation therapy treatment planning / Flermålsoptimering med maskininlärning inom strålterapiplanering

Zhang, Tianfang January 2019 (has links)
In radiation therapy treatment planning, recent works have used machine learning based on historically delivered plans to automate the process of producing clinically acceptable plans. Compared to traditional approaches such as repeated weighted-sum optimization or multicriteria optimization (MCO), automated planning methods have, in general, the benefits of low computational times and minimal user interaction, but on the other hand lack the flexibility associated with general-purpose frameworks such as MCO. Machine learning approaches can be especially sensitive to deviations in their dose prediction due to certain properties of the optimization functions usually used for dose mimicking and, moreover, suffer from the fact that there exists no general causality between prediction accuracy and optimized plan quality.In this thesis, we present a means of unifying ideas from machine learning planning methods with the well-established MCO framework. More precisely, given prior knowledge in the form of either a previously optimized plan or a set of historically delivered clinical plans, we are able to automatically generate Pareto optimal plans spanning a dose region corresponding to plans which are achievable as well as clinically acceptable. For the former case, this is achieved by introducing dose--volume constraints; for the latter case, this is achieved by fitting a weighted-data Gaussian mixture model on pre-defined dose statistics using the expectation--maximization algorithm, modifying it with exponential tilting and using specially developed optimization functions to take into account prediction uncertainties.Numerical results for conceptual demonstration are obtained for a prostate cancer case with treatment delivered by a volumetric-modulated arc therapy technique, where it is shown that the methods developed in the thesis are successful in automatically generating Pareto optimal plans of satisfactory quality and diversity, while excluding clinically irrelevant dose regions. For the case of using historical plans as prior knowledge, the computational times are significantly shorter than those typical of conventional MCO. / Inom strålterapiplanering har den senaste forskningen använt maskininlärning baserat på historiskt levererade planer för att automatisera den process i vilken kliniskt acceptabla planer produceras. Jämfört med traditionella angreppssätt, såsom upprepad optimering av en viktad målfunktion eller flermålsoptimering (MCO), har automatiska planeringsmetoder generellt sett fördelarna av lägre beräkningstider och minimal användarinteraktion, men saknar däremot flexibiliteten hos allmänna ramverk som exempelvis MCO. Maskininlärningsmetoder kan vara speciellt känsliga för avvikelser i dosprediktionssteget på grund av särskilda egenskaper hos de optimeringsfunktioner som vanligtvis används för att återskapa dosfördelningar, och lider dessutom av problemet att det inte finns något allmängiltigt orsakssamband mellan prediktionsnoggrannhet och kvalitet hos optimerad plan. I detta arbete presenterar vi ett sätt att förena idéer från maskininlärningsbaserade planeringsmetoder med det väletablerade MCO-ramverket. Mer precist kan vi, givet förkunskaper i form av antingen en tidigare optimerad plan eller en uppsättning av historiskt levererade kliniska planer, automatiskt generera Paretooptimala planer som täcker en dosregion motsvarande uppnåeliga såväl som kliniskt acceptabla planer. I det förra fallet görs detta genom att introducera dos--volym-bivillkor; i det senare fallet görs detta genom att anpassa en gaussisk blandningsmodell med viktade data med förväntning--maximering-algoritmen, modifiera den med exponentiell lutning och sedan använda speciellt utvecklade optimeringsfunktioner för att ta hänsyn till prediktionsosäkerheter.Numeriska resultat för konceptuell demonstration erhålls för ett fall av prostatacancer varvid behandlingen levererades med volymetriskt modulerad bågterapi, där det visas att metoderna utvecklade i detta arbete är framgångsrika i att automatiskt generera Paretooptimala planer med tillfredsställande kvalitet och variation medan kliniskt irrelevanta dosregioner utesluts. I fallet då historiska planer används som förkunskap är beräkningstiderna markant kortare än för konventionell MCO.
144

Automatic Detection of Low Passability Terrain Features in the Scandinavian Mountains

Ahnlén, Fredrik January 2019 (has links)
During recent years, much focus have been put on replacing time consuming manual mappingand classification tasks with automatic methods, having minimal human interaction. Now it ispossible to quickly classify land cover and terrain features covering large areas to a digital formatand with a high accuracy. This can be achieved using nothing but remote sensing techniques,which provide a far more sustainable process and product. Still, some terrain features do not havean established methodology for high quality automatic mapping.The Scandinavian Mountains contain several terrain features with low passability, such asmires, shrub and stony ground. It would be of interest to anyone passing the land to avoid theseareas. However, they are not sufficiently mapped in current map products.The aim of this thesis was to find a methodology to classify and map these terrain featuresin the Scandinavian Mountains with high accuracy and minimal human interaction, using remotesensing techniques. The study area chosen for the analysis is a large valley and mountain sidesouth-east of the small town Abisko in northern Sweden, which contain clearly visible samplesof the targeted terrain features. The methodology was based on training a Fuzzy Logic classifierusing labeled training samples and descriptors derived from ortophotos, LiDAR data and currentmap products, chosen to separate the classes from each other by their characteristics. Firstly,a set of candidate descriptors were chosen, from which the final descriptors were obtained byimplementing a Fisher score filter. Secondly a Fuzzy Inference System was constructed usinglabeled training data from the descriptors, created by the user. Finally the entire study area wasclassified pixel-by-pixel by using the trained classifier and a majority filter was used to cluster theoutputs. The result was validated by visual inspection, comparison to the current map productsand by constructing Confusion Matrices, both for the training data and validation samples as wellas for the clustered- and non-clustered results.The results showed that / De senaste åren har mycket fokus lagts på att ersätta tidskrävande manuella karterings- och klassificeringsmetodermed automatiserade lösningar med minimal mänsklig inverkan. Det är numeramöjligt att digitalt klassificera marktäcket och terrängföremål över stora områden, snabbt och medhög noggrannhet. Detta med hjälp av enbart fjärranalys, vilket medför en betydligt mer hållbarprocess och slutprodukt. Trots det finns det fortfarande terrängföremål som inte har en etableradmetod för noggrann automatisk kartering.Den skandinaviska fjällkedjan består till stor del av svårpasserade terrängföremål som sankmarker,videsnår och stenig mark. Alla som tar sig fram i terrängen obanat skulle ha nytta av attkunna undvika dessa områden men de är i nuläget inte karterade med önskvärd noggrannhet.Målet med denna analys var att utforma en metod för att klassificera och kartera dessa terrängföremåli Skanderna, med hög noggrannhet och minimal mänsklig inverkan med hjälp avfjärranalys. Valet av testområde för analysen är en större dal och bergssida sydost om Abisko inorra Sverige som innehåller tydliga exemplar av alla berörda terrängföremål. Metoden baseradespå att träna en Fuzzy Logic classifier med manuellt utvald träningsdata och deskriptorer,valda för att bäst separera klasserna utifrån deras karaktärsdrag. Inledningsvis valdes en uppsättningav kandidatdeskriptorer som sedan filtrerades till den slutgiltiga uppsättningen med hjälp avett Fisher score filter. Ett Fuzzy Inference System byggdes och tränades med träningsdata fråndeskriptorerna vilket slutligen användes för att klassificera hela testområdet pixelvis. Det klassificeraderesultatet klustrades därefter med hjälp av ett majoritetsfilter. Resultatet validerades genomvisuell inspektion, jämförelse med befintliga kartprodukter och genom confusion matriser, vilkaberäknades både för träningsdata och valideringsdata samt för det klustrade och icke-klustraderesultatet.Resultatet visade att de svårpasserade terrängföremålen sankmark, videsnår och stenig markkan karteras med hög noggrannhet med hjälp denna metod och att resultaten generellt är tydligtbättre än nuvarande kartprodukter. Däremot kan metoden finjusteras på flera plan för att optimeras.Bland annat genom att implementera deskriptorer för markvattenrörelser och användandeav LiDAR med högre spatial upplösning, samt med ett mer fulltäckande och spritt val av klasser.
145

Milling accuracy improvement of a 6-axis industrial robot through dynamic analysis : From datasheet to improvement suggestions

Eriksson, Peter January 2019 (has links)
The industrial robot is a flexible and cheap standard component that can becombined with a milling head to complete low accuracy milling tasks. Thefuture goal for researchers and industry is to increase the milling accuracy, suchthat it can be introduced to more high value added operations.The serial build up of an industrial robot bring non-linear compliance andchallenges in vibration mitigation due to the member and reducer design. WithAdditive Manufacturing (AM), the traditional cast aluminum structure couldbe revised and, therefore, milling accuracy gain could be made possible due tostructural changes.This thesis proposes the structural changes that would improve the millingaccuracy for a specific trajectory. To quantify the improvement, first the robothad to be reverse engineered and a kinematic simulation model be built. Nextthe kinematic simulation process was automated such that multiple input parameterscould be varied and a screening conducted that proposed the mostprofitable change.It was found that a mass decrease in any member did not affect the millingaccuracy and a stiffness increase in the member of the second axis would increasethe milling accuracy the most, without changing the design concept. To changethe reducer in axis 1 would reduce the mean position error by 7.5 % and themean rotation error by 4.5 % approximately, but also reduces the maximumspeed of the robot. The best structural change would be to introduce twosupport bearings for axis two and three, which decreased the mean positioningerror and rotation error by approximately 8 % and 13 % respectively. / En industrirobot är en anpassningsbar och relativt billig standardkomponent.Den kan utrustas med ett fräshuvud för att genomföra fräsoperationer med låg noggrannhet. Det framtida målet för forskare och industri är att öka noggrannheten vid fräsning så att dess användningsområde kan utökas till ändamål som kräver högre precision.Den seriella uppbyggnaden av en industrirobot medför icke-linjär styvhet och därmed utmaningar vid vibrationsdämpning. Detta på grund av den strukturella uppbyggnaden då en industrirobot kan förenklat sägas vara uppbyggd av balkelement som i ledpunkterna kopplas samman av växellådor. Med friformsframställning kan en mer komplex struktur erhållas jämfört med traditionellt gjuten aluminiumkonstruktion därmed skulle en ökad noggrannhet vid fräsning kunna uppnås.Det här examensarbetet föreslår strukturella ändringar som skulle kunna öka noggrannheten vid fräsning för en specifik fräsbana. För att kvantifiera förbättringen, var det först nödvändigt att utgående från tillgänglig data konstruktion en specific robot samt att bygga en kinematisk modell. Därefter automatiserades beräkningsflödet så att ett flertal indata kunde varieras. Detta resulterande i en kombinationsstudie som visade den mest gynsamma strukturella förändringen.Det visade sig att en minskning av balkelementens massa inte påverkade nogrannheten. Att öka styvheten i balkelementet från den andra axeln skulle d¨aremot öka nogrannheten mest utan att behöva ändra robotens uppbyggnad.Att byta växellåda i första axeln kan öka positionsnogrannheten med nära 7.5 % och rotationsnoggrannheten med cirka 4.5 % men ändringen sänker samtidigt den maximala hastigheten. Den bästa strukturella förändringen vore att introducera ett stödlager vid axel två respektive tre, vilket skulle förbättra positionsnogrannheten med cirka 8 % och rotationsnogrannheten med nära 13 %.
146

Optimizing Resource Allocation in Kubernetes : A Hybrid Auto-Scaling Approach / Optimering av resurstilldelning i Kubernetes : En hybrid auto-skalningsansats

Chiminelli, Brando January 2023 (has links)
This thesis focuses on addressing the challenges of resource management in cloud environments, specifically in the context of running resource-optimized applications on Kubernetes. The scale and growth of cloud services, coupled with the dynamic nature of workloads, make it difficult to efficiently manage resources and control costs. The objective of this thesis is to explore the proactive autoscaling of virtual resources based on traffic demand, aiming to improve the current reactive approach, the Horizontal Pod Autoscaler (HPA), that relies on predefined rules and threshold values. By enabling proactive autoscaling, resource allocation can be optimized proactively, leading to improved resource utilization and cost savings. The aim is to strike a balance between resource utilization and the risk of Service Level Agreement (SLA) violations while optimizing resource usage for microservices. The study involves generating predictions and assessing resource utilization for both the current HPA implementation and the proposed solution. By comparing resource utilization and cost implications, the economic feasibility and benefits of adopting the new approach can be determined. The analysis aims to provide valuable insights into resource utilization patterns and optimization opportunities. The analysis shows significant improvements in CPU utilization and resource consumption using the proposed approach compared to the current HPA implementation. The proactive strategy allows for handling the same number of requests with fewer replicas, resulting in improved efficiency. The proposed solution has the potential to be applied to any type of service running on Kubernetes, with low computational costs. In conclusion, the analysis demonstrates the potential for resource optimization and cost savings through the proposed approach. By adopting proactive strategies and accurately predicting resource needs, organizations can achieve efficient resource utilization, system robustness, and compliance with SLA. Further research and enhancements can be explored based on the findings of this analysis. / Denna avhandling fokuserar på att adressera utmaningarna med resurshantering i molnmiljöer, specifikt i kontexten att köra resursoptimerade applikationer på Kubernetes. Skalan och tillväxten av molntjänster, tillsammans med arbetsbelastningarnas dynamiska natur, gör det svårt att effektivt hantera resurser och kontrollera kostnader. Syftet med denna avhandling är att utforska proaktiv autoskalning av virtuella resurser baserat på trafikbehov, med målet att förbättra den nuvarande reaktiva metoden, Horizontal Pod Autoscaler (HPA), som förlitar sig på fördefinierade regler och tröskelvärden. Genom att möjliggöra proaktiv autoskalning kan resurstilldelningen optimeras i förväg, vilket leder till förbättrad resursanvändning och kostnadsbesparingar. Målet är att hitta en balans mellan resursanvändning och risken för överträdelser av Service Level Agreements (SLA) samtidigt som resursanvändningen för mikrotjänster optimeras. Studien innefattar att generera förutsägelser och bedöma resursanvändning för både den nuvarande HPA-implementeringen och den föreslagna lösningen. Genom att jämföra resursanvändning och kostnadsimplikationer kan den ekonomiska genomförbarheten och fördelarna med att anta det nya tillvägagångssättet bestämmas. Analysen syftar till att ge värdefulla insikter i mönster för resursanvändning och möjligheter till optimering. Analysen visar betydande förbättringar i CPU-användning och resursförbrukning med den föreslagna metoden jämfört med den nuvarande HPA-implementeringen. Den proaktiva strategin möjliggör hantering av samma antal förfrågningar med färre replikor, vilket resulterar i förbättrad effektivitet. Den föreslagna lösningen har potential att tillämpas på alla typer av tjänster som körs på Kubernetes, med låga beräkningskostnader. Sammanfattningsvis visar analysen potentialen för resursoptimering och kostnadsbesparingar genom det föreslagna tillvägagångssättet. Genom att anta proaktiva strategier och noggrant förutsäga resursbehov kan organisationer uppnå effektiv resursanvändning, systemets robusthet och uppfyllnad av SLA:er. Vidare forskning och förbättringar kan utforskas baserat på resultaten av denna analys.
147

Round-Trip Translation : A New Path for Automatic Program Repair using Large Language Models / Tur och retur-översättning : En ny väg för automatisk programreparation med stora språkmodeller

Vallecillos Ruiz, Fernando January 2023 (has links)
Research shows that grammatical mistakes in a sentence can be corrected by machine translating it to another language and back. We investigate whether this correction capability of Large Language Models (LLMs) extends to Automatic Program Repair (APR), a software engineering task. Current generative models for APR are pre-trained on source code and fine-tuned for repair. This paper proposes bypassing fine-tuning and using Round-Trip Translation (RTT): translation of code from one programming language to another programming or natural language, and back. We hypothesize that RTT with LLMs performs a regression toward the mean, which removes bugs as they are a form of noise w.r.t. the more frequent, natural, bug-free code in the training data. To test this hypothesis, we employ eight recent LLMs pre-trained on code, including the latest GPT versions, and four common program repair benchmarks in Java. We find that RTT with English as an intermediate language repaired 101 of 164 bugs with GPT-4 on the HumanEval-Java dataset. Moreover, 46 of these are unique bugs that are not repaired by other LLMs fine-tuned for APR. Our findings highlight the viability of round-trip translation with LLMs as a technique for automated program repair and its potential for research in software engineering. / Forskning visar att grammatiska fel i en mening kan korrigeras genom att maskinöversätta den till ett annat språk och tillbaka. Vi undersöker om denna korrigeringsegenskap hos stora språkmodeller (LLMs) även gäller för Automatisk Programreparation (APR), en uppgift inom mjukvaruteknik. Nuvarande generativa modeller för APR är förtränade på källkod och finjusterade för reparation. Denna artikel föreslår att man undviker finjustering och använder Tur och retur-översättning (RTT): översättning av kod från ett programmeringsspråk till ett annat programmerings- eller naturspråk, och tillbaka. Vi antar att RTT med LLMs utför en regression mot medelvärdet, vilket tar bort buggar eftersom de är en form av brus med avseende på den mer frekventa, naturliga, buggfria koden i träningsdatan. För att testa denna hypotes använder vi åtta nyligen förtränade LLMs på kod, inklusive de senaste GPT-versionerna, och fyra vanliga programreparationsstandarder i Java. Vi upptäcker att RTT med engelska som ett mellanspråk reparerade 101 av 164 buggar med GPT-4 på HumanEval-Java-datasetet. Dessutom är 46 av dessa unika buggar som inte repareras av andra LLMs finjusterade för APR. Våra resultat belyser genomförbarheten av tur och retur-översättning med LLMs som en teknik för automatiserad programreparation och dess potential för forskning inom mjukvaruteknik.
148

Mispronunciation Detection with SpeechBlender Data Augmentation Pipeline / Uttalsfelsdetektering med SpeechBlender data-förstärkning

Elkheir, Yassine January 2023 (has links)
The rise of multilingualism has fueled the demand for computer-assisted pronunciation training (CAPT) systems for language learning, CAPT systems make use of speech technology advancements and offer features such as learner assessment and curriculum management. Mispronunciation detection (MD) is a crucial aspect of CAPT, aimed at identifying and correcting mispronunciations in second language learners’ speech. One of the significant challenges in developing MD models is the limited availability of labeled second-language speech data. To overcome this, the thesis introduces SpeechBlender - a fine-grained data augmentation pipeline designed to generate mispronunciations. The SpeechBlender targets different regions of a phonetic unit and blends raw speech signals through linear interpolation, resulting in erroneous pronunciation instances. This method provides a more effective sample generation compared to traditional cut/paste methods. The thesis explores also the use of pre-trained automatic speech recognition (ASR) systems for mispronunciation detection (MD), and examines various phone-level features that can be extracted from pre-trained ASR models and utilized for MD tasks. An deep neural model was proposed, that enhance the representations of extracted acoustic features combined with positional phoneme embeddings. The efficacy of the augmentation technique is demonstrated through a phone-level pronunciation quality assessment task using only non-native good pronunciation speech data. Our proposed technique achieves state-of-the-art results, with Speechocean762 Dataset [54], on ASR dependent MD models at phoneme level, with a 2.0% gain in Pearson Correlation Coefficient (PCC) compared to the previous state-of-the-art [17]. Additionally, we demonstrate a 5.0% improvement at the phoneme level compared to our baseline. In this thesis, we developed the first Arabic pronunciation learning corpus for Arabic AraVoiceL2 to demonstrate the generality of our proposed model and augmentation technique. We used the corpus to evaluate the effectiveness of our approach in improving mispronunciation detection for non-native Arabic speakers learning. Our experiments showed promising results, with a 4.6% increase in F1-score for the Arabic AraVoiceL2 testset, demonstrating the effectiveness of our model and augmentation technique in improving pronunciation learning for non-native speakers of Arabic. / Den ökande flerspråkigheten har ökat efterfrågan på datorstödda CAPT-system (Computer-assisted pronunciation training) för språkinlärning. CAPT-systemen utnyttjar taltekniska framsteg och erbjuder funktioner som bedömning av inlärare och läroplanshantering. Upptäckt av felaktigt uttal är en viktig aspekt av CAPT som syftar till att identifiera och korrigera felaktiga uttal i andraspråkselevernas tal. En av de stora utmaningarna när det gäller att utveckla MD-modeller är den begränsade tillgången till märkta taldata för andraspråk. För att övervinna detta introduceras SpeechBlender i avhandlingen - en finkornig dataförstärkningspipeline som är utformad för att generera feluttalningar. SpeechBlender är inriktad på olika regioner i en fonetisk enhet och blandar råa talsignaler genom linjär interpolering, vilket resulterar i felaktiga uttalsinstanser. Denna metod ger en effektivare provgenerering jämfört med traditionella cut/paste-metoder. I avhandlingen undersöks användningen av förtränade system för automatisk taligenkänning (ASR) för upptäckt av felaktigt uttal. I avhandlingen undersöks olika funktioner på fonemnivå som kan extraheras från förtränade ASR-modeller och användas för att upptäcka felaktigt uttal. En LSTM-modell föreslogs som förbättrar representationen av extraherade akustiska egenskaper i kombination med positionella foneminbäddningar. Effektiviteten hos förstärkning stekniken demonstreras genom en uppgift för bedömning av uttalskvaliteten på fonemnivå med hjälp av taldata som endast innehåller taldata som inte är av inhemskt ursprung och som ger ett bra uttal, Vår föreslagna teknik uppnår toppresultat med Speechocean762-dataset [54], på ASR-beroende modeller för upptäckt av felaktigt uttal på fonemnivå, med en ökning av Pearsonkorrelationskoefficienten (PCC) med 2,0% jämfört med den tidigare toppnivån [17]. Dessutom visar vi en förbättring på 5,0% på fonemnivå jämfört med vår baslinje. Vi observerade också en ökning av F1-poängen med 4,6% med arabiska AraVoiceL2-testset.
149

Automatisk uppspelning på Netflix: Sambandet mellan funktionen och hur mycket användaren binge-tittar / Post-Play on Netflix: The correlation between the feature and the extent to which the user binge watches

Scholz, Anne-Charlot, Andersen, Adelina January 2019 (has links)
Netflix är en streamingtjänst som har hjälpt till att mynta termen för fenomenet binge-tittande, vilket i det här arbetet definieras som att titta på minst tre avsnitt av en serie i sträck. Tjänsten använder sig av en funktion som kallas automatisk uppspelning som förhandsgranskar nästa avsnitt av en TV-serie efter att användaren har avslutat föregående avsnitt och därefter automatiskt spelar upp det efter ett antal sekunder har passerat. Frågan som undersöks i denna uppsats är huruvida automatisk uppspelning på Netflix har en inverkan på hur mycket användare binge-tittar. Detta i hopp om att användare som binge-tittar kan bli mer medvetna om en eventuell inverkan funktionen har på deras tittarvanor och därför kan göra ett mer informerat val kring att använda funktionen eller inte. Relaterad forskning som är relevant för det här arbetet är studier om flow experience, beroende, dark design patterns och tidigare undersökningar kring Netflix. Frågeställningen undersöktes genom att genomföra intervjuer med en testgrupp av studenter från KTH samt dokumentera, jämföra och analysera data från deras tittarhistorik på Netflix. Testgruppen blev ombedda att inaktivera automatisk uppspelning i en vecka och historiken från testperioden jämfördes sedan med den från veckan innan. Resultatet från studien visar att inaktiveringen av funktionen ledde till en minskning på 45 minuter av den tid som individerna binge-tittade per tillfälle. Däremot hittades ingen signifikant inverkan på tittarvanorna hos testpersonerna i form av antalet tillfällen och hur länge de binge-tittade, samt hur många avsnitt de såg per binge-tillfälle. Det konstaterades även att inaktiveringen av automatisk uppspelning ökade medvetenheten om testgruppens binge-tittande, vilket talar för att automatisk uppspelning ökar användarens flow experience. Detta skulle eventuellt kunna medföra att funktionen ökar risken för ett beroende av binge-tittande. Andra aspekter som upptäcktes under undersökningen men inte undersöktes vidare och därför kan vara fokuspunkter för efterföljande studier inkluderar den inverkan automatisk uppspelning har på tittarvanor när användaren binge-tittar aktivt versus passivt samt vid binge-tittande på olika enheter. / Netflix is a streaming service that has helped coin the term for the phenomenon of binge watching, which in this essay is defined as watching at least three episodes of a tv-series back-to-back. Netflix provides a feature called post-play which previews the next episode of a TV series after having finished the previous one and then automatically plays it after a couple of seconds. The question examined in this essay is whether post-play on Netflix has a significant impact on the extent to which users binge watch. This is done in the hope of making users who binge watch more aware of any possible influence the feature can have on their binging-habits and therefore being able to make a more informed choice about disabling post-play or not. Related research that was relevant to this paper include studies on flow experience, addiction, dark design patterns and previous studies surrounding Netflix. The thesis was investigated by conducting interviews with a test group of students from KTH as well as documenting, comparing and analyzing their viewing-history on Netflix. The test group was asked to disable post-play during a week and the viewing-history from the test period was then compared to that from the week before. The results of the study showed that disabling of the feature led to the users reducing the amount of time they spent binge-watching per binge-session by 45 minutes. There was however no evidence of the function having a significant impact on the viewing-habits of the subjects in terms of the amount of episodes watched per binge-session or the overall amount of instances and hours they binge-watched during the test period. It was found that the disabling of post-play raised the awareness of binge watching in the subject, which indicates that post-play increases the flow experience for the user. This would subsequently suggest that the feature heightens the risk for addiction to binge watching. Aspects that were discovered but not examined and could therefore be focus points of subsequent studies include the impact of post-play on viewing habits when binge watching actively vs passively and when binge watching on different units.
150

An initial investigation of Automatic Program Repair for Solidity Smart Contracts with Large Language Models / En första undersökning av automatisk lagning av solidity smarta kontrakt med stora språkmodeller

Cruz, Erik January 2023 (has links)
This thesis investigates how Large Language Models can be used to repair Solidity Smart Contracts automatically through the main contribution of this thesis, the Transformative Repair Tool. The Transformative Repair Tool achieves similar results to current state-of-the-art tools on the Smartbugs Curated Dataset and is the first published tool that uses Large Language Models to repair Solidity Smart Contracts. Moreover, the thesis explores different prompt strategies to repair Smart Contracts and assess their performance. / Detta masterexamensarbete undersöker hur stora språkmodeller kan användas för att automatisk laga solidity smarta kontrakt genom verktyget Transformative Repair Tool, som är detta masterexamensarbete huvudsakliga bidrag. Transformative Repair Tool presterar liknande som dagens bästa verktyg inom automatisk lagning av smarta kontrakt på Smartbugs Curated datasettet och är det första publicerade verktyget som just använder stora språkmodeller för att reparera solidity smarta kontrakt. Dessutom så utforskar denna rapport olika textprompts och dess prestanda för att laga smarta kontrakt

Page generated in 0.0733 seconds