• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 27
  • Tagged with
  • 56
  • 35
  • 31
  • 26
  • 25
  • 24
  • 15
  • 15
  • 14
  • 13
  • 13
  • 12
  • 11
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Using a Deep Generative Model to Generate and Manipulate 3D Object Representation / Att använda en djup generativ modell för att skapa och manipulera 3D-objektrepresentation.

Hu, Yu January 2023 (has links)
The increasing importance of 3D data in various domains, such as computer vision, robotics, medical analysis, augmented reality, and virtual reality, has gained giant research interest in generating 3D data using deep generative models. The challenging problem is how to build generative models to synthesize diverse and realistic 3D objects representations, while having controllability for manipulating the shape attributes of 3D objects. This thesis explores the use of 3D Generative Adversarial Networks (GANs) for generation of 3D indoor objects shapes represented by point clouds, with a focus on shape editing tasks. Leveraging insights from 2D semantic face editing, the thesis proposes extending the InterFaceGAN framework to 3D GAN model for discovering the relationship between latent codes and semantic attributes of generated shapes. In the end, we successfully perform controllable shape editing by manipulating the latent code of GAN. / Den ökande betydelsen av 3D-data inom olika områden, såsom datorseende, robotik, medicinsk analys, förstärkt verklighet och virtuell verklighet, har väckt stort forskningsintresse för att generera 3D-data med hjälp av djupa generativa modeller. Det utmanande problemet är hur man bygger generativa modeller för att syntetisera varierande och realistiska 3Dobjektrepresentationer samtidigt som man har kontroll över att manipulera formattributen hos 3D-objekt. Denna avhandling utforskar användningen av 3D Generative Adversarial Networks (GANs) för generering av 3Dinomhusobjektformer representerade av punktmoln, med fokus på formredigeringsuppgifter. Genom att dra nytta av insikter från 2D-semantisk ansiktsredigering föreslår avhandlingen att utvidga InterFaceGAN-ramverket till en 3D GAN-modell för att upptäcka förhållandet mellan latenta koder och semantiska egenskaper hos genererade former. I slutändan genomför vi framgångsrikt kontrollerad formredigering genom att manipulera den latenta koden hos GAN.
42

Improving Dialogue Context and Repeatability in Human-Robot Interaction / Förbättra dialogkontext och repeterbarhet vid människa-robotinteraktion

Wilczek, Andrej January 2021 (has links)
Natural Language Generation and generating believable verbal communication are critical components in the development of social robots. The work presented in this paper is based on the sequence-to-sequence model and is focused on improving context and repeatability through the inclusion of task- specific information. The data set on which this study was conducted was collected through a Wizard of Oz framework using a social robot. The generated dialogue was evaluated through a survey designed to measure the adherence to the game context and perceived human qualities. The human qualities were measured using attributes from two well-known attribute scales intended for evaluating Human-Robot Interaction. The evaluation results indicate that the quality of the generated dialogue is on par with examples of actual dialogue spoken during the experiments. This paper also highlights interesting aspects regarding the usefulness of transfer learning in narrow contextual applications. The results presented in this paper show that it is possible to improve the contextual nature of generated dialogue by including additional task-specific information. / Generering av naturligt språk och uppgiften att skapa trovärdig verbal kommunikation är kritiska komponenter i utvecklingen av sociala robotar. Arbetet som presenteras i denna uppsats är baserat på sekvens-till-sekvens-modellen och fokuserar på att förbättra sammanhang och repeterbarhet genom att inkludera uppgiftspecifik information. Datauppsättningen som denna studie genomförde samlades in via ett Wizard of Oz-ramverk med hjälp av en social robot. Den genererade dialogen utvärderades genom en onlineundersökning utformad för att mäta efterlevnaden av spelskontexten och upplevda mänskliga egenskaper. Dessa mänskliga egenskaper mättes med attribut från två välkända attributskalor avsedda för utvärdering av människa-robot-interaktion. Utvärderingsresultaten visar att kvaliteten på den genererade dialogen är i nivå med exempel på faktisk dialog som talats under experimenten. Denna uppsats belyser också intressanta aspekter beträffande nyttan av överföringsinlärning i smala kontextuella applikationer. Resultaten som presenteras i denna uppsats visar att det är möjligt att förbättra den kontextuella karaktären hos genererad dialog genom att inkludera ytterligare uppgiftspecifik information.
43

Procedurell generering av racerbanor genom Voronoi diagram : Procedurellt genererade Formel 1 racerbanor genom modifierade Voronoi diagram och self-avoiding random walk / Procedural generation of race tracks using Voronoi diagrams : Procedurally generated Formula 1 circuits using modified Voronoi diagrams and self-avoiding random walk

Petersson, Filip, Windhede, Daniel January 2021 (has links)
Arbetet undersökte om det är möjligt att procedurellt generera giltiga och underhållande racerbanor för Formel 1 genom användandet av Voronoi diagram och self-avoiding random walk. En procedurell algoritm skapades och två enkäter konstruerades för att undersöka denna algoritms underhållningsvärde. Dessa enkäter distribuerades till kunniga individer inom racinggenren. Både algoritmen som helhet och dess dynamiska parametrar undersöktes. Det fastställdes att det är möjligt att procedurellt generera Formel 1 racerbanor som är underhållande med detta tillvägagångssätt. Vidare visar resultatet att en stor del av svarspersonerna finner artefaktens procedurella racerbanor underhållande, även i kontrast till riktiga racerbanor. Gynnsamma värden för artefaktens dynamiska parametrar i mån av ökad underhållning har också fastställts. En mer omfattande algoritm kan skapas utifrån detta arbete som tar hänsyn till exempelvis höjdskillnader och camber. Framtida arbeten kan då undersöka dessa delar av en racerbanas underhållningsvärde. Algoritmen kan även jämföras med andra procedurella metoder inom racing och andra spel. / <p>Det finns övrigt digitalt material (t.ex. film-, bild- eller ljudfiler) eller modeller/artefakter tillhörande examensarbetet som ska skickas till arkivet.</p>
44

Integrating Chemical Looping Gasification for Hydrogen Generation and CO2 Capture in Pulp Mills / Integrering av Chemical Looping Gasification för Generering av Vätgas samt CO2 Infångning på Massabruk

Pamér, Matilda January 2022 (has links)
Utsläpp av CO2 till atmosfären bidrar till ökningen av globala temperaturer. Industrisektorn står för 20 % av utsläppen och utav dessa kommer 6 % från pappers- och massaindustrin. För att lyckas minska den globala temperaturhöjningen till under 1,5 °C hjälper det inte bara att minska utsläppen. Även negativa utsläpp måste genereras. Syftet med denna studie är att undersöka implementeringen av CLG för att separera CO2 på ett energieffektivt sätt och samtidigt generera H2 och elektricitet. Processanalyser genomfördes för att undersöka möjligheten att implementera CLG-processen till ett typiskt massabruk. Processmodeller togs fram for att undersöka CLG, värmeåtervinning samt elektricitetsgenerering. Processmodellerna utvecklades med hjälp av Aspen Plus och Aspen HYSYS. De framtagna modellerna analyserades sedan med avseende på olika designparametrar inom CLG-processen. På ett typiskt massabruk som producerar 800 000 adt varje ˚ar kan 375 kg CO2/adt separeras och då uppnå negativa utsläpp, genom att byta ut multi-fuel forsrännaren med en CLG process. Den framtagna processmodellen skulle också kunna generera 360-504 kWh/adt av H2 beroende på de designparametrar som används för CLG-processen. Enligt modellen kan värme som ˚återvinns från processen användas för att fånga upp ytterligare 13 % av CO2 från andra delar av bruket. Processanalys för olika designparametrar inom CLG systemet så som temperatur, luftflöde och flödet av syrgasbärare har presenterats. Nyckeltalen som undersöktes var den mängd CO2 som kunde fångas upp, mängd H2 genererad samt överskottet av elektricitet som produceras när multi-fuel förbränningen byts ut mot en CLG-process på ett typiskt massa bruk. / Emissions of CO2 to the atmosphere are contributing to the global temperature rise. The industrial sector contributed to 20 % of the emissions and out of that, 6 % are generated from the pulp and paper industry. To limit the temperature increase below 1,5 °C, the emissions not only need to be reduced but also negative emissions should be generated from different sectors. The purpose of this study is to realize the implementation of Chemical Looping Gasification (CLG) to separate CO2 (for permanent storage) in an energy-efficient way while co-generating H2 as well as electricity. Process analysis was carried out to investigate the possibility of substituting the multifuel boiler in a typical pulp mill with a CLG process. Process models for the CLG, heat recovery and electricity generation process were developed using Aspen  Plus and Aspen HYSYS. The process was analysed for different design conditions (temperature, autothermal condition, air flow, oxygen carrier flow) in the CLG process. It was found that in a typical pulp mill producing 800 000 adt per year, 375 kg- CO2/adt (14 % of total emissions from the process) can be inherently separated for storage to achieve negative emissions, if the multi-fuel boiler is replaced with a CLG unit. This process will also be able to generate 360-504 kWh/adt H2 depending on the design conditions in the CLG process. Heat recovered from the CLG unit can be utilized in capturing approximately 13 % additional CO2 from other sources in the pulp mill. Process analysis for different design conditions in CLG (temperature, airflow, oxygen carrier flow) have been presented. The key performance indicators were CO2 capture rates, H2 generated and net electrical output from the process.
45

Procedurell generering av terräng Perlin noise eller Diamond-Square : med fokus på exekveringstid och framkomlighet / Procedural generation of terrain Perlin noise or Diamond-Square : With focus on execution time and good exploration

Lautakoski, Johan January 2016 (has links)
Arbetet handlar om vilken algoritm som är bäst för att procedurellt generera terräng. Är Diamond-Square bättre eller sämre än vad Perlin noise när de jämförs på exekveringstid och framkomlighet. Algoritmerna är implementerade i Unity där de körs för att få fram exekveringstid och Flood fill används för att ta reda på framkomligheten. Algoritmerna kördes 1000 gånger var på tre olika kartstorlekar för att få fram ett genomsnitt. Resultatet visar att Diamond-Square är snabbare än vad Perlin noise är men Perlin noise har bättre framkomlighet. / This project deals with which algorithm is best for procedural terrain generation. Is Diamond Square better or worse than Perlin noise when they are compared on execution time and exploration. The algorithms are implemented in Unity, where they are tested to get the execution time and Flood Fill is used to determine exploration. The algorithms were run 1000 times each on three different map sizes to obtain an average. The results show that Diamond Square is faster than Perlin noise is but Perlin noise has better exploration.
46

Robust Code Generation using Large Language Models : Guiding and Evaluating Large Language Models for Static Verification

Al-Mashahedi, Ahmad, Ljung, Oliver January 2024 (has links)
Background: Generative AI has achieved rapid and widespread acclaim over a short period since the inception of recent models that have opened up opportunities not possible before. Large Language Models (LLMs), a subset of generative AI, have become an essential part of code generation for software development. However, there is always a risk that the generated code does not fulfill the programmer's intent and contains faults or bugs that can go unnoticed. To that end, we propose that verification of generated code should increase its quality and trust. Objectives: This thesis aims to research generation of code that is both functionally correct and verifiable by implementing and evaluating four prompting approaches and a reinforcement learning solution to increase robustness within code generation, using unit-test and verification rewards. Methods: We used a Rapid Literature Review (RLR) and Design Science methodology to get a solid overview of the current state of robust code generation. From the RLR and related works, we evaluated the following four prompting approaches: Base prompt, Documentation prompting, In-context learning, and Documentation + In-context learning on the two datasets: MBPP and HumanEval. Moreover, we fine-tuned one model using Proximal Policy Optimization (PPO) for the novel task. Results: We measured the functional correctness and static verification success rates, amongst other metrics, for the four proposed approaches on eight model configurations, including the PPO fine-tuned LLM. Our results show that for the MBPP dataset, on average, In-context learning had the highest functional correctness at 29.4% pass@1, Documentation prompting had the highest verifiability at 8.48% verfiable@1, and finally, In-context learning had the highest functionally correct verifiable code at 3.2% pass@1 &amp; verifiable@1. Moreover, the PPO fine-tuned model showed an overall increase in performance across all approaches compared to the pre-trained base model. Conclusions: We found that In-context learning on the PPO fine-tuned model yielded the best overall results across most metrics compared to the other approaches. The PPO fine-tuned with In-context learning resulted in 32.0% pass@1, 12.8% verifiable@1, and 5.0% pass@1 &amp; verifiable@1. Documentation prompting was better for verifable@1 on MBPP. However, it did not perform as well for the other metrics. Documentation prompting + In-context learning was performance-wise between Documentation prompting and In-context learning, while Base prompt performed the worst overall. For future work, we envision several improvements to PPO training, including but not limited to training on Nagini documentation and utilizing expert iteration to create supervised fine-tuning datasets to improve the model iteratively. / Bakgrund: Generativ AI har uppnått snabb och utbredd popularitet under en kort tid sedan lanseringen av språk- och bildmodeller som har öppnat upp nya möjligheter. Large Language Models (LLMs), en del av generativ AI, har blivit en viktig del inom mjukvaruutveckling för kodgenerering. Det finns dock alltid en risk att den genererade koden inte uppfyller programmerarens avsikt och innehåller fel eller buggar som kan förbli oupptäckta. För att motverka detta föreslår vi formell verifiering av den genererade koden, vilket bör öka dess kvalitet och därmed förtroendet för den. Syfte: Detta examensarbetets syfte är att undersöka generering av kod som är bååde funktionellt korrekt och verifierbar genom att implementera och utvärdera fyra prompt-metoder samt en ny lösning genom reinforcement learning. Detta för att öka robusthet inom kodgenerering genom unit-test och verifieringsbelöningar. Metoder: Vi använde Rapid Literature Review (RLR) och Design Science metodik för att få en solid översikt över det nuvarande tillståndet för robust kodgenerering. Från RLR:en och relaterade arbeten utvärderade vi följande fyra prompt-metoder: Base prompt, Documentation prompting, In-context learning och Documentation + In-context learning. Dessutom fine-tune:ade vi en modell med Proximal Policy Optimization (PPO) för denna uppgift. Resultat: Vi mätte funktionell korrekthet- och verifieringsvinst-statistiken samt andra mätvärden för de fyra föreslagna prompten på åtta modellkonfigurationer, inklusive den PPO fine-tune:ade LLM:en. Våra resultat visar på MBPP datasetet att i genomsnitt hade In-context learning den högsta funktionella korrektheten vid 29,4% pass@1, Documentation prompting hade den högsta verifierbarheten vid 8,48% verifiable@1, och slutligen hade In-context learning mest funktionellt korrekta verifierbara kod vid 3.2% pass@1 &amp; verifiable@1. Utöver detta visade den PPO fine-tune:ade modellen konsekventa förbättringar gentemot den förtränade basmodellen. Slutsatser: Vi fann att In-context learning med den fine-tune:ade PPO-modellen gav de bästa övergripande resultaten över de flesta mätvärden jämfört med de andra metoderna. Den PPO fine-tune:ade modellen med In-context learning resulterade i 32.0% pass@1, 12.8% verifiable@1, och 5.0% pass@1 &amp; verifiable@1. Documentation prompting va bättre för verifable@1, men den fungerade inte lika bra för de andra mätvärdena. Documentation + In-context learning hamnade mellan Documentation prompting och In-context learning prestationsmässigt. Base prompt presterade sämst av de utvärderade metoderna. För framtida arbete ser vi flera förbättringar av träningen av PPO-modellen. Dessa innefattar, men är inte begränsade till, träning med Nagini dokumentation samt användning av expert iteration för att bygga ett dataset i syfte att iterativt förbättra modellen.
47

A Comparative Study of the Quality between Formality Style Transfer of Sentences in Swedish and English, leveraging the BERT model / En jämförande studie av kvaliteten mellan överföring av formalitetsstil på svenska och engelska meningar, med hjälp av BERT-modellen

Lindblad, Maria January 2021 (has links)
Formality Style Transfer (FST) is the task of automatically transforming a piece of text from one level of formality to another. Previous research has investigated different methods of performing FST on text in English, but at the time of this project there were to the author’s knowledge no previous studies analysing the quality of FST on text in Swedish. The purpose of this thesis was to investigate how a model trained for FST in Swedish performs. This was done by comparing the quality of a model trained on text in Swedish for FST, to an equivalent model trained on text in English for FST. Both models were implemented as encoder-decoder architectures, warm-started using two pre-existing Bidirectional Encoder Representations from Transformers (BERT) models, pre-trained on Swedish and English text respectively. The two FST models were fine-tuned for both the informal to formal task as well as the formal to informal task, using the Grammarly’s Yahoo Answers Formality Corpus (GYAFC). The Swedish version of GYAFC was created through automatic machine translation of the original English version. The Swedish corpus was then evaluated on the three criteria meaning preservation, formality preservation and fluency preservation. The results of the study indicated that the Swedish model had the capacity to match the quality of the English model but was held back by the inferior quality of the Swedish corpus. The study also highlighted the need for task specific corpus in Swedish. / Överföring av formalitetsstil syftar på uppgiften att automatiskt omvandla ett stycke text från en nivå av formalitet till en annan. Tidigare forskning har undersökt olika metoder för att utföra uppgiften på engelsk text men vid tiden för detta projekt fanns det enligt författarens vetskap inga tidigare studier som analyserat kvaliteten för överföring av formalitetsstil på svensk text. Syftet med detta arbete var att undersöka hur en modell tränad för överföring av formalitetsstil på svensk text presterar. Detta gjordes genom att jämföra kvaliteten på en modell tränad för överföring av formalitetsstil på svensk text, med en motsvarande modell tränad på engelsk text. Båda modellerna implementerades som kodnings-avkodningsmodeller, vars vikter initierats med hjälp av två befintliga Bidirectional Encoder Representations from Transformers (BERT)-modeller, förtränade på svensk respektive engelsk text. De två modellerna finjusterades för omvandling både från informell stil till formell och från formell stil till informell. Under finjusteringen användes en svensk och en engelsk version av korpusen Grammarly’s Yahoo Answers Formality Corpus (GYAFC). Den svenska versionen av GYAFC skapades genom automatisk maskinöversättning av den ursprungliga engelska versionen. Den svenska korpusen utvärderades sedan med hjälp av de tre kriterierna betydelse-bevarande, formalitets-bevarande och flödes-bevarande. Resultaten från studien indikerade att den svenska modellen hade kapaciteten att matcha kvaliteten på den engelska modellen men hölls tillbaka av den svenska korpusens sämre kvalitet. Studien underströk också behovet av uppgiftsspecifika korpusar på svenska.
48

Deep Scenario Generation of Financial Markets / Djup scenario generering av finansiella marknader

Carlsson, Filip, Lindgren, Philip January 2020 (has links)
The goal of this thesis is to explore a new clustering algorithm, VAE-Clustering, and examine if it can be applied to find differences in the distribution of stock returns and augment the distribution of a current portfolio of stocks and see how it performs in different market conditions. The VAE-clustering method is as mentioned a newly introduced method and not widely tested, especially not on time series. The first step is therefore to see if and how well the clustering works. We first apply the algorithm to a dataset containing monthly time series of the power demand in Italy. The purpose in this part is to focus on how well the method works technically. When the model works well and generates proper results with the Italian Power Demand data, we move forward and apply the model on stock return data. In the latter application we are unable to find meaningful clusters and therefore unable to move forward towards the goal of the thesis. The results shows that the VAE-clustering method is applicable for time series. The power demand have clear differences from season to season and the model can successfully identify those differences. When it comes to the financial data we hoped that the model would be able to find different market regimes based on time periods. The model is though not able distinguish different time periods from each other. We therefore conclude that the VAE-clustering method is applicable on time series data, but that the structure and setting of the financial data in this thesis makes it to hard to find meaningful clusters. The major finding is that the VAE-clustering method can be applied to time series. We highly encourage further research to find if the method can be successfully used on financial data in different settings than tested in this thesis. / Syftet med den här avhandlingen är att utforska en ny klustringsalgoritm, VAE-Clustering, och undersöka om den kan tillämpas för att hitta skillnader i fördelningen av aktieavkastningar och förändra distributionen av en nuvarande aktieportfölj och se hur den presterar under olika marknadsvillkor. VAE-klusteringsmetoden är som nämnts en nyinförd metod och inte testad i stort, särskilt inte på tidsserier. Det första steget är därför att se om och hur klusteringen fungerar. Vi tillämpar först algoritmen på ett datasätt som innehåller månatliga tidsserier för strömbehovet i Italien. Syftet med denna del är att fokusera på hur väl metoden fungerar tekniskt. När modellen fungerar bra och ger tillfredställande resultat, går vi vidare och tillämpar modellen på aktieavkastningsdata. I den senare applikationen kan vi inte hitta meningsfulla kluster och kan därför inte gå framåt mot målet som var att simulera olika marknader och se hur en nuvarande portfölj presterar under olika marknadsregimer. Resultaten visar att VAE-klustermetoden är väl tillämpbar på tidsserier. Behovet av el har tydliga skillnader från säsong till säsong och modellen kan framgångsrikt identifiera dessa skillnader. När det gäller finansiell data hoppades vi att modellen skulle kunna hitta olika marknadsregimer baserade på tidsperioder. Modellen kan dock inte skilja olika tidsperioder från varandra. Vi drar därför slutsatsen att VAE-klustermetoden är tillämplig på tidsseriedata, men att strukturen på den finansiella data som undersöktes i denna avhandling gör det svårt att hitta meningsfulla kluster. Den viktigaste upptäckten är att VAE-klustermetoden kan tillämpas på tidsserier. Vi uppmuntrar ytterligare forskning för att hitta om metoden framgångsrikt kan användas på finansiell data i andra former än de testade i denna avhandling
49

Generation of layouts for living spaces using conditional generative adversarial networks : Designing floor plans that respect both a boundary and high-level requirements / Generering av layouts för boendeytor med conditional generative adversarial networks : Design av planritningar som respekterar både en gräns och krav på hög nivå

Chen, Anton January 2022 (has links)
Architectural design is a complex subject involving many different aspects that need to be considered. Drafting a floor plan from a blank slate can require iterating over several designs in the early phases of planning, and it is likely an even more daunting task for non-architects to tackle. This thesis investigates the opportunities of using conditional generative adversarial networks to generate floor plans for living spaces. The pix2pixHD method is used to learn a mapping between building boundaries and color-mapped floor plan layouts from the RPLAN dataset consisting of over 80k images. Previous work has mainly focused on either preserving an input boundary or generating layouts based on a set of conditions. To give potential users more control over the generation process, it would be useful to generate floor plans that respect both an input boundary and some high-level client requirements. By encoding requirements about desired room types and their locations in colored centroids, and stacking this image with the boundary input, we are able to train a model to synthesize visually plausible floor plan images that adapt to the given conditions. This model is compared to another model trained on only the building boundary images that acts as a baseline. Results from visual inspection, image properties, and expert evaluation show that the model trained with centroid conditions generates samples with superior image quality to the baseline model. Feeding additional information to the networks is therefore not only a way to involve the user in the design process, but it also has positive effects on the model training. The results from this thesis demonstrate that floor plan generation with generative adversarial networks can respect different kinds of conditions simultaneously, and can be a source of inspiration for future work seeking to make computer-aided design a more collaborative process between users and models. / Arkitektur och design är komplexa områden som behöver ta hänsyn till ett flertal olika aspekter. Att skissera en planritning helt från början kan kräva flera iterationer av olika idéer i de tidiga stadierna av planering, och det är troligtvis en ännu mer utmanande uppgift för en icke-arkitekt att angripa. Detta examensarbete syftar till att undersöka möjligheterna till att använda conditional generative adversarial networks för att generera planritningar för boendeytor. Pix2pixHD-metoden används för att lära en modell ett samband mellan gränsen av en byggnad och en färgkodad planritning från datasamlingen RPLAN bestående av över 80 tusen bilder. Tidigare arbeten har främst fokuserat på att antingen bevara en given byggnadsgräns eller att generera layouts baserat på en mängd av villkor. För att ge potentiella slutanvändare mer kontroll över genereringsprocessen skulle det vara användbart att generera planritningar som respekterar både en given byggnadsgräns och några klientbehov på en hög nivå. Genom att koda krav relaterade till önskade rumstyper och deras placering som färgade centroider, och sedan kombinera denna bild med byggnadsgränsen, kan vi träna en modell som kan framställa visuellt rimliga bilder på planritningar som kan anpassa sig till de givna villkoren. Denna modell jämförs med en annan modell som tränas endast på byggnadsgränser och som kan agera som en baslinje. Resultat från inspektion av genererade bilder och deras egenskaper, samt expertevaluering visar att modellen som tränas med centroidvillkor genererar bilder med högre bildkvalitet jämfört med baslinjen. Att ge mer information till modellen kan därmed både involvera användaren mer i designprocessen och bidra till positiva effekter på träningen av modellen. Resultaten från detta examensarbete visar att generering av planritningar med generative adversarial networks kan respektera olika typer av villkor samtidigt, och kan vara en källa till inspiration för framtida arbete som syftar till att göra datorstödd design en mer kollaborativ process mellan användare och modeller.
50

Compact Digital Track Maps: Enhancing Train Traveller Information at the Crossing of Accuracy and Availability : A comparative analysis of algorithms for generating compact representations of railway tracks / Kompakta digitala spårkartor: Förbättrad information för tågresenärer med nogrannhet och användbarhet i balans : En jämförande analys av algoritmer för att generera kompakta representationer av järnvägsspår

Andersson, Adam January 2023 (has links)
Trains are constrained to the railway tracks they operate on. This can be leveraged for absolute train positioning, where a train’s position can be mapped onto a digital track map (DTM). Extensive research has been dedicated to enhancing the accuracy of DTMs. However, certain practical applications necessitate compact DTMs that can be processed and transferred in real-time, thereby introducing a trade-off between accuracy and memory requirements. This study focuses on data reduction techniques for generating compact DTMs, presenting three distinct methods. Equidistantly sampled Cartesian coordinates are the input to all three methods as they employ different approaches: the linear method simplifies the polygonal chain that connects the coordinates, the spline method utilises smoothing B-splines for interpolation, and the geometric method interpolates the coordinates with a cubic spline and analyse the curvature to identify track segments and describe them geometrically. The performance of these methods is evaluated by their compactness in terms of the number of data fields needed, accuracy in representing track length, and the perpendicular distances between the ground truth track and the generated DTM. The compact DTM generation techniques are applied to three evaluation tracks specifically generated for this study, as well as two existing tracks in the Swedish railway network, each with distinct complexities and characteristics. On the evaluation tracks, the geometrical DTM excels when accuracy is prioritised. As greater perpendicular deviations are tolerated, the smoothed spline DTM method outperforms the other techniques in terms of compactness. The linear DTM method is superior when even greater perpendicular deviations are tolerated. On the existing tracks, the linear DTM method is outperforming the other methods in both accuracy and compactness, presumably because of limitations with the used data set. In conclusion, the choice of technique for generating compact DTMs depends on multiple factors, including the characteristics of the track and the desired level of accuracy. / Tåg är bundna till de järnvägsspår de trafikerar. Detta innebär att tågets digitala position kan förfinas genom att knyta tågets sensorinformation till en position på en digital spårkarta. Tidigare forskning har fokuserat på att förbättra precisionen i digitala spårkartor. Eftersom en del praktiska användningsområden av digitala spårkartor kräver att kartan är kompakt för att kunna bearbetas och överföras i realtid, uppstår en avvägning mellan precision och minneskrav. Denna studie fokuserar således på olika tekniker för datareduktion som kan användas för att generera kompakta spårkartor. Tre metoder tillämpas som alla använder samplade koordinater längs med järnvägsspåret som indata. Den linjära metoden förenklar det polygontåg som förbinder koordinaterna. I spline-metoden används utjämnande splines för att interpolera koordinaterna. Den geometriska metoden interpolerar koordinaterna med en kubisk spline och använder kurvaturen i splinen för att identifiera spårsegment och beskriva dessa geometriskt. De tre metoderna utvärderas och jämförs utifrån en analys avseende kompakthet, avvikelse från järnvägsspårets egentliga längd samt genom att mäta de vinkelräta avstånden mellan det riktiga spåret och spåret i den digitala spårkartan. Tre tågspår har skapats syntetiskt för att utvärdera de tre metoderna. Dessutom har två tågsträckor längs med Kinnekullebanan och Södra stambanan valts ut. Analysen visade att den geometriska spårkartan var mest kompakt på de syntetiska tågspåren när precision prioriterades högst. När kraven på precision minskades var spline-kartan mest kompakt på de syntetiska spåren. Däremot var den linjära metoden mest kompakt när kompakthet prioriterades över precision. Den linjära metoden var dominant med avseende på både precision och kompakthet på Kinnekullebanan och Södra stambanan, troligtvis på grund av begränsningar med den data över järnvägen som använts. Slutsatsen från denna studie är att valet av teknik för att generera kompakta spårkartor beror på flera faktorer, inklusive järnvägsspårets egenskaper och krav på precision.

Page generated in 0.0632 seconds