• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 46
  • Tagged with
  • 151
  • 67
  • 51
  • 51
  • 40
  • 39
  • 38
  • 33
  • 25
  • 24
  • 21
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

LDPC DropConnect

Chen, Xi January 2023 (has links)
Machine learning is a popular topic that has become a scientific research tool in many fields. Overfitting is a common challenge in machine learning, where the model fits the training data too well and performs poorly on new data. Stochastic regularization is one method used to prevent overfitting, by artificially constraining the model to be simpler. In this thesis, we investigate the use of tools from information and coding theory as regularization methods in machine learning. The motivation for this project comes from recent results that successfully related generalization capability of learning algorithms to the information stored in the model parameters. This has led us to explore the use of stochastic regularization techniques like Dropout and DropConnect, which add sparsity to the networks and can help control and limit the information that the parameters store on the training data. Specifically, we explore the use of parity-check matrices from coding theory as masks in the DropConnect method. Parity-check matrices describe linear relations that codewords must satisfy, and have been shown to perform well as measurement matrices in compressed sensing. We build a new family of neural networks that apply Low-Density Parity-Check (LDPC) matrices as DropConnect masks, so-called Low-Density Parity-Check DropConnect (LDPC DropConnect). We evaluate the performance of this neural network with popular datasets in classification and track the generalization capability with statistics of the LDPC matrices. Our experiments show that adopting LDPC matrices does not significantly improve the generalization performance, but it helps provide a more robust evidence lower bound in the Bayesian approach. Our work may provide insights for further research on applying machine learning in compressed sensing, distributed computation, and other related areas. / Maskininlärning är ett populärt ämne som har blivit ett vetenskapligt forskningsverktyg inom många områden. Overfitting är en vanlig utmaning inom maskininlärning, där modellen anpassar sig till träningsdatan för bra och presterar dåligt på nya data. Stokastisk regularisering är en metod som används för att förhindra överanpassning, genom att artificiellt begränsa modellen till att vara enklare. I detta examensarbete undersöker vi användningen av verktyg från informations och kodningsteorin som regulariseringsmetoder inom maskininlärning. Motivationen för detta projekt kommer från nya resultat som framgångsrikt relaterade generaliseringsförmågan hos inlärningsalgoritmer till informationen som lagras i modellparametrarna. Detta har lett oss till att utforska användningen av stokastiska regulariseringstekniker som Dropout och DropConnect, som leder till glesa nätverken och kan hjälpa till att kontrollera och begränsa informationen som parametrarna lagrar am träningsdatan. Specifikt utforskar vi användningen av paritetskontrollmatriser från kodningsteori som masker i DropConnect-metoden. Paritetskontrollmatriser beskriver linjära relationer som kodord måste uppfylla, och har visat sig fungera bra som mätmatriser vid komprimerad avkänning. Vi bygger en ny familj av neurala nätverk som tillämpar low-density parity-check (LDPC)-matriser som DropConnect-masker, så kallade LDPC DropConnect. Vi utvärderar prestandan för detta neurala nätverk med populära datauppsättningar i klassificering och spårar generaliseringsförmågan med statistik över LDPC-matriserna. Våra experiment visar att antagandet av LDPC-matriser inte signifikant förbättrar generaliseringsprestandan, men det hjälper till att ge en mer robust bevis nedre gräns i den Bayesianska metoden. Vårt arbete kan ge insikter för ytterligare forskning om tillämpning av maskininlärning i komprimerad avkänning, distribuerad beräkning och andra relaterade områden.
142

Trajectory Optimisation of a Spacecraft Swarm Maximising Gravitational Signal / Banoptimering av en Rymdfarkostsvärm för att Maximera Gravitationsignalen

Maråk, Rasmus January 2023 (has links)
Proper modelling of the gravitational fields of irregularly shaped asteroids and comets is an essential yet challenging part of any spacecraft visit and flyby to these bodies. Accurate density representations provide crucial information for proximity missions, which rely heavily on it to design safe and efficient trajectories. This work explores using a spacecraft swarm to maximise the measured gravitational signal in a hypothetical mission around the comet 67P/Churyumov-Gerasimenko. Spacecraft trajectories are simultaneously computed and evaluated using a high-order numerical integrator and an evolutionary optimisation method to maximise overall signal return. The propagation is based on an open-source polyhedral gravity model using a detailed mesh of 67P/C-G and considers the comet’s sidereal rotation. We compare performance on various mission scenarios using one and four spacecraft. The results show that the swarm achieved an expected increase in coverage over a single spacecraft when considering a fixed mission duration. However, optimising for a single spacecraft results in a more effective trajectory. The impact of dimensionality is further studied by introducing an iterative local search strategy, resulting in a generally improved robustness for finding efficient solutions. Overall, this work serves as a testbed for designing a set of trajectories in particularly complex gravitational environments, balancing measured signals and risks in a swarm scenario. / En korrekt modellering av de gravitationsfält som uppstår runt irreguljärt formade asteroider och kometer är en avgörande och utmanande del för alla uppdrag till likartade himlakroppar. Exakta densitetsrepresentationer tillhandahåller viktig information för att säkerställa säkra och effektiva rutter för särsilt närgående rymdfarkoster. I denna studie utforskar vi användningen av en svärm av rymdfarkoster för att maximera den uppmätta gravitationssignalen i ett hypotetisk uppdrag runt kometen 67P/Churyumov-Gerasimenko. Rymdfarkosternas banor beräknas och utvärderas i parallella scheman med hjälp av en högre ordningens numerisk integration och en evolutionär optimeringsmetod i syfte att maximera den totala uppmätta signalen. Beräkningarna baseras på en öppen källkod för en polyhedral gravitationsmodell som använder ett detaljerat rutnät av triangulära polygoner för att representera 67P/C-G och beaktar kometens egna rotation. Vi jämför sedan prestanden för olika uppdragscenarier med en respektive fyra rymdfarkoster. Resultaten visar att svärmen uppnådde en förväntad ökning i täckning jämfört med en enskild rymdfarkost under en fast uppdragsvaraktighet. Dock resulterar optimering för en enskild rymdfarkost i en mer effektiv bana. Påverkan av dimensionshöjningen hos oberoende variabler studeras vidare genom att introducera en iterativ lokal sökstrategi, vilket resulterar i en generellt förbättrad robusthet samt effektivare lösningar. Sammantaget fungerar detta arbete som en testbädd för att studera och utforma rymdfarkosters banor i särskilt komplexa gravitationsmiljöer, samt för att balansera uppmätta signaler och risker i ett svärmscenario.
143

Methods for Co-Orbital Threat Assessment in Space / Metoder för Koorbital Hotbedömning i Rymden

Dahlman, Mathias January 2023 (has links)
This study investigates methods for assessing threats in space. Space services are crucial to both civilian and military capabilities, and a loss of such systems could have severe consequences. Space systems are exposed to various types of threats. To ensure the benefits of space-based applications, protect space assets, improve security, and maintain the space environment, it is crucial to assess threats in space. This thesis focuses on co-orbital antagonistic threats arising from satellites that are capable of performing precision manoeuvres. These satellites could either perform physical attacks or perform operations such as inspection, eavesdropping, or disruption on other satellites. Lambert's problem can be utilised for calculating orbital transfers. By solving the problem iteratively over a range of values of when the transfer is executed and the transfer time, it is possible to detect when a transfer is feasible. This can be used to assess when a satellite can pose a threat to a target. The calculations of orbital transfers are improved by the implementation of a genetic algorithm. The algorithm can solve for both direct transfers to the target and transfers using multiple impulses. Furthermore, a genetic algorithm, called NSGA-II, which can handle multiple objective functions is also analysed. The implemented methods show the potential of being employed to assess threats, especially for direct transfers where a single impulse is executed to transfer to a target. In this case, it is possible to identify threats based on the satellite's $\Delta v$ budget. However, when additional impulses are introduced it becomes more complicated. It is more difficult to estimate when an attack is more likely to commence. The implemented methods show potential, but further research is required in order to develop a robust method to assess co-orbital threats.  The conducted analysis has highlighted a few aspects that are crucial for assessing co-orbital threats. Information about the $\Delta v$ budget of the satellite that potentially could pose a threat must be available. Furthermore, space surveillance and tracking capabilities are essential to detect orbital changes, which can be vital to perform counter-operations in the event of an attack / Denna studie undersöker metoder för hotbedöming i rymden. Rymdtjänster är av avgörande betydelse för både civila och militära förmågor och förlusten av sådana system kan leda till allvarliga konsekvenser. Rymdsystem är utsatta för olika typer av hot. För att säkerställa fördelarna med rymdbaserade tillämpningar, skydda rymdresurser, förbättra säkerheten och bevara rymdmiljön är det viktigt att bedöma hot i rymden. Detta examensarbete fokuserar på hot från precisionsmanövrerande satelliter som antingen kan genomföra fysiska attacker eller utföra operationer såsom inspektion, avlyssning eller störning av en annan satellit. Lamberts problem kan användas för att beräkna banmanövrar. Genom att lösa problemet iterativt över olika värden för när manöverna utförs och flygtiden är det möjligt att fastställa när en manöver är genomförbar. Detta kan användas för att bedöma när en satellit kan utgöra ett hot mot en målsatellit. Beräkningarna av banmanövrar förbättras genom implementeringen av en genetisk algoritm. Algoritmen kan lösa både direkta manövrar till målet och manövrar med flera impulser. Dessutom analyseras en genetisk algoritm, kallad NSGA-II, som kan hantera flera målfunktioner. De implementerade metoderna visar potential för att kunna användas för hotbedömning, särskilt för direkta manövrar där en enda impuls används för att ändra banan till målet. I detta fall är det möjligt att identifiera hot baserat på satellitens $\Delta v$-budget. Däremot blir det mer komplicerat när ytterligare impulser introduceras. Det blir svårare att bedöma när en attack sannolikt inleds. De implementerade metoderna visar potential, men ytterligare forskning krävs för att utveckla en robust metod för att bedöma hot från precisionsmanövrerande satelliter. Den genomförda analysen har framhävt några aspekter som är av avgörande betydelse för att utföra en hotbedömning. Information om satellitens $\Delta v$-budget som potentiellt kan utgöra ett hot måste vara tillgänglig. Dessutom är inmätning och övervakningsförmåga av satelliter avgörande för att upptäcka banförändringar, vilket kan vara kritiskt vid genomförande av motåtgärder i händelse av en attack.
144

Digital Musik och Algoritmer : En användarstudie om hur Spotify's algoritmer påverkar unga vuxnas musikkonsumtion / Digital Music and Algorithms : A study about how Spotify's algorithms affect young adults' music consumtion

Brudvik, Vigdis, Törnerud, Agnes January 2021 (has links)
This study aims to examine how the generation of young adults who grew up in a digital society relate to algorithms that control them on Spotify, how they experience the personification on the platform and how the algorithms affect their flows. The purpose is also to investigate how young people experience and relate to the effects of Spotify's algorithms.  The survey is based on six in-depth qualitative interviews conducted with young adults aged 20-30, that have been transcribed, discussed and analyzed using a thematic narrative analysis. The purpose of the study has been formulated according to the interview guide and the thematic narrative analysis. Results and analysis have been merged and there the respondents' intersubjective opinions and values are connected with the theoretical framework.  The results show that users believe that algorithms mainly have had a positive impact on their music consumption. The majority of the respondents described that they prefer the custom-made playlists on Spotify (created by algorithms), and that they like to be presented with personalized content. However, few respondents stated that they notice or are aware that the algorithms control them, which means they are being guided towards certain music preferences without being aware of it. This will further be analyzed with the help of previous research and the theoretical framework. / Denna studie ämnar undersöka hur den generation unga vuxna som vuxit upp i ett digitaliserat samhälle förhåller sig till de algoritmer som styr dem på Spotify, hur de upplever personifieringen på plattformen och hur algoritmerna påverkar deras flöden. Syftet är att undersöka och belysa hur unga vuxna upplever och förhåller sig till effekterna av Spotifys algoritmer i kontext till deras musikkonsumtion.  Undersökningen baseras på sex stycken utförda kvalitativa djupintervjuer med unga vuxna i åldrarna 20-30 år som studerar vid Uppsala Universitet. Djupintervjuerna har transkriberats, kodats och därefter analyserats med hjälp av tematisk narrativ analys. Kapitlet för resultat och analys är hopslagna och där sammankopplas respondenternas narrativ beståendes av deras upplevelser och värderingar ihop med det teoretiska ramverket. Uppsatsen avslutas med ett avsnitt innehållandes slutdiskussion där även tidigare forskning vävs in.  Resultatet visar att användare anser att algoritmer i huvudsak haft en positiv påverkan på deras musikkonsumtion. Majoriteten av respondenterna i denna studie beskriver att de föredrar Spotifys färdiggjorda spellistor (som skapats av algoritmer), och att de gärna tar del av ett personifierat innehåll. Problematiken är dock att få av respondenter utger sig för att vara fullt medvetna om algoritmerna och hur de styr dem, vilket innebär en risk att de lotsas mot vissa musikpreferenser utan att vara medvetna om det. Detta analyseras därför vidare med hjälp av tidigare forskning samt studiens teoretiska ramverk och nyckelbegrepp.
145

Periodical Maintenance Modelling and Optimisation Assuming Imperfect Preventive Maintenance and Perfect Corrective Maintenance / Periodisk underhållsmodellering och optimering givet ofullständigt förebyggande underhåll och perfekt avhjälpande underhåll

Engvall Birr, Madeleine, Lansryd, Lisette January 2021 (has links)
In this paper, a periodic maintenance model is formulated assumingcontinuous monitoring, imperfect preventive maintenance (PM) and perfect correctivemaintenance (CM) using three decision variables, (I, N, Z). The model is derived in aninfinite horizon context where the mean cost per unit time is modelled. PM actionsare performed N − 1 times at time instants iT for i = 1, ..., N − 1, where T = ∆T · Iand ∆T is a fixed positive number representing the minimum time allowed betweenPM actions and I is a time interval multiple representing the decision of how oftenPM actions should be performed. The N:th maintenance activity is either a plannedreplacement (if Z = 0) or a corrective replacement from letting the component runto failure (if Z = 1). Imperfect PM is modelled using age reductions, either using aconstant r or a factor γ. Previous research on assumptions of these types has beenlimited as the assumptions yield models of high complexity which are not analyticallytractable. However, assumptions of this type are considered more realistic than othermore thoroughly researched assumptions, using e.g. minimal CM. Therefore, twocomplimentary optimisation methods are proposed and evaluated, namely, completeenumeration and a specially derived genetic algorithm which can be used for differentproblem sizes respectively. Carefully determined solution bounds enabled completeenumeration to be applicable for many input parameter values which is a great strengthof the proposed model. / I denna rapport modelleras en periodisk underhållsmodell baserat på antagandenakontinuerlig tillsyn,. ofullständigt förebyggande underhåll (FU) och perfektavhjälpande underhåll (AU) genom tre beslutsvariabler (I, N, Z). Modellen härledsinom ramen för en oändlig planeringshorisont där genomsnittskostnaden pertidsenhet modelleras. FU åtgärder utförs vid N − 1 stycken tillfällen vid tidpunkternaiT för i = 1, ..., N − 1, där T = ∆T · I och ∆T är ett givet positivt tal som representerarden minsta tillåtna tiden mellan FU åtgärder och I är en tidsintervallmultipelsom representerar beslutet kring hur ofta FU åtgärder ska utföras. Den N:teunderhållsåtgärden är antingen ett planerat utbyte (om Z = 0) eller ett avhjälpandeutbyte från att låta komponenten arbeta tills dess att den går sönder (om Z = 1).Ofullständigt FU modelleras genom åldersreduktion, antingen genom en konstantr eller en faktor γ. Det har visat sig finnas få tidigare studier som baseras påliknande antaganden då antaganden av denna typ resulterar i modeller av högkomplexitet som inte går att optimera analytiskt. Dock anses antaganden av dennatyp vara mer realistiska än andra mer välstuderade antaganden som exempelvisminimalt AU. Därför föreslås och utvärderas två kompletterande optimeringsmetodertill modellen, nämligen, total genomsökning och en specifikt anpassad genetiskalgoritm som kan användas för olika problemstorlekar. Genom att härleda effektivalösningsavgränsningar kunde optimering med hjälp av total genomsökning bli möjligtför många olika värden på modell parametrarna vilket är en stor fördel med denslutgiltiga modellen.
146

Quantifying System Reliability in Weighted-k-out-of-n Systems : A Comparative Analysis of Reliability Models and Methods of Scaling / Kvantifiering av Robusthet hos Viktade-k-av-n System : En Jämförande Analys över Robusthetsmodeller och Metoder för Skalning

Berggren, Pelle, Abraham, Elias January 2024 (has links)
Reliability is the probability that a system doesn’t fail in a time interval. A weighted-k-out-of-n system is a system of nodes with weights, where the total weight of all operational nodes must be at least equal to the value k for the system to be operational. Although previous studies have brought forward some quantification models for reliability in such systems, there is a lack of research in the comparison of these methods. There is also a lack of research in how to best scale these types of systems. This thesis thus investigates optimal methods of quantifying the reliability of weighted-k-out-of-n systems, and latterly discusses optimal methods of scaling them. Some methods of quantifying reliability of such systems are designed and/or implemented from prior theory, and compared in terms of time complexity and accuracy. Of these models the Higashiyama algorithm, a Monte Carlo simulation and a brute force enumeration method proves to be successful. Experiments are conducted in which the scaling factors of adding nodes, adding weights, decreasing k and increasing individual node reliability are tested. Results show that adding nodes generally has the best impact on reliability, but that it also varies on the real-life implementation of the system. Some correlations between minimal paths and reliability are also studied, and a pattern was seen of how optimal minimal paths led to optimal reliability. / Robusthet är sannolikheten att ett system inte slutar fungera i ett tidsintervall. Ett viktat-k-av-n-system är ett system av noder med vikter, där den totala vikten av alla fungerande noder måste vara minst lika med värdet k för att systemet ska fungera. Trots att tidigare studier har lyft fram några modeller för beräkning av robusthet i sådana system, finns det en brist på forskning i jämförelse av dessa metoder. Det finns även en brist på forskning i hur sådana system skalas på bästa sätt. Därför undersöker detta projekt optimala metoder för att mäta robustheten i viktade-k-av-n-system, och diskuterar sedan optimala metoder för att skala dessa. Detta projekt undersöker robusthet i viktade-k-av-n-system, specifikt i termer av kvantifiering och skalning. Några metoder för att kvantifiera robusthet i sådana system designas och/eller implementeras från tidigare teori, av vilka Higashiyama algoritmen, en Monte Carlo simulering och en “brute force" metod är användbara. Experiment utförs där faktorer för skalning, det vill säga att lägga till noder, lägga till vikter, sänka k, och öka robustheten hos individuella noder testas. Resultat visar att tilläggning av noder har generellt bäst påverkan på robusthet, men att det beror på hur den verkliga implementationen av systemet ser ut. Några korrelationer mellan minimala vägar och robusthet studeras också, och ett mönster syns där optimala minimala vägar leder till optimal robusthet.
147

Azure App Service Plan Optimization : Cloud Resource optimization

Falck, Oscar, Wass, Linus January 2024 (has links)
At Halmstad University a project was developed to provide recommendations forupgrading and downgrading the cloud resource app service plan based on the customersusage over the last 30 days. In today’s day and age, cloud resources and services are oftenquite expensive and offers a variety of different plans which can make it overwhelmingfor the customer to easily choose which tier they need for their plan. The result of thisscript indicate that the cloud users should consider changing subscription tier based onhow the historical data of their usage of the plan has looked like during the last 30 days.The proposed algorithm suggests an upgrade of a tier if the plan is overutilized andsuggest a downgrade of a tier if the plan is underutilized. The developed PowerShell codeuses the First-Fit and the Rule-based algorithmic approach from the related workresearched in the paper. The result found was that the code was able to give suitablerecommendations to scale up and down tiers for plans which were under and overutilizedbased on the percentual utilization rules set up and Legacy/DEV SKU mapping. Theresults obtained showed that the suggested plan can reduce costs by up to 30% and giveroughly 438.2% more performance per $USD spent. / Vid Högskolan i Halmstad utvecklades ett projekt för att ge förslag på uppgraderingaroch nedgraderingar av molnresursern app service plan baserat på användarens senaste 30dagars användning. Då dagens molnresurser och tjänster ofta är dyra och erbjuder ettöverflöd av planer, kan det vara förvirrande för användare att välja rätt nivå för sinabehov. Projektet föreslår att användarna ska överväga att byta plan beroende på hur denhistoriska datan har sett ut för planens användning, där en uppgradering rekommenderasom tjänsten är överanvänd och en nedgradering om planen är underanvänd. Denutvecklade PowerShell koden använder sig av First-fit och det regelbaserade algoritmtypen som utvecklades med inspiration från litteraturstudien. Resultatet av projektetindikerar att koden kunde ge optimala upp och ned skalnings rekommendationer beroendepå de olika procentuella trösklarna satta samt mappningen av Legacy och utvecklingstiers. Analyseringen av resultatet pekar på att det går att spara runt 30% på app serviceplan kostnaderna samt att app service planerna får 438,2% mer prestanda per spenderad$USD i jämförelse med nuvarande planen.
148

Using Data-Driven Feasible Region Approximations to Handle Nonlinear Constraints When Applying CMA-ES to the Initial Margin Optimization Problem / Datadriven approximation av tillåtet område för att hantera icke-linjära bivillkor när CMA-ES används för att optimera initial margin

Wallström, Karl January 2021 (has links)
The introduction of initial margin requirements for non-cleared OTC derivatives has made it possible to optimize initial margin when considering a network of trading participants. Applying CMA-ES, this thesis has explored a new method to handle the nonlinear constraints present in the initial margin optimization problem. The idea behind the method and the research question in this thesis are centered around leveraging data created during optimization. Specifically, by creating a linear approximation of the feasible region using support vector machines and in turn applying a repair strategy based on projection. The hypothesis was that by repairing solutions an increase in convergence speed should follow. In order to answer the research question, a reference method was at first created. Here CMA-ES along with feasibility rules was used, referred to as CMA-FS. The proposed method of optimization data leveraging (ODL) was then appended to CMA-FS, referred to as CMA-ODL. Both algorithms were then applied to a single initial margin optimization problem 100 times each with different random seeds used for sampling in the optimization algorithms. The results showed that CMA-ODL converged significantly faster than CMA-FS, without affecting final objective values significantly negatively. Convergence was measured in terms of iterations and not computational time. On average a 5% increase in convergence speed was achieved with CMA-ODL. No significant difference was found between CMA-FS and CMA-ODL in terms of the percentage of infeasible solutions generated. A reason behind the lack of a reduction in violations can be due to how ODL is implemented with the CMA-ES algorithm. Specifically, ODL will lead to a greater number of feasible solutions being available during recombination in CMA-ES. Although, due to the projection, the solutions after projection are not completely reflective of the actual parameters used for that generation. The projection should also bias the algorithm towards the boundary of the feasible region. Still, the performative difference in terms of convergence speed was significant. In conclusion, the proposed boundary constraint handling method increased performance, but it is not known whether the method has any major practical applicability, due to the restriction to only considering the number of iterations and not the computational time. / Införandet av initial margin för non-cleared OTC derivatives har gjort det möjligt att optimera initial margin när ett flertal marknadsdeltagare tas till hänsyn. Denna uppsats har applicerat CMA-ES och specifikt undersökt en ny metod för hantering av de icke-linjära bivillkoren som uppstår när initial margin optimeras. Idén bakom metoden och forskningsfrågan i rapporten bygger på att utnyttja data som generas vid optimering. Detta görs specifikt genom att den icke-linjära tillåtna regionen approximeras linjärt med support vector machines. Därefter används en reparationsstrategi bestående av projicering för att reparera otillåtna lösningar. Hypotesen i uppsatsen var att genom att reparera lösningar så skulle konvergenshastigheten öka. För att svara på forskningsfrågan så togs en referensmetod fram, där CMA-ES och feasibility rules användes för att hantera icke-linjära bivillkor. Denna version av CMA-ES kallades CMA-FS. Sedan integrerades den nya metoden med CMA-FS, denna version kallades för CMA-ODL. Därefter så applicerades båda algoritmer 100 gånger på ett initial margin optimeringsproblem, där olika seeds användes för generering av lösningar i algoritmerna. Resultaten visade att CMA-ODL konvergerade signifikant snabbare än CMA-FS utan att påverka optimeringsresultatet negativt. Med CMA-ODL så ökade konvergenshastigheten med ungefär 5%. Konvergens mättes genom antal iterationer och inte beräkningstid. Ingen signifikant skillnad mellan CMA-ODL och CMA-FS observerades när de jämfördes med avseende på mängden icke-tillåtna lösningar genererade. En anledning varför ingen skillnad observerades är hur den nya metoden var integrerad med CMA-ES algoritmen. Den tilltänkta metoden leder till att fler tillåtna lösningar är tillgängliga när CMA-ES ska bilda nästa generation men eftersom lösningar projiceras så kommer dom inte att reflektera dom parametrar som användes för att faktiskt generera dom. Projiceringen leder också till att fler lösningar på randen av det tillåtna området kommer att genereras. Sammanfattningsvis så observerades fortfarande en signifikant ökning i konvergenshastighet för CMA-ODL men det är oklart om algoritmen är praktiskt användbar p.g.a. restriktionen att enbart betrakta antalet iterationer och inte total beräkningstid.
149

Incorporating Scene Depth in Discriminative Correlation Filters for Visual Tracking

Stynsberg, John January 2018 (has links)
Visual tracking is a computer vision problem where the task is to follow a targetthrough a video sequence. Tracking has many important real-world applications in several fields such as autonomous vehicles and robot-vision. Since visual tracking does not assume any prior knowledge about the target, it faces different challenges such occlusion, appearance change, background clutter and scale change. In this thesis we try to improve the capabilities of tracking frameworks using discriminative correlation filters by incorporating scene depth information. We utilize scene depth information on three main levels. First, we use raw depth information to segment the target from its surroundings enabling occlusion detection and scale estimation. Second, we investigate different visual features calculated from depth data to decide which features are good at encoding geometric information available solely in depth data. Third, we investigate handling missing data in the depth maps using a modified version of the normalized convolution framework. Finally, we introduce a novel approach for parameter search using genetic algorithms to find the best hyperparameters for our tracking framework. Experiments show that depth data can be used to estimate scale changes and handle occlusions. In addition, visual features calculated from depth are more representative if they were combined with color features. It is also shown that utilizing normalized convolution improves the overall performance in some cases. Lastly, the usage of genetic algorithms for hyperparameter search leads to accuracy gains as well as some insights on the performance of different components within the framework.
150

Investigating the Use of Digital Twins to Optimize Waste Collection Routes : A holistic approach towards unlocking the potential of IoT and AI in waste management / Undersökning av användningen av digitala tvillingar för optimering av sophämtningsrutter : Ett holistiskt tillvägagångssätt för att ta del av potentialen för IoT och AI i sophantering

Medehal, Aarati January 2023 (has links)
Solid waste management is a global issue that affects everyone. The management of waste collection routes is a critical challenge in urban environments, primarily due to inefficient routing. This thesis investigates the use of real-time virtual replicas, namely Digital Twins to optimize waste collection routes. By leveraging the capabilities of digital twins, this study intends to improve the effectiveness and efficiency of waste collection operations. The ‘gap’ that the study aims to uncover is hence at the intersection of smart cities, Digital Twins, and waste collection routing. The research methodology comprises of three key components. First, an exploration of five widely used metaheuristic algorithms provides a qualitative understanding of their applicability in vehicle routing, and consecutively waste collection route optimization. Building on this foundation, a simple smart routing scenario for waste collection is presented, highlighting the limitations of a purely Internet of Things (IoT)-based approach. Next, the findings from this demonstration motivate the need for a more data-driven and intelligent solution, leading to the introduction of the Digital Twin concept. Subsequently, a twin framework is developed, which encompasses the technical anatomy and methodology required to create and utilize Digital Twins to optimize waste collection, considering factors such as real-time data integration, predictive analytics, and optimization algorithms. The outcome of this research contributes to the growing concept of smart cities and paves the way toward practical implementations in revolutionizing waste management and creating a sustainable future. / Sophantering är ett globalt problem som påverkar alla, och hantering av sophämtningsrutter är en kritisk utmaning i stadsmiljöer. Den här avhandlingen undersöker användningen av virtuella kopior i realtid, nämligen digitala tvillingar, för att optimera sophämtningsrutter. Genom att utnyttja digitala tvillingars förmågor, avser den här studien att förbättra effektiviteten av sophämtning. Forskningsmetoden består av tre nyckeldelar. Först, en undersökning av fem välanvända Metaheuristika algoritmer som ger en kvalitativ förståelse av deras applicerbarhet i fordonsdirigering och således i optimeringen av sophämtningsrutter. Baserat på detta presenteras ett enkelt smart ruttscenario för sophämtning som understryker bristerna av att bara använda Internet of Things (IoT). Sedan motiverar resultaten av demonstrationen nödvändigheten för en mer datadriven och intelligent lösning, vilket leder till introduktionen av konceptet med digitala tvillingar. Därefter utvecklas ett ramverk för digitala tvillingar som omfattar den tekniska anatomin och metod som krävs för att skapa och använda digitala tvillingar för att optimera sophämtningsrutter. Dessa tar i beaktning faktorer såsom realtidsdataintegrering, prediktiv analys och optimeringsalgoritmer. Slutsatserna av studien bidrar till det växande konceptet av smarta städer och banar väg för praktisk implementation i revolutionerande sophantering och för skapandet för en hållbar framtid.

Page generated in 0.0561 seconds