• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 271
  • 2
  • Tagged with
  • 550
  • 310
  • 245
  • 82
  • 82
  • 81
  • 77
  • 70
  • 66
  • 65
  • 60
  • 58
  • 58
  • 57
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Applying Deep Learning To Improve Optimization- Based Approaches For Robust Sensor Fusion

Wikström, Pernilla January 2021 (has links)
Recent studies show that deep learning can be employed to learn from sensor data to improve accuracy and robustness of sensor fusion algorithms. In the same vein, in this thesis we use a state-of-the-art temporal convolution network to predict zero velocity updates (ZUPT) from raw inertial measurement unit (IMU) signals, and use the network output to improve the performance of an optimization-based pose estimator. Experiments were conducted on publicly available datasets, and results show that (i) the network can distinguish a car in motion vs. a car standing still by observing an IMU signal, and (ii) that ZUPT detection enhances the observability of states in the optimization-based pose estimation, thus reducing local drift. / Nyligen gjorda studier visar att djupinlärning kan användas för att lära av sensordata för att förbättra noggrannhet och robusthet hos sensorfusionsalgoritmer. På samma sätt använder vi i denna avhandling en tidsberoende faltnings neuronnätsmodell (TCN) för att detektera om ett fordon står stilla även kallat zero velocity updates (ZUPT) från IMU rå- data och använder neuronnätsprediktionen för att förbättra prestandan hos en optimeringsbaserad positionsuppskattning. Experiment utfördes på allmänt publicerade datamängder, och resultaten visar att (i) neuronnätsmodellen kan läras till att urskilja en bil i rörelse kontra en bil som står stilla genom att observera en IMU- signal, och (ii) att ZUPT- detektering förbättrar observerbarheten för tillstånd i den optimeringsbaserade positioneringsuppskattningen, vilket minskar lokal drift.
492

Optimization of the Gamma Knife Treatment Room Design / Optimering av Designen av Gammaknivens Behandlingsrum

Nygren, Nelly January 2021 (has links)
Radiation shielding is a central part of the design of treatment rooms for radiation therapy systems. The dose levels that medical staff and members of the public can be exposed to outside the treatment rooms are regulated by authorities and influence the required wall thicknesses and possible locations for the systems. Several standard methods exist for performing shielding calculations, but they are not well adapted to the stereotactic radiosurgery system Leksell Gamma Knife because of its self-shielding properties. The built-in shielding makes the leakage radiation anisotropic and generally have lower energy than the primary radiation from the Gamma Knife's cobalt sources. Oversimplifications made in the standard shielding calculation methods regarding the field can lead to excessively thick shielding and limit the number of suitable locations for the system.  In this thesis project, a simulation-based dose calculation algorithm was developed, that uses Monte Carlo-generated data in two steps. The algorithm uses a phase space to accurately describe the radiation field around the Gamma Knife. Information about individual photons in the field is then combined with a generated library of data describing the resulting dose outside a wall depending on the wall thickness and the photon energy. The dose calculation algorithm is fast enough to be integrated into optimization processes, in which the algorithm is used iteratively while varying room design parameters. Demonstrated in this report is a case with a room of fixed size, in which the Gamma Knife's position and the walls' thicknesses are varied, with the aim to find the room design resulting in the minimum wall thicknesses needed to achieve acceptable dose levels outside. The results in this thesis indicate that the dose calculation algorithm performs well and could likely be used in more complex optimizations with more design variables and more advanced design goals. / Strålsäkerhet är en viktig aspekt vid uppförandet av behandlingsrum för strål-terapisystem. Strålningsnivåerna som sjukvårdspersonal och allmänheten kan exponeras för utanför behandlingsrummet regleras av myndigheter och påverkar vilken väggtjocklek som behövs och vilka platser som är lämpliga att placera systemen på. Flertalet metoder för strålskyddsberäkning existerar, men de är inte väl anpassade till det stereotaktiska radiokirurgiska systemet Leksell Gamma Knife, eftersom det har ett inbyggt strålskydd. Det inbyggda strålskyddet gör att strålfältet runt Gamma Knife är anisotropt och generellt har lägre energi än primärstrålningen från systemets koboltkällor. Förenklingar som görs rörande strålfältet i flera existerande metoder för strålskyddsberäkning kan leda till att överdrivet tjocka strålskydd används eller begränsa antalet lämpliga platser att placera systemet på. I detta projekt utvecklades en dosberäkningsalgoritm, som i två steg använder data genererad genom Monte Carlo-simuleringar. Algoritmen använder ett fasrum för att detaljerat beskriva strålfältet runt Gamma Knife. Information om enskilda fotoner i fältet används sen i kombination med ett genererat bibliotek av data som beskriver det dosbidrag som en foton bidrar med utanför behandlingsrummet, baserat på fotonens energi och väggarnas tjocklek. Dosberäkningsalgoritmen är snabb nog att integreras i optimeringsprocesser där den används iterativt samtidigt som rumsdesignparametrar varieras. I denna rapport demonstreras ett fall med ett rum av bestämd storlek, där positionen av Gamma Knife i rummet och väggarnas tjocklekar varieras. Optimeringens syfte i exemplet är att hitta den rumsdesign som med de minsta väggtjocklekarna resulterar i acceptabla strålningsnivåer utanför rummet. Resultaten tyder på att dosberäkningsalgoritmen sannolikt kan användas i mer komplexa optimeringar med fler designvariabler och mer avancerade designmål.
493

Robust Booster Landing Guidance/Control / Robust Booster Landnings Ledning/Styrning

Çelik, Ugurcan January 2020 (has links)
The space industry and the technological developments regarding space exploration hasn’t been this popular since the first moon landing. The privatization of space exploration and the vertical landing rockets made rocket science mainstream again. While being able to reuse rockets is efficient both in terms of profitability and popularity, these developments are still in their early stages. Vertical landing has challenges that, if neglected, can cause disastrous consequences. The existing studies on the matter usually don’t account for aerodynamics forces and corresponding controls, which results in higher fuel consumption thus lessening the economical benefits of vertical landing. Similar problems have been tackled in studies not regarding booster landings but regarding planetary landings. And while multiple solutions have been proposed for these problems regarding planetary landings, the fact that the reinforcement learning concepts work well and provide robustness made them a valid candidate for applying to booster landings. In this study, we focus on developing a vertical booster descent guidance and control law that’s robust by applying reinforcement learning concept. Since reinforcement learning method that is chosen requires solving Optimal Control Problems (OCP), we also designed and developed an OCP solver software. The robustness of resulting hybrid guidance and control policy will be examined against various different uncertainties including but not limited to wind, delay and aerodynamic uncertainty. / Rymdindustrin och den tekniska utvecklingen av rymdutforskningen har inte varit så populär sedan den första månlandningen. Privatiseringen av utforskningen av rymden och de vertikala landningsraketerna medförde att raketvetenskapen återkom som en viktig huvudfråga igen. Även om det är effektivt att återanvända raketer i form av lönsamhet och popularitet, är denna utveckling fortfarande i sina tidiga stadier. Vertikal landning har utmaningar som, om de försummas, kan orsaka katastrofala konsekvenser. De befintliga studierna i frågan redovisar vanligtvis inte aerodynamikkrafter och motsvarande regulatorer, vilket resulterar i högre bränsleförbrukning som minskar de ekonomiska fördelarna med vertikal landning. Liknande problem har hanterats i studier som inte avsåg boosterlandningar utan om planetariska landningar. Även om flera lösningar har föreslagits för dessa problem beträffande planetariska landningar, det faktum att förstärkningsinlärningskonceptet fungerar bra och ger robusthet gjorde dem till en giltig kandidat för att ansöka om boosterlandningar. I den här studien fokuserar vi på att utveckla en lagstiftning för styrning av vertikala booster-nedstigningar som är robust genom att tillämpa koncepten inom förstärkningsinlärning. Ef- tersom förstärkt inlärningsmetod som väljs kräver lösning av optimala kontrollproblem (OCP), designade och utvecklade vi också en OCP-lösningsmjukvara. Robustheten för resulterande hybridstyrning och kontrollpolicy kommer att undersökas mot olika osäkerheter inklusive, men inte begränsat till vind, fördröjning och aerodynamisk osäkerhet.
494

Low power memory controller subsystem IP exploration using RTL power flow : An End-to-end power analysis and reduction Methodology

Balachandran, Neerajnayan January 2020 (has links)
With FinFET based Application Specific Integrated Circuit (ASIC) designs delivering on the promises of scalability, performance, and power, the road ahead is bumpy with technical challenges in building efficient ASICs. Designers can no longer rely on the ‘auto-scaling’ power reduction that follows technology node scaling, in these times when 7nm presents itself as a ‘long-lived’ node. This leads to the need for early power analysis and reduction flows that are incorporated into the ASIC Intellectual Property (IP) design flow. This leads to a focus on power-efficient design in addition to being functionally efficient. Power inefficiency related hotspots are the leading causes of chip re-spins, and a guideline methodology to design blocks in a power-efficient manner leads to a power-efficient design of the Integrated Circuits (ICs). This alleviates the intensity of cooling requirements and the cost. The Common Memory controller is one of the leading consumers of power in the ASIC designs at Ericsson. This Thesis focusses on developing a power analysis and reduction flow for the common memory controller by connecting the verification environment of the block to low-level power analysis tools, using motivated test cases to collect power metrics, thereby leading to two main goals of the Thesis, characterization and optimization of the block for power. This work also includes an energy efficiency perspective through the Differential Energy Analysis technique, initiated by Qualcomm and Ansys, to improve the flow by improving the test cases that help uncover power inefficiencies/bugs and therefore optimize the block. The flow developed in the Thesis fulfills the goals of characterizing and optimizing the block. The characterization data is presented to provide an idea of the type of data that can be collected and useful for SoC architects and designers in planning for future designs. The characterization/profiling data collected from the blocks collectively contribute to the Electronic System-level power analysis that helps correlate the ASIC power estimate to silicon. The work also validates the flow by working on a specific sub-block, identifying possible power bugs, modifying the design and validating improved performance and thereby, validating the flow. / Med FinFET-baserade applikationsspecifika integrerade kretsar (ASIC) -konstruktioner som ger löften om skalbarhet, prestanda och kraft är vägen framåt ojämn med tekniska utmaningar när det gäller att bygga effektiva ASIC: er. Formgivare kan inte längre lita på den "autoskalande" effektminskningen som följer teknisk nodskalning, i dessa tider då 7nm presenterar sig som en "långlivad" nod. Detta leder till behovet av tidig kraftanalys och reduktionsflöden som är integrerade i ASIC Intellectual Property (IP) designflöde. Detta leder till fokus på energieffektiv design förutom att det är funktionellt effektivt. Krafteffektivitetsrelaterade hotspots är de ledande orsakerna till respins av chip, och en riktlinjemetodik för att konstruera block på ett energieffektivt sätt leder till energieffektiv design av Integrated Circuits (ICs). Detta lindrar intensiteten hos kylbehovet och kostnaden. Common Memory-kontrollen är en av de ledande energikonsumenterna i ASIC-designen hos Ericsson. Denna avhandling fokuserar på att utveckla en effektanalys och reduktionsflöde för den gemensamma minneskontrollern genom att ansluta verifieringsmiljön för blocket till lågnivåeffektanalysverktyg, med hjälp av motiverade test caser för att samla effektmätvärden, vilket leder till två huvudmål för avhandlingen, karakterisering och optimering av blocket för kraft. Detta arbete inkluderar också energieffektivitetsperspektiv genom Differential Energy Analys-teknik, initierad av Qualcomm och Ansys, för att förbättra flödet genom att förbättra test cases som hjälper till att upptäcka effekteffektivitet / buggar och därför optimera blocket. Flödet som utvecklats i avhandlingen uppfyller målen att karakterisera och optimera blocket. Karaktäriseringsdata presenteras för att ge en uppfattning om vilken typ av data som kan samlas in och vara användbara för SoC-arkitekter och designers i planering för framtida mönster. Karaktäriserings/ profileringsdata som samlats in från blocken bidrar tillsammans till effektanalysen för elektronisk systemnivå som hjälper till att korrelera ASIC-effektberäkningen till kisel. Arbetet validerar också flödet genom att arbeta på ett specifikt underblock, identifiera möjliga effektbuggar, modifiera utforma och validera förbättrad prestanda och därmed validera flödet.
495

Optimal Force Distribution for Active and Semi-active Suspension Systems / Optimal kraftfördelning för aktiva och semiaktiva fjädringssystem

Kumarasamy, Gobi January 2022 (has links)
The development needs of handling and ride vehicle dynamic characteristics are constantly evolving, crucial for safety and comfortable commute since many active safety and driver assistance systems depend on these characteristics. Ride improvements enhance passenger comfort, which plays a significant role in quality and brand value. Chassis and suspension systems greatly influence these vehicle dynamic characteristics. These systems should provide stability, high precision and a high degree of adaptive performance with quick response time. One of the ways to achieve these demands is by incorporating mechatronics suspension systems. Semi-active and fully active mechatronics suspension systems offer passengers a more comprehensive range of vehicle characteristics in terms of driving experience than vehicles with purely mechanical suspension systems. The efficient implementation of mechatronics suspension systems depends on the controller type and how its commands are realised. A typical control strategy is to decide a desired behaviour on the vehicle body and realise that behaviour with the help of the semi-active or active actuators. This work focuses on the realisation of the modal coordinate controller commands that counteracts the undesired body motions. The commands are in vehicle body coordinates with respect to the COG of the vehicle. The biggest challenge is to translate these counteracting forces and torques into semi-active damper vertical forces. This challenge is addressed with different algorithms with different levels of complexity and capability. The complexity ranges from the linear system of equations to real-time optimisation. Essentially, the algorithms will fragmentise and distribute the centralised command among different actuators and finally realise them back as close as commanded by taking the actuator and other physical limitations into account. This work also focuses on developing relative weights tuning methods, which play a significant role in the cost function formation and optimisation solution. The algorithms are evaluated in three different road conditions to incorporate typical driving environments related to primary and secondary rides. The enhancements in the ride performance are visualised by comparing against the existing methodology. The conclusions strongly support the optimisation-based force allocation algorithm over the existing method. It enables significant improvements in the ride performance and a high degree of flexibility by efficiently distributing commands among four actuators, which results in utilising the full potential of the semi-active dampers. / Utvecklingsbehoven för fordons dynamiska egenskaper med avseende på åkkomfort och köregenskaper är ständigt föränderliga och är avgörande för säkerheten och bekväm pendling eftersom många aktiva säkerhets- och förarassistanssystem är beroende av dessa egenskaper. Åkkomfortförbättringar förbättrar passagerarnas komfort, vilket spelar en betydande roll för kvalitet och märkesvärde. Chassi och fjädringssystem påverkar i hög grad dessa fordonsdynamiska egenskaper. Dessa system ska ge stabilitet, hög precision och en hög grad av adaptiv prestanda med snabb responstid. Ett av sätten att uppnå dessa krav är genom att införliva mekatroniska fjädringssystem. Semiaktiva och fullt aktiva mekatronikfjädringssystem erbjuder passagerare ett mer omfattande utbud av fordonsegenskaper när det gäller körupplevelse än fordon med rent mekaniska upphängningssystem. Ett effektivt genomförande av semiaktiva eller aktiva fjädringssystem beror på styrenhetstypen och hur styrenhetens kommandon är realiserade. En typisk reglerstrategi är att bestämma ett önskat beteende på fordonets kaross och realisera det beteendet med hjälp av de semiaktiva eller aktiva dämparna. Detta arbete fokuserar på förverkligandet av de modala koordinatstyrkommandon som motverkar oönskade kroppsrörelser. Kommandona beskrivs i fordonskroppens koordinater med avseende på fordonets tyngdpunkt (COG). Den största utmaningen är att översätta dessa motverkande krafter och vridmoment till vertikala krafter för stötdämparna. Denna utmaning hanteras med olika algoritmer med olika nivåer av komplexitet och kapacitet. Komplexiteten sträcker sig från det linjära ekvationssystemet till optimering i realtid. I huvudsak kommer algoritmerna att fragmentera och distribuera det centraliserade kommandot bland olika dämpare och slutligen förverkliga dem tillbaka så nära kommandot som möjligt genom att ta hänsyn till ställdonet och andra fysiska begränsningar. Studien fokuserar också på att utveckla justeringsmetoder för relativa vikter, som spelar en viktig roll i kostnadsfunktionsbildningen och optimeringslösningen. Algoritmerna utvärderas under tre olika vägförhållanden för att inkludera typiska körmiljöer relaterade till primär och sekundär åkkomfort. Förbättringarna i körprestandan visualiseras genom att jämföra mot den befintliga metoden. Slutsatserna stöder starkt en optimeringsbaserad kraftallokeringsalgoritm över den befintliga metoden. Algoritmen möjliggör betydande förbättringar av prestandan och en hög grad av flexibilitet genom att effektivt fördela kommandot bland fyra ställdon, vilket resulterar i att utnyttja den fulla potentialen för de semiaktiva dämparna.
496

A Predictive Analysis of Customer Churn / : En Prediktiv Analys av Kundbortfall

Eskils, Olivia, Backman, Anna January 2023 (has links)
Churn refers to the discontinuation of a contract; consequently, customer churn occurs when existing customers stop being customers. Predicting customer churn is a challenging task in customer retention, but with the advancements made in the field of artificial intelligence and machine learning, the feasibility to predict customer churn has increased. Prior studies have demonstrated that machine learning can be utilized to forecast customer churn. The aim of this thesis was to develop and implement a machine learning model to predict customer churn and identify the customer features that have a significant impact on churn. This Study has been conducted in cooperation with the Swedish insurance company Bliwa, who expressed interest in gaining an increased understanding of why customers choose to leave.  Three models, Logistic Regression, Random Forest, and Gradient Boosting, were used and evaluated. Bayesian optimization was used to optimize the models. After obtaining an indication of their predictive performance during evaluation using Cross-Validation, it was concluded that LightGBM provided the best result in terms of PR-AUC, making it the most effective approach for the problem at hand. Subsequently, a SHAP-analysis was carried out to gain insights into which customer features that have an impact on whether or not a customer churn. The outcome of the SHAP-analysis revealed specific customer features that had a significant influence on churn. This knowledge can be utilized to proactively implement measures aimed at reducing the probability of churn. / Att förutsäga kundbortfall är en utmanande uppgift inom kundbehållning, men med de framsteg som gjorts inom artificiell intelligens och maskininlärning har möjligheten att förutsäga kundbortfall ökat. Tidigare studier har visat att maskinlärning kan användas för att prognostisera kundbortfall. Syftet med denna studie var att utveckla och implementera en maskininlärningsmodell för att förutsäga kundbortfall och identifiera kundegenskaper som har en betydande inverkan på varför en kund väljer att lämna eller inte. Denna studie har genomförts i samarbete med det svenska försäkringsbolaget Bliwa, som uttryckte sitt intresse över att få en ökad förståelse för varför kunder väljer att lämna. Tre modeller, Logistisk Regression, Random Forest och Gradient Boosting användes och utvärderades. Bayesiansk optimering användes för att optimera dessa modeller. Efter att ha utvärderat prediktiv noggrannhet i samband med krossvalidering drogs slutsatsen att LightGBM gav det bästa resultatet i termer av PR-AUC och ansågs därför vara den mest effektiva metoden för det aktuella problemet. Därefter genomfördes en SHAP-analys för att ge insikter om vilka kundegenskaper som påverkar varför en kund riskerar, eller inte riskerar att lämna. Resultatet av SHAP-analysen visade att vissa kundegenskaper stack ut och verkade ha en betydande påverkan på kundbortfall. Denna kunskap kan användas för att vidta proaktiva åtgärder för att minska sannolikheten för kundbortfall.
497

Open Source Grid Expansion Models for the EU Project Spine

Tammanur Ravi, Akshaya January 2021 (has links)
Modern power systems are at the forefront of addressing the transition towards a decarbonized energy system, with increased integration of renewable energy sources becoming the key means to achieve the same. In this context, an expansion planning problem provides a decision support framework for investments in new generation and transmission assets over a long time-frame, addressing a wide range of technical and economic criteria aligned with national policies. It is thus an important but complex problem to solve, involving a number of modelling challenges and uncertainties to be considered. These include the treatment of operational variability due to the intermittent nature of renewable sources like wind or solar, while also considering uncertainties such as demand growth, technological developments impacting future investment costs among others, that define the long-term dynamics in the expansion. In this regard, one of the goals of the EU Project Spine is to create open source models to study investment scenarios for the expansion of power systems. This thesis work aims to offer insights for the Spine project, by identifying and exploring various requirements pertinent to a planning problem, along with method development. The primary objective of this thesis is to develop an expansion planning model, that determines the optimal location, size or capacity and time of investment for different candidates in generation and transmission assets, including short-term energy storage. A Mixed-Integer Linear Programming (MILP) optimization problem is formulated for the same, with both investment and operational sub-problems solved together. Operational variability has been modelled in a reduced form using profiles of representative days, while also incorporating contemporary requirements in the planning problem such as penetration targets for renewable generation. The developed model has been evaluated using a case study done on a small test network, in which different expansion scenarios involving varying demand growth and phase-out of conventional generators are investigated. Also, a two-stage stochastic optimization is performed to consider long-term uncertainties in demand growth and the quality of the stochastic solution is analyzed. It is inferred from the results that the expansion solution is indeed different for different scenarios, and stochastic optimization proves to be important in addressing long-term uncertainties, as reflected by a high value of stochastic solution (VSS). / Moderna kraftsystem ligger i framkant när det kommer till omställningen till ett fossilfritt energisystem. Ökad integrering av förnybara energikällor är den främsta lösningen för att uppnå detta. I samband med omställningen kan ett utbyggnadsplanering problem bidra till ramverk för investeringsbeslut för genererings- och transmissionstillgångar över ett långt tidsspann, vilket tar hänsyn till en bredd av tekniska och ekonomiska kriterier i linje med nationella policyer. Detta är ett viktigt, men ett komplext problem som inkluderar ett stort antal modelleringsutmaningar och osäkerheter som måste beaktas. Bland annat inkluderas hur drift varierar på grund av de förnybara energikällornas intermittenta karaktär såsom vind och sol, medan osäkerheter kring hur efterfrågan utvecklas, tekniska framsteg som påverkar framtida investeringar m.m., också behöver vägas in. Med hänsyn till detta är ett av målen för EU Project Spine att skapa en open source för modeller med syftet att studera investeringsscenarier när kraftsystemet expanderar. Syftet med detta examensarbete är att ge insikt i Spine-projektet genom att identifiera och utforska olika relevanta krav för ett planneringsproblem samt att utveckla metoder. Det huvudsakliga målet för detta examensarbete är att utveckla en expanderad planeringsmodell som bestämmer optimal placering, storlek, kapacitet och tidpunkt för investering för olika typer av genererings- och transmissionstillgångar samt kortvarig energilagring. Ett mixed-integer linjär programmering (MILP) optimeringsproblem har formulerats, där både investerings- och drifts-subproblem beräknas tillsammans. Variabel drift av kraftsystemet har modellerats på reducerad form genom att använda profiler för representativa dagar, därtill inkluderas samtida krav i planeringen såsom mål för penetreringsnivå av förnybara energikällor. Den utvecklade modellen har utvärderats i en fallstudie på en liten nätmodell där olika scenarier har utforskats. I scenarierna varieras tillväxten på efterfrågan och när utfasningen av konventionella generatorer sker. Därtill, sker en två-stegs stokastisk optimering för att ta hänsyn till långsiktiga osäkerheter kring tillväxten på efterfrågan och kvalitén av den stokastiska lösningen har analyserats. Resultaten visar att den expanderade lösningen är olika för olika scenarier, och att den stokastiska optimeringen är viktig när långsiktiga osäkerheter måste beaktas som visas genom ett högt värde för den stokastiska lösningen (VSS).
498

Exploring Column Update Elimination Optimization for Spike-Timing-Dependent Plasticity Learning Rule / Utforskar kolumnuppdaterings-elimineringsoptimering för spik-timing-beroende plasticitetsinlärningsregel

Singh, Ojasvi January 2022 (has links)
Hebbian learning based neural network learning rules when implemented on hardware, store their synaptic weights in the form of a two-dimensional matrix. The storage of synaptic weights demands large memory bandwidth and storage. While memory units are optimized for only row-wise memory access, Hebbian learning rules, like the spike-timing dependent plasticity, demand both row and column-wise access of memory. This dual pattern of memory access accounts for the dominant cost in terms of latency as well as energy for realization of large scale spiking neural networks in hardware. In order to reduce the memory access cost in Hebbian learning rules, a Column Update Elimination optimization has been previously implemented, with great efficacy, on the Bayesian Confidence Propagation neural network, that faces a similar challenge of dual pattern memory access. This thesis explores the possibility of extending the column update elimination optimization to spike-timing dependent plasticity, by simulating the learning rule on a two layer network of leaky integrate-and-fire neurons on an image classification task. The spike times are recorded for each neuron in the network, to derive a suitable probability distribution function for spike rates per neuron. This is then used to derive an ideal postsynaptic spike history buffer size for the given algorithm. The associated memory access reductions are analysed based on data to assess feasibility of the optimization to the learning rule. / Hebbiansk inlärning baserat på neural nätverks inlärnings regler används vid implementering på hårdvara, de lagrar deras synaptiska vikter i form av en tvådimensionell matris. Lagringen av synaptiska vikter kräver stor bandbredds minne och lagring. Medan minnesenheter endast är optimerade för radvis minnesåtkomst. Hebbianska inlärnings regler kräver som spike-timing-beroende plasticitet, både rad- och kolumnvis åtkomst av minnet. Det dubbla mönstret av minnes åtkomsten står för den dominerande kostnaden i form av fördröjning såväl som energi för realiseringen av storskaliga spikande neurala nätverk i hårdvara. För att minska kostnaden för minnesåtkomst i hebbianska inlärnings regler har en Column Update Elimination-optimering tidigare implementerats, med god effektivitet på Bayesian Confidence Propagation neurala nätverket, som står inför en liknande utmaning med dubbel mönster minnesåtkomst. Denna avhandling undersöker möjligheten att utöka ColumnUpdate Elimination-optimeringen till spike-timing-beroende plasticitet. Detta genom att simulera inlärnings regeln på ett tvålagers nätverk av läckande integrera-och-avfyra neuroner på en bild klassificerings uppgift. Spike tiderna registreras för varje neuron i nätverket för att erhålla en lämplig sannolikhetsfördelning funktion för frekvensen av toppar per neuron. Detta används sedan för att erhålla en idealisk postsynaptisk spike historisk buffertstorlek för den angivna algoritmen. De associerade minnesåtkomst minskningarna analyseras baserat på data för att bedöma genomförbarheten av optimeringen av inlärnings regeln.
499

Optimization of Physical Uplink Resource Allocation in 5G Cellular Network using Monte Carlo Tree Search / Optimering av fysisk resurstilldelning för uppkoppling i 5G-cellulärt nätverk med hjälp av Monte Carlo Tree Search

Girame Rizzo, Gerard January 2022 (has links)
The Physical Uplink Control Channel (PUCCH), which is mainly used to transmit Uplink Control Information (UCI), is a key component to enable the 5G NR system. Compared to LTE, NR specifies a more flexible PUCCH structure to support various applications and use cases. In the literature, however, an optimized solution that exploits those degrees of freedom is missing and fixed-heuristic solutions are just implemented in current 5G networks. Consequently, the predefined PUCCH format configuration is inefficient because it proposes a one-size-fits-all solution. In short, the number of symbols dedicated to PUCCH resources are often pre-determined and fixed without considering the UE’s specific needs and requirements. Failure to exploit the diversity of PUCCH format configurations and sticking to the one-size-fits-all solution, translates into a poor PUCCH resource allocation in the physical grid. To overcome this, a solution is presented by introducing a more efficient PUCCH re-distribution algorithm that exploits the same Physical Resource Block (PRB) domain. This leads into a combinatorial optimization problem with the objective of minimizing the PRBs utilization while maximizing the number of resources allocated and, in essence, the number of UEs “served”. For this purpose, we utilize a Monte Carlo Tree Search (MCTS) method to find the optimal puzzle on the grid, which offers clear advantages in search time benchmarked against an exhaustive search method. A wide variety of cases and scenario-dependent solutions are allowed using this puzzling technique. Overall results indicate that the optimal solutions devised by MCTS in conjunction with the new resource allocation algorithm bring substantial improvement compared to the one-size-fits-all baseline. In particular, this novel implementation, nonexistent to date in the 3GPP standard, reduces the dedicated PUCCH resource region by 1=6 without sacrificing any user’s allocation, while reusing the remaining PRBs (an increase of up to 11:36%) for the UL data channel or PUSCH. As a future work, we expect to observe similar improvements in higher layers metrics and KPIs, once link-level reception details are implemented and simulated for UL control channels based on our resource allocation solution. / PUCCH, som huvudsakligen används för att överföra UCI, är en nyckelkomponent för att möjliggöra 5G NR-systemet. Jämfört med LTE specificerar NR en mer flexibel PUCCH-struktur för att stödja olika tillämpningar och användningsfall. I litteraturen saknas dock en optimerad lösning som utnyttjar dessa frihetsgrader, och fasta heuristiska lösningar har bara implementerats i nuvarande 5G-nät. Följaktligen är den fördefinierade konfigurationen av PUCCH-formatet ineffektiv eftersom den föreslår en lösning som passar alla. Kort sagt, antalet symboler som är avsedda för PUCCH-resurser är ofta förutbestämda och fastställda utan att man tar hänsyn till UE:s specifika behov och krav. Om man inte drar nytta av den mångfald av PUCCH-formatkonfigurationer och håller sig till en lösning som passar alla, kommer det att leda till en dålig PUCCH-resursallokering i det fysiska resursnätet. För att lösa detta presenteras en lösning genom att införa en effektivare algoritm för omfördelning av PUCCH som utnyttjar samma PRB-domän. Detta leder till ett kombinatoriskt optimeringsproblem med målet att minimera PRB-utnyttjandet och samtidigt maximera antalet tilldelade resurser och, i huvudsak, antalet betjänadeänvändare. För detta ändamål använder vi en MCTS-metod för att hitta det optimala pusslet på rutnätet, vilket ger klara fördelar i söktid jämfört med en uttömmande sökmetod. En mängd olika fall och scenarioberoende lösningar tillåts med hjälp av denna pusselteknik. De övergripande resultaten visar att de optimala lösningarna som MCTS har tagit fram tillsammans med den nya resursfördelningsalgoritmen ger avsevärda förbättringar jämfört med den grundläggande lösningen med en enda lösning som passar alla. Denna nya implementering, som hittills inte funnits i 3GPP-standarden, minskar det dedikerade PUCCH-resursområdet med 1=6 utan att offra någon användarallokering, samtidigt som de återstående PRB:erna återanvänds (en ökning med upp till 11:36%) för UL-datakanalen eller PUSCH. Som ett framtida arbete förväntar vi oss att observera liknande förbättringar i mätvärden och KPI:er på högre nivåer, när mottagningsdetaljer på länknivå har genomförts och simulerats för uplink-kontrollkanaler baserade på vår resursallokeringslösning.
500

Open Source Model of the Nordic Power System for EU Project Spine

Satheeskumar, Aravind January 2020 (has links)
Decision problems in operation and planning of power systems often rely on large-scale models and data sets. Lack of historical power flow data due to regulatory restrictions often limits researchers to study the system with aggregated network models. Aggregated data from the electricity market operators (Nordpool in the Nordics) and the Transmission System Operator (TSO) (from ENTSO-E) are openly available, and can be used to study the power flow and exchanges between different regions but do not directly provide information about intra-region flows. This project builds upon the Nordic 490 system, a previously built model of the Nordic power system. The main objective of this work is to improve the existing open source power flow model of the Nordic power system, in order to become in turn available for the multi-energy modelling and simulation software Spine. The N490 model generates a model of the Nordic power system consisting of various nodes/buses which represent substations at different voltage levels. Then, it distributes the aggregated production, consumption and power exchange data from Nordpool to the various buses. In this project, different possible improvements are evaluated for the model, aiming at estimating a set of network parameters that minimize the errors between the calculated inter-region flows and the ones from the open data repositories. The different improvements which are evaluated are the following. Firstly, the load distribution is modified and reassigned to match the regional electricity consumption. The generators and wind farms are then reallocated to different bus based on their bidding region and proximity to the bus. The databases are improved and the power balance relation modified. Transmission line parameters are then investigated, first to standard recommended values and then by solving an optimisation problem formulated to extract the parameters from the market data. Finally, the model is also tested with wind and solar generation modelled as a generator rather than as a negative load. / Beslutsproblem gällande drift och planering av kraftsystemet baseras ofta på storskaliga modeller och datamängder. Bristen på historiska data gällande effektflöden beror på säkerhetsrestriktioner vilket begränsar forskare till att enbart studera aggregerade nätverksmodeller. Det finns tillgängliga aggregerade data från den nordiska elmarknadsplatsen Nordpool och organisationen ENTSO-E som kan användas för att studera effektflöden mellan olika regioner, dock finns det inte direkta data för flöden inom regionerna. Det här projektet bygger på det nordiska 490-systemet, en tidigare byggd modell av det nordiska kraftsystemet. Huvudsyftet med detta arbete är att förbättra den existerande effektflödesmodellen av det nordiska kraftsystemet, för att i sin tur bli tillgänglig för multienergimodelleringar och simuleringsprogramvaran Spine. N490-modellen genererar en modell för det nordiska kraftsystemet som innehåller olika noder som presenterar ställverk med olika spänningsnivåer och modellen ger också aggregerade data för produktion, konsumtion och effektutbyte mellan de olika noderna från Nordpool. I detta projekt utvärderades olika möjliga förbättringar för modellen som syftar till att uppskatta nätverkets parametrar som kan minimera felen mellan beräkningar av flöde inom regionen och data från öppna datalagringskällor. Följande förbättringar gjordes: Först har lastens fördelning modifierats och ändrats för att matcha den regionala elkonsumtionen. Generatorer och vindkraftsparker allokerades till olika noder baserad på elhandelsområden och närhet till noderna. Databasen förbättrades för att erhålla en bättre effektbalans per område. Kraftledningarnas parametrar ändrades först till rekommenderade standardvärden, vilka sedan förbättrades genom att formulera ett optimeringsproblem för att extrahera parametrarna från markandsdata. Slutligen testades modellen genom att presentera vind- och sol-produktion som generatorer istället för som negativ förbrukning.

Page generated in 0.0977 seconds