• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 290
  • 24
  • 21
  • 16
  • 9
  • 7
  • 7
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 475
  • 475
  • 117
  • 99
  • 99
  • 88
  • 67
  • 62
  • 62
  • 54
  • 48
  • 47
  • 47
  • 45
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Data-driven airport management enabled by operational milestones derived from ADS-B messages

Schultz, Michael, Rosenow, Judith, Olive, Xavier 20 January 2023 (has links)
Standardized, collaborative decision-making processes have already been implemented at some network-relevant airports, and these can be further enhanced through data-driven approaches (e.g., data analytics, predictions). New cost-effective implementations will also enable the appropriate integration of small and medium-sized airports into the aviation network. The required data can increasingly be gathered and processed by the airports themselves. For example, Automatic Dependent Surveillance-Broadcast (ADS-B) messages are sent by arriving and departing aircraft and enable a data-driven analysis of aircraft movements, taking into account local constraints (e.g., weather or capacity). Analytical and model-based approaches that leverage these data also offer deeper insights into the complex and interdependent airport operations. This includes systematic monitoring of relevant operational milestones as well as a corresponding predictive analysis to estimate future system states. In fact, local ADS-B receivers can be purchased, installed, and maintained at low cost, providing both very good coverage of the airport apron operations (runway, taxi system, parking positions) and communication of current airport performance to the network management. To prevent every small and medium-sized airport from having to develop its own monitoring system, we present a basic concept with our approach. We demonstrate that appropriate processing of ADS-B messages leads to improved situational awareness. Our concept is aligned with the operational milestones of Eurocontrol’s Airport Collaborative Decision Making (A-CDM) framework. Therefore, we analyze the A-CDM airport London–Gatwick Airport as it allows us to validate our concept against the data from the A-CDM implementation at a later stage. Finally, with our research, we also make a decisive contribution to the open-data and scientific community.
422

[en] ELECTIONS AND DATA: CONSOLIDATION OF DATA-DRIVEN CAMPAIGNS IN BRAZIL AND CHALLENGES OF THE ELECTIORAL LEGISLATION TOWARDS PERSONAL DATA PROTECTION / [pt] ELEIÇÕES E DADOS: A CONSOLIDAÇÃO DAS CAMPANHAS ORIENTADAS POR DADOS NO BRASIL E OS DESAFIOS DA LEGISLAÇÃO ELEITORAL NA TUTELA DOS DADOS PESSOAIS

NATALIA DE ANDRADE PENQUE 14 December 2023 (has links)
[pt] As novas tecnologias da informação e comunicação, associadas à perda de protagonismo das mídias de massa tradicionais, impuseram às campanhas eleitorais novas formas de estruturação, de modo a atender às demandas de uma população cada vez mais habituada a consumir informação de forma rápida e simplificada. A necessária reprogramação da comunicação política fez surgir o que se entende como campanhas orientadas por dados, caracterizadas pela utilização de grandes volumes de dados pessoais na elaboração das estratégias de propaganda eleitoral. No Brasil, a positivação do impulsionamento de conteúdo on-line, em conjunto com a prática de difusão em massa de conteúdo eleitoral por aplicativos de mensagens instantâneas – observada de forma contundente nas eleições de 2018 – indicam a consolidação das campanhas orientadas por dados no cenário político-eleitoral nacional e as recentes reformas na Lei de Eleições revelam a intenção do legislador em adequar o regramento eleitoral à nova realidade das campanhas. As alterações legislativas, no entanto, não vieram acompanhada na necessária preocupação em promover uma ampla atualização da legislação eleitoral para fazer frente aos riscos que as práticas adotadas pelas campanhas orientadas por dados podem acarretar ao processo democrático, principalmente no tocante à autonomia do eleitor e à proteção de dados pessoais, demandando maiores estudos sobre o tema. / [en] New informational and communication technologies associated with traditional mass media s faltering prominence precipitated new methods of structuring electoral campaigns to meet the demands of a population increasingly used to consuming information in a fast and simplified way. The required reprogramming of political communication gave rise to what are understood as data-driven campaigns,characterized by the use of large volumes of personal data to drive electoral propaganda strategies. In Brazil, the legalization of online content boosting, along side mass dissemination of electoral content through instant messaging applications – strikingly observed in the 2018 elections – indicate the consolidation of data-driven campaigns inthe national political-electoral environment. Further, recent reforms in the Electoral Lawreveal legislators intent to adapt electoral rules to the new reality presented by these campaigns. The changes, however, were not accompanied by a much-needed, broader investigation and update of the electoral legislation to confront the risks that these data driven campaign practices bring to the democratic process, especially with regard to voter autonomy and protection of personal data.
423

Physics-Informed Neural Networks and Machine Learning Algorithms for Sustainability Advancements in Power Systems Components

Bragone, Federica January 2023 (has links)
A power system consists of several critical components necessary for providing electricity from the producers to the consumers. Monitoring the lifetime of power system components becomes vital since they are subjected to electrical currents and high temperatures, which affect their ageing. Estimating the component's ageing rate close to the end of its lifetime is the motivation behind our project. Knowing the ageing rate and life expectancy, we can possibly better utilize and re-utilize existing power components and their parts. In return, we could achieve better material utilization, reduce costs, and improve sustainability designs, contributing to the circular industry development of power system components. Monitoring the thermal distribution and the degradation of the insulation materials informs the estimation of the components' health state. Moreover, further study of the employed paper material of their insulation system can lead to a deeper understanding of its thermal characterization and a possible consequent improvement. Our study aims to create a model that couples the physical equations that govern the deterioration of the insulation systems of power components with modern machine learning algorithms.  As the data is limited and complex in the field of components' ageing, Physics-Informed Neural Networks (PINNs) can help to overcome the problem. PINNs exploit the prior knowledge stored in partial differential equations (PDEs) or ordinary differential equations (ODEs) modelling the involved systems. This prior knowledge becomes a regularization agent, constraining the space of available solutions and consequently reducing the training data needed.  This thesis is divided into two parts: the first focuses on the insulation system of power transformers, and the second is an exploration of the paper material concentrating on cellulose nanofibrils (CNFs) classification. The first part includes modelling the thermal distribution and the degradation of the cellulose inside the power transformer. The deterioration of one of the two systems can lead to severe consequences for the other. Both abilities of PINNs to approximate the solution of the equations and to find the parameters that best describe the data are explored. The second part could be conceived as a standalone; however, it leads to a further understanding of the paper material. Several CNFs materials and concentrations are presented, and this thesis proposes a basic unsupervised learning using clustering algorithms like k-means and Gaussian Mixture Models (GMMs) for their classification. / Ett kraftsystem består av många kritiska komponenter som är nödvändiga för att leverera el från producenter till konsumenter. Att övervaka livslängden på kraftsystemets komponenter är avgörande eftersom de utsätts för elektriska strömmar och höga temperaturer som påverkar deras åldrande. Att uppskatta komponentens åldringshastighet nära slutet av dess livslängd är motivationen bakom vårt projekt. Genom att känna till åldringshastigheten och den förväntade livslängden kan vi eventuellt utnyttja och återanvända befintliga kraftkomponenter och deras delar   bättre. I gengäld kan vi uppnå bättre materialutnyttjande, minska kostnaderna och förbättra hållbarhetsdesignen vilket bidrar till den cirkulära industriutvecklingen av kraftsystemskomponenter. Övervakning av värmefördelningen och nedbrytningen av isoleringsmaterialen indikerar komponenternas hälsotillstånd. Dessutom kan ytterligare studier av pappersmaterial i kraftkomponenternas isoleringssystem leda till en djupare förståelse av dess termiska karaktärisering och en möjlig förbättring.  Vår studie syftar till att skapa en modell som kombinerar de fysiska ekvationer som styr försämringen av isoleringssystemen i kraftkomponenter med moderna algoritmer för maskininlärning. Eftersom datan är begränsad och komplex när det gäller komponenters åldrande kan  fysikinformerade neurala nätverk (PINNs) hjälpa till att lösa problemet. PINNs utnyttjar den förkunskap som finns lagrad i partiella differentialekvationer (PDE) eller ordinära differentialekvationer (ODE) för att modellera system och använder dessa ekvationer för att begränsa antalet tillgängliga lösningar och därmed minska den mängd träningsdata som behövs.  Denna avhandling är uppdelad i två delar: den första fokuserar på krafttransformatorers isoleringssystem, och den andra är en undersökning av pappersmaterialet som används med fokus på klassificering av cellulosananofibriller (CNF). Den första delen omfattar modellering av värmefördelningen och nedbrytningen av cellulosan inuti krafttransformatorn. En försämring av ett av de två systemen kan leda till allvarliga konsekvenser för det andra. Både PINNs förmåga att approximera lösningen av ekvationerna och att hitta de parametrar som bäst beskriver datan undersöks. Den andra delen skulle kunna ses som en fristående del, men den leder till en utökad förståelse av själva pappersmaterialet. Flera CNF-material och koncentrationer presenteras och denna avhandling föreslår en simpel oövervakad inlärning med klusteralgoritmer som k-means och Gaussian Mixture Models (GMMs) för deras klassificering. / <p>QC 20231010</p>
424

Self Service Business Intelligence inom offentlig sektor : En kvalitativ studie om vilka utmaningar som den offentliga sektorn ställs inför vid användning av SSBI

Eric, Törgren, Hugo, Jagaeus January 2023 (has links)
Digitalisering sker idag både i privat som offentlig sektor där datadriven beslutsfattning är en av trenderna. En teknologi som vuxit fram i samband med digitaliseringen och som hjälper verksamheter utvecklas är Self Service Business Intelligence (SSBI). Offentliga verksamheters digitala utveckling går långsammare än för privata bolag. Studien syftar till att undersöka vilka utmaningar offentliga verksamheter ställs inför i sin användning av SSBI samt att presentera hanteringsförslag på dessa utmaningar. För att besvara studiens frågeställning och uppfylla dess syfte har en kvalitativ forskningsansats använts. Semistrukturerade intervjuer har genomförts där respondenterna har varit personer som arbetar på offentliga verksamheter alternativt mot offentliga verksamheter. Studien resulterade i fyra utmaningar som är vanligt förekommande inom offentlig verksamhet och som inte lyfts i tidigare litteratur. Dessa fyra är; diversifierade verksamheter, ledningen, lagar och säkerhet samt begränsad självständighet. För varje utmaning har förslag diskuterats för hur utmaningarna effektivt kan hanteras. Studiens slutsats kan vara hjälpsam för offentliga verksamheter i deras fortsatta utveckling mot att bli datadrivna i sin beslutsfattning. Med hjälp av datadriven beslutsfattning möjliggörs för offentliga verksamheter att arbeta mer hållbart och bli mer resurseffektiva. / Digitization is today taking place in both private and public sectors, wheredata driven decision making is one of the trends. Self Service BusinessIntelligence (SSBI) is a technology that has emerged in conjunction with thedigital development and is helping businesses to develop. However, thedigital development in public organizations tends to be slower than forprivate companies. Therefore, this study aims to examine the challengesfaced by public organizations in their use of SSBI and also to presentproposals for addressing these challenges.To answer the research question and fulfill the study's purpose, a qualitativeresearch approach has been used with an abductive thinking. Semistructured interviews have been conducted with respondents who work in orwith public organizations. The study resulted in four challenges that arecommon in public organizations and that have not been addressed inprevious literature. These four challenges are diversified organizations, themanagement, laws and security, limited self-reliance. For each challenge,proposals have been discussed for how the challenges can be effectivelyaddressed. This study conclusion can be helpful for public organizations inthe continued development towards becoming data driven decision making.With the help of data driven decision making, public organizations can workmore sustainably and become more resource efficient.
425

Smart Sensors as Technical Enabler of Pay-per-X Business Models for Original Equipment Manufacturers : A Case Study with a German Sensor-Technology Start-up

Szablikowski, Manuel January 2022 (has links)
This thesis aims to investigate a digital, emerging business model, which just enjoys the highest attention in many industrial sectors. The industry 4.0 changes how original equipment manufacturers (OEMs) retain their competitiveness and offer innovative solutions to their customers. Therefore, this master thesis investigates the diverse opportunities of usage-based business models – namely Pay-per-X / Equipment-as-a-Service – from the perspective of a sensor-tech start-up. The company, which can act as a technical enabler for Pay-per-X, is located in Germany and has various markets leading machine and component manufacturers as customers. This projects’ goal is to get an in-depth understanding of the business model and how the company (with their technology) can participate in the market, which is estimated to have a size of 131.2m USD in 2025. Therefore, mainly qualitative research methods have been applied – however, quantitative sections enrich the analysis part of the thesis. Nine expert interviews were conducted, and a calculation tool was developed, which aims to easily convince OEMs of the new business models through modeling a business case, by incorporation of the most relevant parameters. Two use cases were analyzed in the fields of production machines and commercial vehicles. This is followed by a short excursus to a required Pay-per-X cloud software, where requirements were defined based on machine users’ needs. Based on these insights, a positioning strategy for the case company within this field is proposed later-on, which puts emphasis on how the firm can act as a technical enabler for Pay-per-X business models. / Syftet med denna avhandling är att undersöka en ny digital affärsmodell som just nu får stor uppmärksamhet inom många industrisektorer. Industri 4.0 förändrar hur tillverkare av originalutrustning behåller sin konkurrenskraft och erbjuder innovativa lösningar till sina kunder. Därför undersöker denna masteruppsats de olika möjligheterna med användningsbaserade affärsmodeller - nämligen Pay-per-X / Equipment-as-a-Service - ur ett startupföretag inom sensorteknik. Företaget, som kan fungera som en teknisk möjliggörare för Pay-per-X, är beläget i Tyskland och har olika marknadsledande maskin- och komponenttillverkare som kunder. Projektets mål är att få en djupgående förståelse för affärsmodellen och hur företaget (med sin teknik) kan delta på marknaden, som beräknas ha en storlek på 131,2 miljoner US-dollar år 2025. Därför har huvudsakligen kvalitativa forskningsmetoder tillämpats - men kvantitativa avsnitt berikar analysdelen av avhandlingen. Nio expertintervjuer genomfördes och ett beräkningsverktyg utvecklades, som syftar till att enkelt övertyga OEMs om de nya affärsmodellerna genom att modellera ett affärscase, genom att införliva de mest relevanta parametrarna. Två användningsfall analyserades inom områdena produktionsmaskiner och kommersiella fordon. Detta följs av en kort utflykt till en nödvändig Pay-per-X-molnmjukvara, där kraven definierades utifrån maskinanvändarnas behov. På grundval av dessa insikter föreslås senare en positioneringsstrategi för fallföretaget inom detta område, som lägger tonvikten på hur företaget kan fungera som en teknisk möjliggörare för Pay-per-X-affärsmodeller.
426

Dynamic Warning Signals and Time Lag Analysis for Seepage Prediction in Hydropower Dams : A Case Study of a Swedish Hydropower Plant

Olsson, Lovisa, Hellström, Julia January 2023 (has links)
Hydropower is an important energy source since it is fossil-free, renewable, and controllable. Characteristics that become especially important as the reliance on intermittent energy sources increases. However, the dams for the hydropower plants are also associated with large risks as a dam failure could have fatal consequences. Dams are therefore monitored by several sensors, to follow and evaluate any changes in the dam. One of the most important dam surveillance measurements is seepage since it can examine internal erosion. Seepage is affected by several different parameters such as reservoir water level, temperature, and precipitation. Studies also indicate the existence of a time lag between the reservoir water level and the seepage flow, meaning that when there is a change in the reservoir level there is a delay before these changes are reflected in the seepage behaviour. Recent years have seen increased use of AI in dam monitoring, enabling more dynamic warning systems.  This master’s thesis aims to develop a model for dynamic warning signals by predicting seepage using reservoir water level, temperature, and precipitation. Furthermore, a snowmelt variable was introduced to account for the impact of increased water flows during the spring season. The occurrence of a time lag and its possible influence on the model’s performance is also examined. To predict the seepage, three models with different complexity are used – linear regression, support vector regression, and long short-term memory. To investigate the time lag, the linear regression and support vector regression models incorporate a static time lag by shifting the reservoir water level data up to 14 days. The time lag was further investigated using the long short-term memory model as well.  The results show that reservoir water level, temperature, and the snowmelt variable are the combination of input parameters that generate the best results for all three models. Although a one-day time lag between reservoir water level and seepage slightly improved the predictions, the exact duration and nature of the time lag remain unclear. The more complex models (support vector regression and long short-term memory) generated better predictions than the linear regression but performed similarly when evaluated based on the dynamic warning signals. Therefore, linear regression is deemed a suitable model for dynamic warning signals by seepage prediction.
427

Datadriven stadsplanering som främjar hållbar utveckling : Bedömningsmodell för planområdes index (BPI) / Data-driven urban planning for sustainable development : An assessment model for the planning area index (BPI)

Szymanska, Joanna January 2023 (has links)
Denna studie, genomförd i samarbete med Sweco, syftar till att utveckla en omfattande modell för datadriven och hållbar stadsplanering med fokus på användningen av geografiska informationssystem (GIS). Med utgångspunkt i de 17 målen för hållbar utveckling enligt Agenda 2030, särskilt mål 11 och 13, utforskar studien konsekvenserna av den ökande urbaniseringen och dess påverkan på miljön, infrastrukturen och samhällsutvecklingen i Sverige. Den belyser bland annat den pågående digitaliseringen av samhällsbyggnadsprocessen för att stödja datadriven stadsplanering. Studien adresserar även utmaningarna i att säkerställa öppna data och kvalitet av geografisk data i Sverige, och diskuterar användningen av geografiska informationssystem (GIS) tillsammans med andra metoder, för att stödja hanteringen av de komplexa utmaningarna som städer står inför, vilket är en förutsättning för datadriven planering. Fortsättningsvis, även kartlägga de förutsättningar för planprocessen i tidigt skede enligt PBL och MB för att främja hållbar stadsplanering och vikten av tidig dialog och samarbete mellan intressenter för att effektivisera plan- och bygglovsprocessen. Med hänsyn till de senaste politiska förändringarna i Sverige och en nedgång i bostadsbyggandet, betonas behovet av en integrerad, strategisk metod för samhällsplanering. Studien tar därmed fram en bedömningsmodell för planområdes index (BPI), som tillsammans med GIS sammanställer förutsättningarna för området som samlar data för tidigt skede i planprocessen. Slutligen ger studien insikt i det dynamiska och komplexa systemet av stadsplanering, där geografisk data kompletteras med kvalitativa aspekter för att främja demokrati, och en hållbar samhällsutveckling. Den framhåller vikten av flexibilitet, anpassningsbarhet och medvetenhet om digitala verktyg och andra metoder samt deras utmaningar för att kunna implementeras i den digitala samhällsbyggnadsprocessen. / This study, conducted in collaboration with Sweco, aims to develop a comprehensive model for evidence-based and sustainable urban planning with a focus on the use of geographic information systems (GIS). Based on the 17 Sustainable Development Goals of the 2030 Agenda, especially goals 11 and 13, the study explores the consequences of increasing urbanisation and its impact on the environment, infrastructure and social development in Sweden. Among other things, it highlights the ongoing digitalisation of the spatial planning process to support evidence-based urban planning. The study also addresses the challenges of ensuring open data and quality of spatial data in Sweden, and discusses the use of digital tools such as GIS and AI in addressing the complex challenges facing cities, which is a prerequisite for data-driven planning. Mapping the conditions for the early stage planning process with PBL and MB to promote sustainable urban planning and the importance of early dialogue and cooperation between stakeholders to streamline the planning and building permit process. Given recent policy changes in Sweden and a decline in housing construction, the need for an integrated, strategic approach to urban planning is emphasised. The study develops an assessment model for the planning area index (BPI), which together with the GIS, summarises the area's conditions and collects data for the early stage of the planning process. Finally, the study provides insight into the dynamic and complex system of urban planning, where qualitative aspects complement geographical data to promote democracy and sustainable community development. It emphasises the importance of flexibility, adaptability and awareness of digital tools and other methods and their challenges to be implemented in today's urban planning process.
428

Trouble Tickets resolution time estimation : The Design of a Solution for a Real Case Scenario / Uppskattning av tiden för lösning av problembiljetter : Utformning av en lösning för ett verkligt scenario

Colella, Riccardo January 2021 (has links)
Internet Service Providers are companies that deliver services managing a complex network of apparatus and cables. Given the complexity of the network, it often happens that alarms are generated. When a problem within the network occurs, a ticket is issued from an alarm and the company starts to supervise it to manage the situation and solve the problem. This work aims to present how can be designed a system that estimates how much time will the trouble ticket take to be solved. The situation is presented within the context of a real case scenario and takes into consideration how the involved company processes the available information and manages the problem. The achieved result is pursued by the company to deliver the information to the final customer that will be able to understand how much time the problem he is facing is going to take before it will be solved. This work will focus on estimating the resolution time for a subset of all the tickets: those that are classified as low priority network problems. The work started with a study of the company that led to the understanding of the available information about the problem, then it focused on the understanding of the procedure adopted by the company to face the solution. It studies the processes that lie behind the ticket creation, the alarm generation and the human intervention, and it concludes with the design of the proposed solution. The proposed solution leverages the company’s processes to produce a result as valuable as possible given the specific use case. / Internetleverantörer är företag som tillhandahåller tjänster genom att hantera ett komplext nätverk av apparater och kablar. Med tanke på nätets komplexitet händer det ofta att larm genereras. När ett problem i nätverket uppstår utfärdas en biljett från ett larm och företaget börjar övervaka det för att hantera situationen och lösa problemet. Syftet med detta arbete är att presentera hur man kan utforma ett system som uppskattar hur lång tid det kommer att ta att lösa problemet. Situationen presenteras inom ramen för ett verkligt scenario och tar hänsyn till hur det berörda företaget behandlar den tillgängliga informationen och hanterar problemet. Företaget strävar efter att leverera information till slutkunden som kan förstå hur lång tid det kommer att ta innan problemet är löst. Detta arbete kommer att inriktas på att uppskatta lösningstiden för en delmängd av alla biljetter: de som klassificeras som nätproblem med låg prioritet. Arbetet inleddes med en studie av företaget som ledde till att man förstod den tillgängliga informationen om problemet, och sedan fokuserade man på att förstå det förfarande som företaget använde för att lösa problemet. Det studeras vilka processer som ligger bakom skapandet av biljetter, alarmeringen och det mänskliga ingripandet, och det avslutas med utformningen av den föreslagna lösningen. Den föreslagna lösningen utnyttjar företagets processer för att ge ett så värdefullt resultat som möjligt med tanke på det specifika användningsfallet.
429

Toward Adaptation of Data Enabled Predictive Control for Nonlinear Systems / Mot Anpassning av Dataaktiverad Prediktiv Kontroll för Icke-linjära System

Ghasemi, Hashem January 2022 (has links)
With the development of technology and availability of data, it is sometimes easier to learn the control policies directly from the data, rather than modeling a plant and designing a controller. Modeling a plant is not always possible due to the complexity of the plant. Data-enabled predictive control (DeePC) is a recently proposed approach that combines system identification, estimation, and control in a single optimization problem. DeePC is primarily designed for LTI systems. The purpose of this thesis is to extend the application of DeePC to nonlinear systems with a particular focus on a non-holonomic ground robot. To reach this goal, we decompose the system states into different working modes where each mode can be linearly approximated. Furthermore, the data collection policies were also evaluated to conclude how they affect the performance of the DeePC. We identified several key challenges in this direction, namely: data-demanding structure, high computational complexity, and performance deterioration with increased non-linearity. While these challenges prohibited the application of DeePC to the ground robot system; we successfully applied the method to a benchmark non-linear system, the inverted pendulum on cart problem, and studied the effect of various design choices on control performance. Our observations indicate potential areas of improvement toward enabling DeePC for highly nonlinear systems. / Med utvecklingen av teknik och tillgänglighet av data är det ibland enklare att lära sig styrpolicyerna direkt från data, snarare än att modellera ett system och designa en styrenhet. Att modellera ett system är inte alltid möjligt på grund av systemets komplexitet. Data aktiverad prediktiv kontroll (DeePC) är en nyligen föreslagen metod som kombinerar systemidentifiering, uppskattning och kontroll i ett enda optimeringsproblem. DeePC är främst designad för LTI-system. Syftet med denna avhandling är att utöka tillämpningen av DeePC till icke-linjära system med särskilt fokus på en icke-holonomisk markrobot. För att nå detta mål delar vi upp systemtillstånden i olika arbetslägen där varje läge kan approximeras linjärt. Dessutom utvärderades datainsamlingspolicyerna för att dra slutsatser om hur de påverkar DeePCs prestation. Vi identifierade ett antal nyckelutmaningar i denna riktning, nämligen: datakrävande struktur, hög beräkningskomplexitet och prestandaförsämring med ökad icke-linjäritet. Även om de utmaningerna hindrade tillämpningen av DeePC på markrobot systemet; har vi framgångsrikt tillämpat metoden på ett benchmark icke-linjärt system, problemet med inverterad pendel på vagn, och studerade effekten av olika designval på kontrollprestanda. Våra observationer indikerar potentiella förbättringsområden för att möjliggöra DeePC för mycket olinjära system.
430

Efficient Data Driven Multi Source Fusion

Islam, Muhammad Aminul 10 August 2018 (has links)
Data/information fusion is an integral component of many existing and emerging applications; e.g., remote sensing, smart cars, Internet of Things (IoT), and Big Data, to name a few. While fusion aims to achieve better results than what any one individual input can provide, often the challenge is to determine the underlying mathematics for aggregation suitable for an application. In this dissertation, I focus on the following three aspects of aggregation: (i) efficient data-driven learning and optimization, (ii) extensions and new aggregation methods, and (iii) feature and decision level fusion for machine learning with applications to signal and image processing. The Choquet integral (ChI), a powerful nonlinear aggregation operator, is a parametric way (with respect to the fuzzy measure (FM)) to generate a wealth of aggregation operators. The FM has 2N variables and N(2N − 1) constraints for N inputs. As a result, learning the ChI parameters from data quickly becomes impractical for most applications. Herein, I propose a scalable learning procedure (which is linear with respect to training sample size) for the ChI that identifies and optimizes only data-supported variables. As such, the computational complexity of the learning algorithm is proportional to the complexity of the solver used. This method also includes an imputation framework to obtain scalar values for data-unsupported (aka missing) variables and a compression algorithm (lossy or losselss) of the learned variables. I also propose a genetic algorithm (GA) to optimize the ChI for non-convex, multi-modal, and/or analytical objective functions. This algorithm introduces two operators that automatically preserve the constraints; therefore there is no need to explicitly enforce the constraints as is required by traditional GA algorithms. In addition, this algorithm provides an efficient representation of the search space with the minimal set of vertices. Furthermore, I study different strategies for extending the fuzzy integral for missing data and I propose a GOAL programming framework to aggregate inputs from heterogeneous sources for the ChI learning. Last, my work in remote sensing involves visual clustering based band group selection and Lp-norm multiple kernel learning based feature level fusion in hyperspectral image processing to enhance pixel level classification.

Page generated in 0.1217 seconds