• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 87
  • 29
  • 16
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 188
  • 104
  • 29
  • 24
  • 22
  • 21
  • 21
  • 17
  • 17
  • 16
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Návrh marketingové strategie / Marketing Strategy Proposal

Karas, Andrea January 2018 (has links)
The diploma thesis deals with the analysis of the current situation of the company Studyline s. r .o. and the innovation proposal, which is the realization of the language school in Brno. The aim of the thesis is to design a functional marketing strategy that will be applicable in real terms as early as 2018. The thesis also includes a thorough analysis of the internal and external environment, which is summarized by SWOT analysis. The work also evaluates the project's risks, thorough monitoring of the competition, and, in the final stage, marketing strategies for language schools, including the prediction of future developments.
172

An empirical study of stability and variance reduction in DeepReinforcement Learning

Lindström, Alexander January 2024 (has links)
Reinforcement Learning (RL) is a branch of AI that deals with solving complex sequential decision making problems such as training robots, trading while following patterns and trends, optimal control of industrial processes, and more. These applications span various fields, including data science, factories, finance, and others[1]. The most popular RL algorithm today is Deep Q Learning (DQL), developed by a team at DeepMind, which successfully combines RL with Neural Network (NN). However, combining RL and NN introduces challenges such as numerical instability and unstable learning due to high variance. Among others, these issues are due to the“moving target problem”. To mitigate this problem, the target network was introduced as a solution. However, using a target network slows down learning, vastly increases memory requirements, and adds overheads in running the code. In this thesis, we conduct an empirical study to investigate the importance of target networks. We conduct this empirical study for three scenarios. In the first scenario, we train agents in online learning. The aim here is to demonstrate that the target network can be removed after some point in time without negatively affecting performance. To evaluate this scenario, we introduce the concept of the stabilization point. In thesecond scenario, we pre-train agents before continuing to train them in online learning. For this scenario, we demonstrate the redundancy of the target network by showing that it can be completely omitted. In the third scenario, we evaluate a newly developed activation function called Truncated Gaussian Error Linear Unit (TGeLU). For thisscenario, we train an agent in online learning and show that by using TGeLU as anactivation function, we can completely remove the target network. Through the empirical study of these scenarios, we conjecture and verify that a target network has only transient benefits concerning stability. We show that it has no influence on the quality of the policy found. We also observed that variance was generally higher when using a target network in the later stages of training compared to cases where the target network had been removed. Additionally, during the investigation of the second scenario, we observed that the magnitude of training iterations during pre-training affected the agent’s performance in the online learning phase. This thesis provides a deeper understanding of how the target networkaffects the training process of DQL, some of them - surrounding variance reduction- are contrary to popular belief. Additionally, the results have provided insights into potential future work. These include further explore the benefits of lower variance observed when removing the target network and conducting more efficient convergence analyses for the pre-training part in the second scenario.
173

Beyond the status quo in deep reinforcement learning

Agarwal, Rishabh 05 1900 (has links)
L’apprentissage par renforcement profond (RL) a connu d’énormes progrès ces dernières années, mais il est encore difficile d’appliquer le RL aux problèmes de prise de décision du monde réel. Cette thèse identifie trois défis clés avec la façon dont nous faisons la recherche RL elle-même qui entravent les progrès de la recherche RL. — Évaluation et comparaison peu fiables des algorithmes RL ; les méthodes d’évaluation actuelles conduisent souvent à des résultats peu fiables. — Manque d’informations préalables dans la recherche RL ; Les algorithmes RL sont souvent formés à partir de zéro, ce qui peut nécessiter de grandes quantités de données ou de ressources informatiques. — Manque de compréhension de la façon dont les réseaux de neurones profonds interagissent avec RL, ce qui rend difficile le développement de méthodes évolutives de RL. Pour relever ces défis susmentionnés, cette thèse apporte les contributions suivantes : — Une méthodologie plus rigoureuse pour évaluer les algorithmes RL. — Un flux de travail de recherche alternatif qui se concentre sur la réutilisation des progrès existants sur une tâche. — Identification d’un phénomène de perte de capacité implicite avec un entraînement RL hors ligne prolongé. Dans l’ensemble, cette thèse remet en question le statu quo dans le RL profond et montre comment cela peut conduire à des algorithmes de RL plus efficaces, fiables et mieux applicables dans le monde réel. / Deep reinforcement learning (RL) has seen tremendous progress in recent years, but it is still difficult to apply RL to real-world decision-making problems. This thesis identifies three key challenges with how we do RL research itself that hinder the progress of RL research. — Unreliable evaluation and comparison of RL algorithms; current evaluation methods often lead to unreliable results. — Lack of prior information in RL research; RL algorithms are often trained from scratch, which can require large amounts of data or computational resources. — Lack of understanding of how deep neural networks interact with RL, making it hard to develop scalable RL methods. To tackle these aforementioned challenges, this thesis makes the following contributions: — A more rigorous methodology for evaluating RL algorithms. — An alternative research workflow that focuses on reusing existing progress on a task. — Identifying an implicit capacity loss phenomenon with prolonged offline RL training. Overall, this thesis challenges the status quo in deep reinforcement learning and shows that doing so can make RL more efficient, reliable and improve its real-world applicability
174

The role of continual learning and adaptive computation in improving computational efficiency of deep learning

Gupta, Kshitij 01 1900 (has links)
Au cours de la dernière décennie, des progrès significatifs ont été réalisés dans le domaine de l’IA, principalement grâce aux progrès de l’apprentissage automatique, de l’apprentissage profond et de l’utilisation de modèles à grande échelle. Cependant, à mesure que ces modèles évoluent, ils présentent de nouveaux défis en termes de gestion de grands ensembles de données et d’efficacité informatique. Cette thèse propose des approches pour réduire les coûts de calcul de la formation et de l’inférence dans les systèmes d’intelligence artificielle (IA). Plus précisément, ce travail étudie les techniques d’apprentissage continu et de calcul adaptatif, démontrant des stratégies possibles pour préserver les niveaux de performance de ces systèmes tout en réduisant considérablement les coûts de formation et d’inférence. Les résultats du premier article montrent que les modèles de base peuvent être continuellement pré-entraînés grâce à une méthode d’échauffement et de relecture, ce qui réduit considérable- ment les coûts de calcul de l’entraînement tout en préservant les performances par rapport à un entraînement à partir de zéro. Par la suite, la thèse étudie comment les stratégies de calcul adaptatif, lorsqu’elles sont combinées avec la mémoire, peuvent être utilisées pour créer des agents d’IA plus efficaces au moment de l’inférence pour des tâches de raisonnement complexes, telles que le jeu stratégique de Sokoban. Nos résultats montrent que les modèles peuvent offrir des per- formances similaires ou améliorées tout en utilisant beaucoup moins de ressources de calcul. Les résultats de cette étude ont de vastes implications pour l’amélioration de l’efficacité in- formatique des systèmes d’IA, soutenant à terme le développement de technologies d’IA plus abordables, accessibles et efficaces. / Over the past decade, significant progress has been made by the field of AI, primarily due to advances in machine learning, deep learning, and the usage of large scale models. However, as these models scale, they present new challenges with respect to handling large datasets and being computationally efficient. This thesis proposes approaches to reducing computational costs of training and inference in artificial intelligence (AI) systems. Specifically, this work investigates how Continual Learning and Adaptive Computation techniques can be used to reducing training and inference costs while preserving the perfor- mance levels of these systems . The findings of the first article show that foundation models can be continually pre-trained through a method of warm-up and replay, which significantly decreases training computational costs while preserving performance compared to training from scratch. Subsequently, the thesis investigates how adaptive computation strategies, when com- bined with memory, can be utilized to create more computationally efficient AI agents at inference time for complex reasoning tasks, such as the strategic game of Sokoban. Our results exhibit that models can deliver similar or improved performances while using signifi- cantly fewer computational resources. Findings from this study have broad implications for improving the computational efficiency of AI systems, ultimately supporting the development of more affordable, accessible, and efficient AI technologies.
175

Classification de situations de conduite et détection des événements critiques d'un deux roues motorisé / Powered Two Wheelers riding patterns classification and critical events recognition

Attal, Ferhat 06 July 2015 (has links)
L'objectif de cette thèse est de développer des outils d'analyse de données recueillies sur les deux roues motorisés (2RMs). Dans ce cadre, des expérimentations sont menées sur des motos instrumentés dans un contexte de conduite réelle incluant à la fois des conduites normales dites naturelles et des conduites à risques (presque chute et chute). Dans la première partie de la thèse, des méthodes d'apprentissage supervisé ont été utilisées pour la classification de situations de conduite d'un 2RM. Les approches développées dans ce contexte ont montré l'intérêt de prendre en compte l'aspect temporel des données dans la conduite d'un 2RM. A cet effet, nous avons montré l'efficacité des modèles de Markov cachés. La seconde partie de cette thèse porte sur le développement d'outils de détection et de classification hors ligne des évènements critiques de conduite, ainsi que, la détection en ligne des situations de chute d'un 2RM. L'approche proposée pour la détection hors ligne des évènements critiques de conduite repose sur l'utilisation d'un modèle de mélange de densités gaussiennes à proportions logistiques. Ce modèle sert à la segmentation non supervisée des séquences de conduite. Des caractéristiques extraites du paramètre du modèle de mélange sont utilisées comme entrées d'un classifieur pour classifier les évènements critiques. Pour la détection en ligne de chute, une méthode simple de détection séquentielle d'anomalies basée sur la carte de contrôle MCUSUM a été proposée. Les résultats obtenus sur une base de données réelle ont permis de montrer l'efficacité des méthodologies proposées à la fois pour la classification de situations de conduite et à la détection des évènements critiques de conduite / This thesis aims to develop framework tools for analyzing and understanding the riding of Powered Two Wheelers (PTW). Experiments are conducted using instrumented PTW in real context including both normal (naturalistic) riding behaviors and critical riding behaviors (near fall and fall). The two objectives of this thesis are the riding patterns classification and critical riding events detection. In the first part of this thesis, a machine-learning framework is used for riding pattern recognition problem. Therefore, this problem is formulated as a classification task to identify the class of riding patterns. The approaches developed in this context have shown the interest to take into account the temporal aspect of the data in PTW riding. Moreover, we have shown the effectiveness of hidden Markov models for such problem. The second part of this thesis focuses on the development of the off-line detection and classification of critical riding events tools and the on-line fall detection. The problem of detection and classification of critical riding events has been performed towards two steps: (1) the segmentation step, where the multidimensional time of data were modeled and segmented by using a mixture model with quadratic logistic proportions; (2) the classification step, which consists in using a pattern recognition algorithm in order to assign each event by its extracted features to one of the three classes namely Fall, near Fall and Naturalistic riding. Regarding the fall detection problem, it is formulated as a sequential anomaly detection problem. The Multivariate CUmulative SUM (MCUSUM) control chart was applied on the data collected from sensors mounted on the motorcycle. The obtained results on a real database have shown the effectiveness of the proposed methodology for both riding pattern recognition and critical riding events detection problems
176

Methode zur Eigenschaftsdarstellung von Laserstrahlschweißnähten im Karosseriebau

Mickel, Paul-Michael 21 January 2013 (has links) (PDF)
Das Laserstrahlschweißen im Karosseriebau ist zu einem konventionellen Fügeverfahren geworden. Dies gilt unabhängig von der Art der Strahlquelle, der Strahlführung und für die gesamte Sicherheits-, Steuerungs-, Automatisierungs- und Vorrichtungstechnik. Mehr und mehr Baugruppen sind speziell für die Laserverfahren konstruiert, nutzen deren spezifischen Eigenschaften gezielt aus und können nicht mehr mit anderen Fügeverfahren hergestellt werden. Unterschiedliche Schweißnaht-Merkmale sind nicht durch die Lasertechnik verursacht, sondern zumeist in ungünstigen Spannbedingungen oder Bauteil-, Werkstoff- oder Beschichtungsabweichungen begründet. Trotz der hohen Präzision aller Fertigungskomponenten treten durch die Sensibilität des Fügeprozesses bedingte systematische und stochastische Nahtunregelmäßigkeiten auf. Systematisch erkennbare Ursachen sind die wenigen hundertstel bis zehntel Millimeter Bauteilgeometrie-, Positions- oder Beschichtungsabweichungen bzw. Toleranzen, deren umfassende Beherrschung noch aussteht. Unabhängig davon treten scheinbar zufällige Unregelmäßig-keiten trotz allseits optimaler Bedingungen auf. Im Ergebnis dieser Arbeit wurde eine Methode entwickelt, um aus Prozesssignalen mit einer erstaunlich einfachen Vorgehensweise entstandene Schweißnahtmerkmale zu prognostizieren. Die Merkmalseinteilung lehnt sich an der maßgeblichen Prüfvorschrift an und erreicht schon in dieser frühen Entwicklungsphase einen guten bis sehr guten Bewertungsgrad. Begründet und untermauert wird diese Methode mit der Erweiterung der bestehenden Modellvorstellung zur Laserstrahl-(Stahl)Werkstoff-Wechselwirkung vom Einschweißen zum Ver-schweißen der Nahtform I-Naht am 2-Blech Überlappstoß verzinkter Bleche. Die Vorgänge im Schweißprozess für jedes prognostizierbare Nahtmerkmal sind skizziert, begründet und mit den Prozessemissionen in Zusammenhang gebracht. / The laser welding in the car body shop has become a conventional joining process. This is independent from the type of the laser beam source, the course of the radiation and for the complete safety-, control-, automation- and equipment-technology. More and more modules are especially designed for the laser procedure, use their specific characteristics and cannot be produced by any other joining processes. Different characteristics of welds are not caused by the laser technique, but mostly due to unfavourable clamping conditions or because of tolerances of parts, material or coating. Despite the big precision of all production components, systematic and stochastic welding imperfections appear due to the sensibility of the joining process. Systematically identifiable causes are the deviations or tolerances of a few hundredths to tenths of a millimetre concerning the component’s geometry, positions and coatings, whose complete control is still due. Independent from that appear seemingly random irregularities, despite the well-optimal conditions. In result to this work, a method for pre-calculating welding characteristics through an amazingly simple approach was developed. The classification is based on the test specification and achieved even at this early stage of development a good or very good rating level. This method is justified and supported through the addition of the already existing image of the model to the laser/material interaction; from weld-in to the weld-together of square butt form- seams on 2 zinc coated sheets lap joint. The transactions within the welding process for each pre-calculated seam-characteristic are outlined, justified and related to the process emissions in context.
177

Αλγόριθμοι δρομολόγησης και δέσμευσης φάσματος λαμβάνοντας υπόψη τις εξασθενήσεις φυσικού επιπέδου σε οπτικά δίκτυα ορθογώνιας πολυπλεξίας διαίρεσης συχνότητας

Σούμπλης, Πολυζώης 09 July 2013 (has links)
Τα οπτικά δίκτυα αποτελούν την αποδοτικότερη επιλογή όσον αφορά την εγκατάσταση ευρυζωνικών δικτύων κορμού, καθώς παρουσιάζουν μοναδικά χαρακτηριστικά μετάδοσης. Διαθέτουν τεράστιο εύρος ζώνης, υψηλή αξιοπιστία, ενώ επίσης έχουν μειωμένο κόστος μετάδοσης ανά bit πληροφορίας σε σχέση με τα υπόλοιπα ενσύρματα δίκτυα. Τις τελευταίες δεκαετίες διατυπώθηκαν οι αρχές μίας τεχνολογίας μετάδοσης πολλαπλών φερουσών, γνωστής ως Ορθογώνια Πολυπλεξία Διαίρεσης Συχνότητας (Orthogonal Frequency Division Multiplexing - OFDM), η οποία στηρίζεται στην πολυπλεξία διαίρεσης συχνότητας, αλλά πετυχαίνει πολύ καλύτερη χρησιμοποίηση του διαθέσιμου εύρους ζώνης. Πρόσφατα και στις οπτικές επικοινωνίες άρχισε να μετατοπίζεται το ενδιαφέρον στην Οπτική Ορθογώνια Πολυπλεξία Διαίρεσης Συχνότητας (O-OFDM), λόγω της προόδου στην κωδικοποίηση και στην ηλεκτρονική ψηφιακή επεξεργασία σήματος (DSP). Οι εξελίξεις αυτές μπορούν να αλλάξουν ριζικά τα οπτικά δίκτυα. Μέσω της πολυπλεξίας υποφερουσών και της δέσμευση μεταβλητού φάσματος, που είναι χαρακτηριστικά της O-OFDM τεχνολογίας, ένα οπτικό μονοπάτι μπορεί να χρησιμοποιεί το απολύτως απαραίτητο φάσμα (αριθμό υποφερουσών) ανάλογα με το μεταδιδόμενο ρυθμό δεδομένων. Με τον τρόπο αυτό επιτυγχάνεται καλύτερη χρησιμοποίηση φάσματος αναιρόντας τον περιορισμό σταθερού πλέγματος των δικτύων πολυπλεξίας μήκους κύματος (WDM). Παράλληλα η αρχιτεκτονική αυτή υποστηρίζει τη δέσμευση χωρητικότητας μικρότερης ή μεγαλύτερης από αυτή ενός μήκους κύματος μέσω της δέσμευσης κατάλληλου αριθμού υποφερουσών από κατάλληλους transponders και μεταγωγείς WXCs. Στην παρούσα διπλωματική εργασία αντιμετωπίζεται το πρόβλημα της σχεδίασης ευέλικτων OFDM οπτικών δικτύων, όπου οι αιτήσεις εξυπηρετούνται από κατάλληλους transponders όσον αφορά την επιλογή του χρησιμοποιούμενου φάσματος και του επίπεδου διαμόρφωσης. Με δεδομένη την τοπολογίας του δικτύου, τον πίνακα αιτήσεων και των χαρακτηριστικών των transponders, παρουσιάζονται οι μοντελοποιήσεις γραμμικού ακέραιου προγραμματισμού (Integer Linear Programming) για την επίλυση του προβλήματος σχεδίασης διαφανών (transparent) και ημι-διαφανών (translucent) οπτικών OFDM δικτύων λαμβάμνοντας υπόψη τους υπαρκτούς περιορισμούς φυσικού επιπέδου. Σχεδιάζεται λοιπόν, ένα πρόβλημα βελτιστοποίησης που λαμβάνει υπόψη του τόσο το εύρος ζώνης που χρησιμοποιείται όσο και τον αριθμό των transponders. Από τη στιγμή που το πρόβλημα της δρομολόγησης και δέσμευσης φάσματος (Routing and Spectrum Allocation RSA) είναι ΝP πλήρες (NP-complete), η λύση του προβλήματος γραμμικού ακέραιου προγραμματισμού (ILP) δεν είναι αποδοτική για μεγάλα στιγμιότυπα του προβλήματος. Για το λόγο αυτό, παρουσιάζονται ευριστικοί αλγόριθμοι (heuristic algorithms) για την επίλυση του προβλήματος σχεδίασης διαφανών και ημι-διαφανών οπτικών δικτύων. / We consider the planning problem of a spectrum flexible optical network where traffic is served by flexible transponders that can be tuned in both the spectrum and the modulation format that they utilize. We assume that physical layer impairments are incorporated in the definition of the feasible transmission configurations for the transponders, described by capacity-reach-spectrum-guardband tuples. Given the feasible configurations (tuples) of the transponders and the traffic matrix, we formulate the planning problem of a spectrum flexible optical network considering both the use or not of regenerators in the network. Demands are served for their requested rates by choosing the route, breaking the transmission in more than one connection if needed, placing regenerators if needed, and allocating spectrum to the connections. The connections are separated by appropriate spectrum guardbands so that physical layer interference is kept at acceptable levels. The objective is to serve the traffic and find a solution that is Pareto optimal with respect to the total amount of spectrum utilized and the number of transponders used. We start by presenting algorithms that are based on integer linear programming (ILP) formulations for planning both transparent (without regenerators) and translucent (with regenerators) networks and then we continue by presenting heuristic algorithms. Our heuristic algorithms utilize simulated annealing to tradeoff performance with running time. We use transmission tuples based on studies on OFDM-based networks in our simulation experiments. We initially examine the optimality performance of the heuristic algorithms in small scale experiments. Then we use the heuristic algorithms to study realistic network planning problems and evaluate the spectrum and transponder cost savings that can be obtained by an OFDM-based network as compared to a mixed line rate (MLR) fixed-grid WDM optical network.
178

Les nouvelles techniques de billetterie pour augmenter les revenus des clubs professionnels de football en France / Increase Matchday revenues for French football club

Perri, Pascal 06 July 2017 (has links)
Le football professionnel est devenu une industrie du spectacle audiovisuel dont il tire une partie importante de ses revenus. Cependant, les recettes dites Matchday et les revenus annexes de la billetterie constituent un gisement de croissance important pour les clubs français. Ceux ci devraient pouvoir maitriser les capacités offertes au public du spectacle vivant dans les stades et devenir propriétaires de leurs enceintes en utilisant la technique des baux emphytéotiques. Les politiques de prix variables ou de prix dynamiques conduites dans d’autres secteurs comme les transports, l’hôtellerie ou les centres de loisir sont applicables dans la gestion de la billetterie. La digitalisation de l’offre ouvre de nouvelles perspectives de relation client. Elle améliore la traçabilité des consommateurs et permet de déterminer leur propension optimale à payer. Les solutions de CRM, Customer Relationship Management améliorent la connaissance client et permettent de mieux segmenter l’offre pour mieux adresser les différents publics du stade. Dans une activité fondée sur l’incertitude du résultat mais sur la certitude des coûts de production, les ressources digitales permettent de fidéliser les différentes catégories de fans et d’augmenter le panier moyen. Les clubs français très engagés dans la gestion à court terme ont négligé les outils du pricing et tardent à adopter les solutions digitales qui ont donné des résultats satisfaisants dans des secteurs comparables. Nous formulons des propositions adossées à des expérimentations concrètes pour augmenter les performances de la billetterie dans le secteur de l’industrie du football en France. / Football has become a major industry of entertainment for TV networks and also for companies running football squads. TV rights represent at least 50% of the French clubs incomes. Meanwhile, most of them have disregarded Matchday revenues. For a large majority of them, they don’t own their arenas. Moreover, they play in (too) large stadiums with overcapacities according to average attendances. This is why average prices are below the European average price when we compare French League One with the other major’s championships in Europe. In this field, we suggest long-term leases between public owners and football firms in order to transfer both property and ability to refit arenas and stadiums. In addition, French firms running football clubs have not yet fully used technics of variable prices and dynamic prices. They should also display CRM resources in order to address each segment of costumers, including fans, year ticket holders, walk in customer or families. The target is to hit as close as possible the willingness to pay of each category of customers. We have experienced such policies for Year ticket holders in French third division. Digital resources increase customer insights and sustain cross selling policies increasing revenues as it is done in other comparable sectors such as air transportation, leisure parks, hotels and resorts. We make some suggestions and recommendations to strengthen home revenues in the French professional football League.
179

Conversor integrado SEPIC buck-boost aplicado ao acionamento de LEDs de potência em iluminação pública

Almeida, Pedro Santos 23 March 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-12T12:29:15Z No. of bitstreams: 1 pedrosantosalmeida.pdf: 11306492 bytes, checksum: 80bd2f9ab4af41e3889b7bc91e4391b9 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T16:48:06Z (GMT) No. of bitstreams: 1 pedrosantosalmeida.pdf: 11306492 bytes, checksum: 80bd2f9ab4af41e3889b7bc91e4391b9 (MD5) / Made available in DSpace on 2016-07-13T16:48:06Z (GMT). No. of bitstreams: 1 pedrosantosalmeida.pdf: 11306492 bytes, checksum: 80bd2f9ab4af41e3889b7bc91e4391b9 (MD5) Previous issue date: 2012-03-23 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta um estudo acerca da alimentação de diodos emissores de luz (LEDs) a partir da rede elétrica empregando conversores eletrônicos com correção do fator de potência. O estudo visa o desenvolvimento de um conversor que pode ser aplicado em iluminação pública, que atenda às demandas típicas de alto fator de potência, alta eficiência, reduzido número de componentes, baixa distorção harmônica da corrente de entrada e possa atingir uma elevada vida útil, através da substituição de capacitores eletrolíticos no circuito de potência por capacitores de filme. É proposta uma nova topologia de conversor para implementar tal acionamento, baseado em uma integração entre dois estágios, que passam a compartilhar um único interruptor estático. Os conversores SEPIC e buck-boost operando em modo de condução descontínua (DCM) são escolhidos para compor cada um destes estágios, atuando o primeiro na correção do fator de potência e o segundo na regulação de corrente na carga. Uma metodologia de projeto que visa excluir os capacitores eletrolíticos é desenvolvida, partindo de dados fotométricos que permitem aplicar nos LEDs uma ondulação limite de 50% em amplitude, sem causar prejuízos ao seu desempenho fotométrico. Um protótipo de 70 W é apresentado, cujos resultados experimentais demonstram alto fator de potência (0,998), baixa distorção harmônica de corrente (3,2%) e alta eficiência (90,2%), enquanto empregando somente capacitores de filme metalizado, de longa vida útil, no circuito de potência. Uma abordagem das possibilidades de se implementar um controlador digital para o novo conversor proposto é feita, partindo de um modelo de pequenos sinais para o conversor operando em DCM. / This work presents a study regarding the feeding of light-emitting diodes (LEDs) from mains (grid power) employing electronic drivers with power factor correction. The study aims the development of an LED driver which can be applied to public and street lighting, complying with the typical demands of high power factor, high efficiency, reduced component count, low total harmonic distortion (THD) of input current and which can attain long lifespan, through the substitution of electrolytic capacitors within the power circuit by film capacitors. It is proposed a new converter topology to implement such driver, based on an integration between two stages which share a common static power switch. The SEPIC and buck-boost converters operating in discontinuous conduction mode (DCM) are chosen to make up each of these two stages, the first acting as a power factor corrector and the second as a load currentcontrolling stage. A design methodology which aims the exclusion of electrolytic capacitors is developed, stemming from photometric data which allow the LEDs to be operated with current ripples up to 50% in amplitude, without causing any harm to their photometric performance. A 70 W prototype is presented, whose experimental results demonstrate high power factor (0.998), low current harmonic distortion (3.2%) and high efficiency (90.2%), while employing only long-life metallised-film capacitors on the power circuit. An approach to the possibilities of implementing a digital controller for the proposed novel converter is done, starting from a small-signal model for the converter operating in DCM.
180

Classification de situations de conduite et détection des événements critiques d'un deux roues motorisé / Powered Two Wheelers riding patterns classification and critical events recognition

Attal, Ferhat 06 July 2015 (has links)
L'objectif de cette thèse est de développer des outils d'analyse de données recueillies sur les deux roues motorisés (2RMs). Dans ce cadre, des expérimentations sont menées sur des motos instrumentés dans un contexte de conduite réelle incluant à la fois des conduites normales dites naturelles et des conduites à risques (presque chute et chute). Dans la première partie de la thèse, des méthodes d'apprentissage supervisé ont été utilisées pour la classification de situations de conduite d'un 2RM. Les approches développées dans ce contexte ont montré l'intérêt de prendre en compte l'aspect temporel des données dans la conduite d'un 2RM. A cet effet, nous avons montré l'efficacité des modèles de Markov cachés. La seconde partie de cette thèse porte sur le développement d'outils de détection et de classification hors ligne des évènements critiques de conduite, ainsi que, la détection en ligne des situations de chute d'un 2RM. L'approche proposée pour la détection hors ligne des évènements critiques de conduite repose sur l'utilisation d'un modèle de mélange de densités gaussiennes à proportions logistiques. Ce modèle sert à la segmentation non supervisée des séquences de conduite. Des caractéristiques extraites du paramètre du modèle de mélange sont utilisées comme entrées d'un classifieur pour classifier les évènements critiques. Pour la détection en ligne de chute, une méthode simple de détection séquentielle d'anomalies basée sur la carte de contrôle MCUSUM a été proposée. Les résultats obtenus sur une base de données réelle ont permis de montrer l'efficacité des méthodologies proposées à la fois pour la classification de situations de conduite et à la détection des évènements critiques de conduite / This thesis aims to develop framework tools for analyzing and understanding the riding of Powered Two Wheelers (PTW). Experiments are conducted using instrumented PTW in real context including both normal (naturalistic) riding behaviors and critical riding behaviors (near fall and fall). The two objectives of this thesis are the riding patterns classification and critical riding events detection. In the first part of this thesis, a machine-learning framework is used for riding pattern recognition problem. Therefore, this problem is formulated as a classification task to identify the class of riding patterns. The approaches developed in this context have shown the interest to take into account the temporal aspect of the data in PTW riding. Moreover, we have shown the effectiveness of hidden Markov models for such problem. The second part of this thesis focuses on the development of the off-line detection and classification of critical riding events tools and the on-line fall detection. The problem of detection and classification of critical riding events has been performed towards two steps: (1) the segmentation step, where the multidimensional time of data were modeled and segmented by using a mixture model with quadratic logistic proportions; (2) the classification step, which consists in using a pattern recognition algorithm in order to assign each event by its extracted features to one of the three classes namely Fall, near Fall and Naturalistic riding. Regarding the fall detection problem, it is formulated as a sequential anomaly detection problem. The Multivariate CUmulative SUM (MCUSUM) control chart was applied on the data collected from sensors mounted on the motorcycle. The obtained results on a real database have shown the effectiveness of the proposed methodology for both riding pattern recognition and critical riding events detection problems

Page generated in 0.0303 seconds