• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 30
  • 2
  • Tagged with
  • 70
  • 70
  • 42
  • 39
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Convex optimization for cosegmentation

Joulin, Armand 17 December 2012 (has links) (PDF)
La simplicité apparente avec laquelle un humain perçoit ce qui l'entoure suggère que le processus impliqué est en partie mécanique, donc ne nécessite pas un haut degré de réflexion. Cette observation suggère que notre perception visuelle du monde peut être simulée sur un ordinateur. La vision par ordinateur est le domaine de recherche consacré au problème de la création d'une forme de perception visuelle pour des ordinateurs. La puissance de calcul des ordinateurs des années 50 ne permettait pas de traiter et d'analyser les données visuelles nécessaires à l'élaboration d'une perception visuelle virtuelle. Depuis peu, la puissance de calcul et la capacité de stockage ont permis à ce domaine de vraiment émerger. En deux décennies, la vision par ordinateur a permis de répondre à problèmes pratiques ou industrielles comme la détection des visages, de personnes au comportement suspect dans une foule ou de défauts de fabrication dans des chaînes de production. En revanche, en ce qui concerne l'émergence d'une perception visuelle virtuelle non spécifique à une tâche donnée, peu de progrès ont été réalisés et la communauté est toujours confrontée à des problèmes fondamentaux. Un de ces problèmes est de segmenter un stimuli optique ou une image en régions porteuses de sens, en objets ou actions. La segmentation de scène est naturelle pour les humains, mais aussi essentielle pour comprendre pleinement son environnement. Malheureusement elle est aussi extrêmement difficile à reproduire sur un ordinateur car il n'existe pas de définition claire de la région "significative''. En effet, en fonction de la scène ou de la situation, une région peut avoir des interprétations différentes. Etant donnée une scène se passant dans la rue, on peut considérer que distinguer un piéton est important dans cette situation, par contre ses vêtements ne le semblent pas nécessairement. Si maintenant nous considérons une scène ayant lieu pendant un défilé de mode, un vêtement devient un élément important, donc une région significative. Ici, nous nous concentrons sur ce problème de segmentation et nous l'abordons sous un angle particulier pour éviter cette difficulté fondamentale. Nous considérerons la segmentation comme un problème d'apprentissage faiblement supervisé, c'est-à-dire qu'au lieu de segmenter des images selon une certaine définition prédéfinie de régions "significatives'', nous développons des méthodes permettant de segmenter simultanément un ensemble d'images en régions qui apparaissent régulièrement. Nous définissons donc une région "significative'' d'un point de vue statistique: Ce sont les régions qui apparaissent régulièrement dans l'ensemble des images données. Pour cela nous concevons des modèles ayant une portée qui va au-delà de l'application à la vision. Notre approche prend ses racines dans l'apprentissage statistique, dont l'objectif est de concevoir des méthodes efficaces pour extraire et/ou apprendre des motifs récurrents dans des jeux de données. Ce domaine a récemment connu une forte popularité en raison de l'augmentation du nombre et de la taille des bases de données disponibles. Nous nous concentrons ici sur des méthodes conçues pour découvrir l'information "cachée'' dans une base à partir d'annotations incomplètes ou inexistantes. Enfin, nos travaux prennent racine dans le domaine de l'optimisation numérique afin d'élaborer des algorithmes efficaces et adaptés à nos problèmes. En particulier, nous utilisons et adaptons des outils récemment développés afin de relaxer des problèmes combinatoires complexes en des problèmes convexes pour lesquels il est garanti de trouver la solution optimale. Nous illustrons la qualité de nos formulations et algorithmes aussi sur des problèmes tirés de domaines autres que la vision par ordinateur. En particulier, nous montrons que nos travaux peuvent être utilisés dans la classification de texte et en biologie cellulaire.
12

Estimation robuste pour les systèmes incertains

Bayon, Benoît 06 December 2012 (has links) (PDF)
Un système est dit robuste s'il est possible de garantir son bon comportement dynamique malgré les dispersions de ses caractéristiques lors de sa fabrication, les variations de l'environnement ou encore son vieillissement. Au-delà du fait que la dispersion des caractéristiques est inéluctable, une plus grande dispersion permet notamment de diminuer fortement les coûts de production. La prise en compte explicite de la robustesse par les ingénieurs est donc un enjeu crucial lors de la conception d'un système. Des propriétés robustes peuvent être garanties lors de la synthèse d'un correcteur en boucle fermée. Il est en revanche beaucoup plus difficile de garantir ces propriétés en boucle ouverte, ce qui concerne par exemple des cas comme la synthèse d'estimateur.Prendre en compte la robustesse lors de la synthèse est une problématique importante de la communauté du contrôle robuste. Un certain nombre d'outils ont été développés pour analyser la robustesse d'un système vis-à-vis d'un ensemble d'incertitudes(μ analyse par exemple). Bien que le problème soit intrinsèquement complexe au sens algorithmique, des relaxations ont permis de formuler des conditions suffisantes pour tester la stabilité d'un système vis-à-vis d'un ensemble d'incertitudes. L'émergence de l'Optimisation sous contrainte Inégalité Matricielle Linéaire (LMI) a permis de tester ces conditions suffisantes au moyen d'un algorithme efficace, c'est-à-dire convergeant vers une solution en un temps raisonnable grâce au développement des méthodes des points intérieurs.En se basant sur ces résultats d'analyse, le problème de synthèse de correcteurs en boucle fermée ne peut pas être formulé sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe. En revanche, pour certains cas comme la synthèse de filtres robustes, le problème de synthèse peut être formulé sous la forme d'un problème d'optimisation sous contrainte LMI pour lequel un algorithme efficace existe. Ceci laisse entrevoir un certain potentiel de l'approche robuste pour la synthèse d'estimateurs.Exploitant ce fait, cette thèse propose une approche complète du problème de synthèse d'estimateurs robustes par l'intermédiaire des outils d'analyse de la commande robuste en conservant le caractère efficace de la synthèse lié aux outils classiques. Cette approche passe par une ré-interprétation de l'estimation nominale (sans incertitude) par l'optimisation sous contrainte LMI, puis par une extension systématique des outils de synthèse et d'analyse développés pour l'estimation nominale à l'estimation robuste.Cette thèse présente des outils de synthèse d'estimateurs, mais également des outils d'analyse qui permettront de tester les performances robustes atteintes par les estimateurs.Les résultats présentés dans ce document sont exprimés sous la forme de théorèmes présentant des contraintes LMI. Ces théorèmes peuvent se mettre de façon systématique sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe.Pour finir, les problèmes de synthèse d'estimateurs robustes appartiennent à une classe plus générale de problèmes de synthèse robuste : les problèmes de synthèse robuste en boucle ouverte. Ces problèmes de synthèse ont un potentiel très intéressant. Des résultats de base sont formulés pour la synthèse en boucle ouverte, permettant de proposer des méthodes de synthèse robustes dans des cas pour lesquels la mise en place d'une boucle de rétroaction est impossible. Une extension aux systèmes LPV avec une application à la commande de position sans capteur de position est également proposée.
13

Étude numérique d'algorithmes d'affectation d'équilibre de réseaux : modèles statiques à coûts symétriques avec demandes fixes dans l'espace des chemins

Abbes, Naïma January 2006 (has links)
No description available.
14

Estimation robuste pour les systèmes incertains / Robust estimation for uncertain systems

Bayon, Benoît 06 December 2012 (has links)
Un système est dit robuste s'il est possible de garantir son bon comportement dynamique malgré les dispersions de ses caractéristiques lors de sa fabrication, les variations de l'environnement ou encore son vieillissement. Au-delà du fait que la dispersion des caractéristiques est inéluctable, une plus grande dispersion permet notamment de diminuer fortement les coûts de production. La prise en compte explicite de la robustesse par les ingénieurs est donc un enjeu crucial lors de la conception d'un système. Des propriétés robustes peuvent être garanties lors de la synthèse d'un correcteur en boucle fermée. Il est en revanche beaucoup plus difficile de garantir ces propriétés en boucle ouverte, ce qui concerne par exemple des cas comme la synthèse d'estimateur.Prendre en compte la robustesse lors de la synthèse est une problématique importante de la communauté du contrôle robuste. Un certain nombre d'outils ont été développés pour analyser la robustesse d'un système vis-à-vis d'un ensemble d'incertitudes(μ analyse par exemple). Bien que le problème soit intrinsèquement complexe au sens algorithmique, des relaxations ont permis de formuler des conditions suffisantes pour tester la stabilité d'un système vis-à-vis d'un ensemble d'incertitudes. L'émergence de l'Optimisation sous contrainte Inégalité Matricielle Linéaire (LMI) a permis de tester ces conditions suffisantes au moyen d'un algorithme efficace, c'est-à-dire convergeant vers une solution en un temps raisonnable grâce au développement des méthodes des points intérieurs.En se basant sur ces résultats d'analyse, le problème de synthèse de correcteurs en boucle fermée ne peut pas être formulé sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe. En revanche, pour certains cas comme la synthèse de filtres robustes, le problème de synthèse peut être formulé sous la forme d'un problème d'optimisation sous contrainte LMI pour lequel un algorithme efficace existe. Ceci laisse entrevoir un certain potentiel de l'approche robuste pour la synthèse d'estimateurs.Exploitant ce fait, cette thèse propose une approche complète du problème de synthèse d'estimateurs robustes par l'intermédiaire des outils d'analyse de la commande robuste en conservant le caractère efficace de la synthèse lié aux outils classiques. Cette approche passe par une ré-interprétation de l'estimation nominale (sans incertitude) par l'optimisation sous contrainte LMI, puis par une extension systématique des outils de synthèse et d'analyse développés pour l'estimation nominale à l'estimation robuste.Cette thèse présente des outils de synthèse d'estimateurs, mais également des outils d'analyse qui permettront de tester les performances robustes atteintes par les estimateurs.Les résultats présentés dans ce document sont exprimés sous la forme de théorèmes présentant des contraintes LMI. Ces théorèmes peuvent se mettre de façon systématique sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe.Pour finir, les problèmes de synthèse d'estimateurs robustes appartiennent à une classe plus générale de problèmes de synthèse robuste : les problèmes de synthèse robuste en boucle ouverte. Ces problèmes de synthèse ont un potentiel très intéressant. Des résultats de base sont formulés pour la synthèse en boucle ouverte, permettant de proposer des méthodes de synthèse robustes dans des cas pour lesquels la mise en place d'une boucle de rétroaction est impossible. Une extension aux systèmes LPV avec une application à la commande de position sans capteur de position est également proposée. / A system is said to be robust if it is possible to guarantee his dynamic behaviour despite dispersion of his features due to production, environmental changes or aging. beyond the fact that a dispersion is ineluctable, a greater one allows to reduce production costs. Thus, considering robustness is a crucial stake during the conception of a system.Robustness can be achieved using feedback, but is more difficult in Open-Loop, which concerns estimator synthesis for instance.Robustness is a major concern of the Robust Control Community. Many tools have been developed to analyse robustness of a system towards a set of uncertainties (μ analysis for instance). And even if the problem is known to be difficult (speaking of complexity), sufficient conditions allow to formulate results to test the robust stability of a system. Thanks to the development of interior point methods, the emergence of optimization under Linear Matrix Inequalities Constraints allows to test these results using an efficient algorithm.Based on these analysis results, the robust controller synthesis problem cannot be recast as a convex optimization problem involving LMI. But for some cases such as filter synthesis, the synthesis problem can recast as a convex optimization problem. This fact let sense that robust control tools have some potential for estimators synthesis.Exploiting this fact, this thesis ofiers a complete approach of robust estimator synthesis, using robust control tools, while keeping what made the nominal approaches successful : eficient computation tools. this approach goes through reinterpretation of nominal estimation using LMI optimization, then propose a systematic extension of these tools to robust estimation.This thesis presents not only synthesis tools, but also analysis tools, allowing to test the robust performance reached by estimators All the results are proposed as convex optimization problems involving LMI.As a conclusion, robust estimator synthesis problems belong to a wider class of problems : robust open-loop synthesis problems, which have a great potential in many applications. Basic results are formulated for open-loop synthesis, providing results for cases where feedback cannot be used. An extension to LPV systems with an application to sensorless control is given.
15

Structured sparsity-inducing norms : statistical and algorithmic properties with applications to neuroimaging / Normes parcimonieuses structurées : propriétés statistiques et algorithmiques avec applications à l’imagerie cérébrale

Jenatton, Rodolphe 24 November 2011 (has links)
De nombreux domaines issus de l’industrie et des sciences appliquées ont été les témoins d’une révolution numérique. Cette dernière s’est accompagnée d’une croissance du volume des données, dont le traitement est devenu un défi technique. Dans ce contexte, la parcimonie est apparue comme un concept central en apprentissage statistique. Il est en effet naturel de vouloir exploiter les données disponibles via un nombre réduit de paramètres. Cette thèse se concentre sur une forme particulière et plus récente de parcimonie, nommée parcimonie structurée. Comme son nom l’indique, nous considérerons des situations où, au delà de la seule parcimonie, nous aurons également à disposition des connaissances a priori relatives à des propriétés structurelles du problème. L’objectif de cette thèse est d'analyser le concept de parcimonie structurée, en se basant sur des considérations statistiques, algorithmiques et appliquées. Nous commencerons par introduire une famille de normes structurées parcimonieuses dont les aspects statistiques sont étudiées en détail. Nous considérerons ensuite l’apprentissage de dictionnaires, où nous exploiterons les normes introduites précédemment dans un cadre de factorisation de matrices. Différents outils algorithmiques efficaces, tels que des méthodes proximales, seront alors proposés. Grâce à ces outils, nous illustrerons sur de nombreuses applications pourquoi la parcimonie structurée peut être bénéfique. Ces exemples contiennent des tâches de restauration en traitement de l’image, la modélisation hiérarchique de documents textuels, ou encore la prédiction de la taille d’objets à partir de signaux d’imagerie par résonance magnétique fonctionnelle. / Numerous fields of applied sciences and industries have been recently witnessing a process of digitisation. This trend has come with an increase in the amount digital data whose processing becomes a challenging task. In this context, parsimony, also known as sparsity, has emerged as a key concept in machine learning and signal processing. It is indeed appealing to exploit data only via a reduced number of parameters. This thesis focuses on a particular and more recent form of sparsity, referred to as structured sparsity. As its name indicates, we shall consider situations where we are not only interested in sparsity, but where some structural prior knowledge is also available. The goal of this thesis is to analyze the concept of structured sparsity, based on statistical, algorithmic and applied considerations. To begin with, we introduce a family of structured sparsity-inducing norms whose statistical aspects are closely studied. In particular, we show what type of prior knowledge they correspond to. We then turn to sparse structured dictionary learning, where we use the previous norms within the framework of matrix factorization. From an optimization viewpoint, we derive several efficient and scalable algorithmic tools, such as working-set strategies and proximal-gradient techniques. With these methods in place, we illustrate on numerous real-world applications from various fields, when and why structured sparsity is useful. This includes, for instance, restoration tasks in image processing, the modelling of text documents as hierarchy of topics, the inter-subject prediction of sizes of objects from fMRI signals, and background-subtraction problems in computer vision.
16

Apprentissage statistique pour séquences d’évènements à l’aide de processus ponctuels / Learning from Sequences with Point Processes

Achab, Massil 09 October 2017 (has links)
Le but de cette thèse est de montrer que l'arsenal des nouvelles méthodes d'optimisation permet de résoudre des problèmes d'estimation difficile basés sur les modèles d'évènements.Alors que le cadre classique de l'apprentissage supervisé traite les observations comme une collection de couples de covariables et de label, les modèles d'évènements ne regardent que les temps d'arrivée d'évènements et cherchent alors à extraire de l'information sur la source de donnée.Ces évènements datés sont ordonnés de façon chronologique et ne peuvent dès lors être considérés comme indépendants.Ce simple fait justifie l'usage d'un outil mathématique particulier appelé processus ponctuel pour apprendre une certaine structure à partir de ces évènements.Deux exemples de processus ponctuels sont étudiés dans cette thèse.Le premier est le processus ponctuel derrière le modèle de Cox à risques proportionnels:son intensité conditionnelle permet de définir le ratio de risque, une quantité fondamentale dans la littérature de l'analyse de survie.Le modèle de régression de Cox relie la durée avant l'apparition d'un évènement, appelé défaillance, aux covariables d'un individu.Ce modèle peut être reformulé à l'aide du cadre des processus ponctuels.Le second est le processus de Hawkes qui modélise l'impact des évènements passés sur la probabilité d'apparition d'évènements futurs.Le cas multivarié permet d'encoder une notion de causalité entre les différentes dimensions considérées.Cette thèse est divisée en trois parties.La première s'intéresse à un nouvel algorithme d'optimisation que nous avons développé.Il permet d'estimer le vecteur de paramètre de la régression de Cox lorsque le nombre d'observations est très important.Notre algorithme est basé sur l'algorithme SVRG (Stochastic Variance Reduced Gradient) et utilise une méthode MCMC (Monte Carlo Markov Chain) pour approcher un terme de la direction de descente.Nous avons prouvé des vitesses de convergence pour notre algorithme et avons montré sa performance numérique sur des jeux de données simulés et issus de monde réel.La deuxième partie montre que la causalité au sens de Hawkes peut être estimée de manière non-paramétrique grâce aux cumulants intégrés du processus ponctuel multivarié.Nous avons développer deux méthodes d'estimation des intégrales des noyaux du processus de Hawkes, sans faire d'hypothèse sur la forme de ces noyaux. Nos méthodes sont plus rapides et plus robustes, vis-à-vis de la forme des noyaux, par rapport à l'état de l'art. Nous avons démontré la consistence statistique de la première méthode, et avons montré que la deuxième peut être réduite à un problème d'optimisation convexe.La dernière partie met en lumière les dynamiques de carnet d'ordre grâce à la première méthode d'estimation non-paramétrique introduite dans la partie précédente.Nous avons utilisé des données du marché à terme EUREX, défini de nouveaux modèles de carnet d'ordre (basés sur les précédents travaux de Bacry et al.) et appliqué la méthode d'estimation sur ces processus ponctuels.Les résultats obtenus sont très satisfaisants et cohérents avec une analysé économétrique.Un tel travail prouve que la méthode que nous avons développé permet d'extraire une structure à partir de données aussi complexes que celles issues de la finance haute-fréquence. / The guiding principle of this thesis is to show how the arsenal of recent optimization methods can help solving challenging new estimation problems on events models.While the classical framework of supervised learning treat the observations as a collection of independent couples of features and labels, events models focus on arrival timestamps to extract information from the source of data.These timestamped events are chronologically ordered and can't be regarded as independent.This mere statement motivates the use of a particular mathematical object called point process to learn some patterns from events.Two examples of point process are treated in this thesis.The first is the point process behind Cox proportional hazards model:its conditional intensity function allows to define the hazard ratio, a fundamental quantity in survival analysis literature.The Cox regression model relates the duration before an event called failure to some covariates.This model can be reformulated in the framework of point processes.The second is the Hawkes process which models how past events increase the probability of future events.Its multivariate version enables encoding a notion of causality between the different nodes.The thesis is divided into three parts.The first focuses on a new optimization algorithm we developed to estimate the parameter vector of the Cox regression in the large-scale setting.Our algorithm is based on stochastic variance reduced gradient descent (SVRG) and uses Monte Carlo Markov Chain to estimate one costly term in the descent direction.We proved the convergence rates and showed its numerical performance on both simulated and real-world datasets.The second part shows how the Hawkes causality can be retrieved in a nonparametric fashion from the integrated cumulants of the multivariate point process.We designed two methods to estimate the integrals of the Hawkes kernels without any assumption on the shape of the kernel functions. Our methods are faster and more robust towards the shape of the kernels compared to state-of-the-art methods. We proved the statistical consistency of the first method, and designed turned the second into a convex optimization problem.The last part provides new insights from order book data using the first nonparametric method developed in the second part.We used data from the EUREX exchange, designed new order book model (based on the previous works of Bacry et al.) and ran the estimation method on these point processes.The results are very insightful and consistent with an econometric analysis.Such work is a proof of concept that our estimation method can be used on complex data like high-frequency financial data.
17

DECOMPOSITIONS ET ALGORITHMES PROXIMAUX POUR L'ANALYSE ET LE TRAITEMENT ITERATIF DES SIGNAUX

Rozenbaum Wajs, Valérie 02 July 2007 (has links) (PDF)
Cette th'ese est consacr'ee 'a l''etude et la r'esolution de certains probl'emes non lin'eaires du traitement du signal et de l'image via l'analyse convexe. Nous proposons une 'etude variationnelle unifi'ee de probl'emes inverses et de probl'emes de d'ecomposition de signaux qui ont, jusqu''a pr'esent, 'et'e 'etudi'es individuellement en raison de leur apparente disparit'e. Dans le mod'ele adopt'e, cette famille de probl'emes est r'eduite g'en'eriquement 'a la minimisation d'une somme de deux fonctions soumises 'a certaines propri'et'es de r'egularit'e. Des r'esultats d'existence, d'unicit'e et de caract'erisation du probl'eme ainsi pos'e sont obtenus. L'op'erateur proximal, introduit par Moreau en 1962 pour les besoins de la m'ecanique, joue un rˆole essentiel dans notre analyse. Nous l'utilisons notamment pour obtenir de nouveaux sch'emas non lin'eaires de d'ecomposition de signaux. Cet outil est par ailleurs au coeur de l'algorithme explicite-implicite que nous proposons pour la r'esolution du probl'eme g'en'erique. Ce cadre th'eorique est appliqu'e 'a l'analyse de signaux et 'a la restauration d'images. Les probl'emes de restauration que nous abordons sont pos'es sur des trames et notre approche permet de prendre en compte des contraintes de parcimonie ou de mod'eliser des formulations bay'esiennes avec des connaissances a priori sur les lois des coefficients de la d'ecomposition. Des r'esultats num'eriques sont fournis.
18

Formal Verification and Validation of Convex Optimization Algorithms For model Predictive Control / Vérification formelle et validation des algorithmes d'optimisation convexe appliqués à la commande prédictive

Cohen, Raphaël P. 03 December 2018 (has links)
L’efficacité des méthodes d’optimisation modernes, associée à l’augmentation des ressources informatiques, a conduit à la possibilité d’utiliser ces algorithmes d’optimisation en temps réel agissant dans des rôles critiques. Cependant, cela ne peut se produire sans porter une certaine attention à la validité de ces algorithmes. Ce doctorat traite de la vérification formelle des algorithmes d'optimisation convexe lors qu'ils sont utilisés pour la guidance de systèmes dynamiques. En outre, nous démontrons comment les preuves théoriques des algorithmes d'optimisation en temps réel peuvent être utilisées pour décrire les propriétés fonctionnelles au niveau du code, les rendant ainsi accessibles à la communauté des méthodes formelles. / The efficiency of modern optimization methods, coupled with increasing computational resources, has led to the possibility of real-time optimization algorithms acting in safety critical roles. However, this cannot happen without addressing proper attention to the soundness of these algorithms. This PhD thesis discusses the formal verification of convex optimization algorithms with a particular emphasis on receding-horizon controllers. Additionally, we demonstrate how theoretical proofs of real-time optimization algorithms can be used to describe functional properties at the code level, thereby making it accessible for the formal methods community.
19

Optimisation énergétique Convexe pour véhicule Hybride électrique : vers une solution analytique / Convex Energy Management for Hybrid Electric vehicle : towards an Analytical Solution

Hadj-Saïd, Souad 07 November 2018 (has links)
Cette thèse s'inscrit dans le cadre de la gestion d'énergie d'un Véhicule Hybride Électrique. Pour ce type de véhicule, l'optimisation énergétique est un enjeu majeur. Cela consiste à calculer les commandes optimales minimisant la consommation énergétique du véhicule sous un nombre fini de contraintes. Deux types de méthodes peuvent être utilisées pour résoudre ce problème d'optimisation. La première méthode et la plus utilisée, la méthode numérique, utilisant des modèles cartographiques basés sur des données. Elle présente deux inconvénients majeurs: temps de calcul et mémoire importants. La deuxième méthode, appelée analytique, qui permet de remédier à ces deux problèmes, a été utilisée dans cette thèse. Plus l'architecture du véhicule devient complexe (plusieurs machines électriques, moteur thermique, élévateur de tension), plus l'intérêt de cette approche sera important. La méthodologie analytique, proposée dans cette thèse, est composée principalement de trois étapes : la modélisation convexe, le calcul analytique des commandes et la validation des commandes analytiques sur un simulateur de véhicule. Cette méthodologie a été appliquée sur les trois configurations possibles du véhicule étudié : parallèle, bi-parallèle et série. Finalement, l'ajout de l'élévateur de tension dans la gestion d'énergie ainsi que l'étude de son impact sur la consommation énergétique du véhicule sont présentés dans le dernier chapitre. Les résultats obtenus en simulation montrent que la méthode analytique a permis de réduire considérablement le temps de calcul tout en ayant une sous-optimalité très faible. / This thesis focuses on the energy management of Hybrid Electric Vehicle. In this type of vehicle, energy optimization is a major challenge. It consists of calculating optimal commands that minimize the vehicle’s energy consumption under a finite number of constraints. The optimization issue could be solved using a digital method or an analytical method. This choice depends on the nature of energy models that monitor the optimization criteria: analytical or maps of experimental measurements. However, this method presents numerous disadvantages. Its calculation is extremely time-consuming for instance. Therefore, the works presented in this thesis were directed in order to develop an analytical solution where the calculation is lesstime consuming. The architecture of the vehicle is complex. In fact, the vehicle contains two electrical machines, a thermal engine and a step-up. These components have all a straight impact on the vehicle’s energy consumption so several optimization variables were defining. Consequently, working on an analytical solution was a natural choice. The proposed analytical methodology consists of three steps: convex modeling, the command analytical calculation as well as the analytical command validation on a vehicle simulator. This methodology was applied to three possible configurations of the studied vehicle: parallel, biparallel and in serial. Finally, the step-up addition to the energy management as well as the study of itsimpact on the vehicle’s energy consumption are presented in the last chapter. The simulation results show that the analytical method reduces considerably the computing time and has an extremely low suboptimality.
20

Convex matrix sparsity for demixing with an application to graphical model structure estimation / Parcimonie matricielle convexe pour les problèmes de démixage avec une application à l'apprentissage de structure de modèles graphiques

Vinyes, Marina 27 November 2018 (has links)
En apprentissage automatique on a pour but d'apprendre un modèle, à partir de données, qui soit capable de faire des prédictions sur des nouvelles données (pas explorées auparavant). Pour obtenir un modèle qui puisse se généraliser sur les nouvelles données, et éviter le sur-apprentissage, nous devons restreindre le modèle. Ces restrictions sont généralement une connaissance a priori de la structure du modèle. Les premières approches considérées dans la littérature sont la régularisation de Tikhonov et plus tard le Lasso pour induire de la parcimonie dans la solution. La parcimonie fait partie d'un concept fondamental en apprentissage automatique. Les modèles parcimonieux sont attrayants car ils offrent plus d'interprétabilité et une meilleure généralisation (en évitant le sur-apprentissage) en induisant un nombre réduit de paramètres dans le modèle. Au-delà de la parcimonie générale et dans de nombreux cas, les modèles sont structurellement contraints et ont une représentation simple de certains éléments fondamentaux, comme par exemple une collection de vecteurs, matrices ou tenseurs spécifiques. Ces éléments fondamentaux sont appelés atomes. Dans ce contexte, les normes atomiques fournissent un cadre général pour estimer ce type de modèles. périodes de modèles. Le but de cette thèse est d'utiliser le cadre de parcimonie convexe fourni par les normes atomiques pour étudier une forme de parcimonie matricielle. Tout d'abord, nous développons un algorithme efficace basé sur les méthodes de Frank-Wolfe et qui est particulièrement adapté pour résoudre des problèmes convexes régularisés par une norme atomique. Nous nous concentrons ensuite sur l'estimation de la structure des modèles graphiques gaussiens, où la structure du modèle est encodée dans la matrice de précision et nous étudions le cas avec des variables manquantes. Nous proposons une formulation convexe avec une approche algorithmique et fournissons un résultat théorique qui énonce les conditions nécessaires pour récupérer la structure souhaitée. Enfin, nous considérons le problème de démixage d'un signal en deux composantes ou plus via la minimisation d’une somme de normes ou de jauges, encodant chacune la structure a priori des composants à récupérer. En particulier, nous fournissons une garantie de récupération exacte dans le cadre sans bruit, basée sur des mesures d'incohérence / The goal of machine learning is to learn a model from some data that will make accurate predictions on data that it has not seen before. In order to obtain a model that will generalize on new data, and avoid overfitting, we need to restrain the model. These restrictions are usually some a priori knowledge of the structure of the model. First considered approaches included a regularization, first ridge regression and later Lasso regularization for inducing sparsity in the solution. Sparsity, also known as parsimony, has emerged as a fundamental concept in machine learning. Parsimonious models are appealing since they provide more interpretability and better generalization (avoid overfitting) through the reduced number of parameters. Beyond general sparsity and in many cases, models are constrained structurally so they have a simple representation in terms of some fundamental elements, consisting for example of a collection of specific vectors, matrices or tensors. These fundamental elements are called atoms. In this context, atomic norms provide a general framework for estimating these sorts of models. The goal of this thesis is to use the framework of convex sparsity provided by atomic norms to study a form of matrix sparsity. First, we develop an efficient algorithm based on Frank-Wolfe methods that is particularly adapted to solve problems with an atomic norm regularization. Then, we focus on the structure estimation of Gaussian graphical models, where the structure of the graph is encoded in the precision matrix and study the case with unobserved variables. We propose a convex formulation with an algorithmic approach and provide a theoretical result that states necessary conditions for recovering the desired structure. Finally, we consider the problem of signal demixing into two or more components via the minimization of a sum of norms or gauges, encoding each a structural prior on the corresponding components to recover. In particular, we provide general exact recovery guarantees in the noiseless setting based on incoherence measures

Page generated in 0.5181 seconds