• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 945
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1531
  • 381
  • 293
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Expliquer, quantifier, prouver : une histoire de l'économie des discriminations 1957-2010 / No English title available

Chassonnery-Zaïgouche, Cléo 17 December 2014 (has links)
A la suite des travaux de Becker (1955), de nombreuses analyses économiques se sont consacrées à la description, à l’explication, à la mesure – voire à la résorption – des discriminations. Ces recherches se sont d’abord intéressées aux discriminations raciales et de genre sur le marché du travail, puis ont, par la suite, concerné d’autres groupes discriminés et d’autres domaines d’application – comme le marché des prêts immobiliers ou l’accès au système scolaire. Se sont ainsi constitués un domaine d’analyse, une littérature théorique et un important corpus empirique. La première partie de la thèse est consacrée aux modèles théoriques qui ont tenté d’expliquer les discriminations. Les conditions d’énonciation du concept – les “catégories de la différence” et la norme de non-discrimination – émergent au tournant des XIXème et XXème siècles et constituent la pré-histoire de l’économie des discriminations (Chapitre 1). Gary S. Becker est le premier à proposer une modélisation microéconomique du phénomène dans le sillage de l’émergence d’une “économie du travail analytique” (Chapitre 2). Les théories de la discrimination statistique, initiées séparément par Kenneth J. Arrow et Edmund S. Phelps, ont ensuite apporté d’autres explications aux discriminations, fondées sur le manque d’information sur les caractéristiques économiques des individus (Chapitre 3). La deuxième partie de la thèse est consacrée l’histoire de la controverse entre mesure directe et mesure indirecte des discriminations, et aux enjeux méthodologiques de la quantification et de la preuve des discriminations. La technique de décomposition salariale dite Oaxaca-Blinder constitue la première mesure empirique étudiée en économie (Chapitre 4). Cette méthode indirecte sera remise en perspective par l’émergence des expérimentations de laboratoire et de terrains sur les discriminations (Chapitre 5). Enfin, trois “régimes d’expertise” utilisant l’économie des discriminations sont analysés : le conseil au Prince à travers la position politique de Friedman sur les politiques raciales dans les années 1960; l’évaluation quantitative des politiques d’anti-discrimination et d’affirmative action; et l’utilisation des analyses de décomposition salariale dans les cours de justice (Chapitre 6). La problématique de la thèse consiste à délimiter ce qui, dans l’histoire de la pensée récente, est spécifique à l’économie des discriminations. Du point de vue de l’histoire des méthodes, l’économie des discriminations est une illustration des évolutions générales de la discipline. De plus, l’étude de la discrimination a été une des voies par laquelle le renouveau du traitement de l’information en économie s’est effectué : de la prise en compte des défauts d’information aux effets de signal, des conséquences de l’appartenance de groupe à la modélisation de l’identité. / No English summary available.
342

Etude statistique et modélisation de la dégradation NBTI pour les technologies CMOS FDSOI et BULK. / Statistical study and modeling of NBTI degradation for CMOS FDSOI and BULK technologies

Nouguier, Damien 28 September 2018 (has links)
L’industrie microélectronique arrive à concevoir des transistors atteignant dimensions de l’ordre de la dizaine de nanomètres. Et ce faisant elle tend atteindre ses limites en terme de réduction des dimensions des transistors CMOS. Or à ces dimensions, la fiabilité et la variabilité des dispositifs prennent une ampleur critique en ce qui concerne les prédictions de durée de vie et de garantie des composants. Parmi les aspects critiques, la dégradation NBTI (Négative Bias Temperature Instability) représente l’un des plus gros défis en termes de fiabilité. Cette dégradation tire son origine d’un piégeage de charge dans l’oxyde de grille et est responsable pour une grande partie de la dégradation des transistors. A l’aide d’un important travail expérimental, nous avons caractérisé à l’aide de mesure rapide les cinétiques de dégradation et de relaxation de la dégradation NBTI, puis nous avons travaillé sur la modélisation des phases de stress et de relaxation. Nous sommes parvenues à créer un modèle pour le stress et la relaxation que nous avons éprouvé sur un certain nombre de nœuds technologiques allant du 14nm FDSOI au 180nm Bulk. Nous avons aussi évalué l’impact de certains changements de procédées de fabrication sur la dégradation NBTI.Enfin nous proposons une étude poussée de la variabilité induite par le NBTI et du modèle DCM (Defect centric Model) permettant de modéliser cette variabilité. Nous proposons alors une correction mathématique de ce modèle, et la possibilité de le réécrire afin de pouvoir l’utiliser pour un plus grand nombre de défauts. Enfin nous mettrons ce modèle en échec sur les prédictions qu’il fait de défauts et nous proposons un nouveau modèle sous la forme d’un DCM à deux défauts ou DDCM (Dual Defect Centric Model).Mots-clés : Microélectronique, FDSOI, Bulk, variabilité, NBTI, caractérisation électrique, modélisation. / The microelectronics industry is able to design transistors reaching dimensions of the order of ten nanometers. And doing this, we reaching the limits in terms of size reduction of CMOS transistors. At these dimensions, the reliability and variability of the devices is critical in terms of lifetime prediction and component warranty. Among the critical aspects, NBTI (Negative Bias Temperature Instability) degradation represents one of the biggest challenges in terms of reliability. This degradation coming from a charge trapping in the gate oxide is responsible for a large part of the degradation of the transistors. Performing a huge experimental work based on the characterization of the kinetic of degradation and relaxation of the NBTI degradation with rapid measurements, allowing us to work on the modeling of the stress and relaxation phases of NBTI degradation. We have successfully create a model for stress and relaxation of the NBTI degradation. These models were then tested on several technological nodes from 14nm FDSOI to 180nm Bulk. We also study the impact of some process changes on NBTI degradation. Finally, we propose a detailed study of the variability induced by the NBTI and the DCM model (Defect centric Model) allowing to model this variability. We also propose a mathematical correction of this model but also another mathematical expression of this model allowing to use it for a large number of defects. Enfin, nous prouvons que DCM est défectueux dans sa prédiction du nombre de défauts et nous proposons un nouveau modèle sous la forme d'un DCM avec deux défauts ou DDCM (Dual Defect Centric Model).
343

Integrable turbulence in optical fiber experiments : from local dynamics to statistics / Turbulence intégrable dans des expériences de fibres optiques : dynamique locale et statistique

Tikan, Alexey 15 November 2018 (has links)
Ce travail est dédié à l’étude de l’origine des phénomènes statistiques récemment observés dans le cadre de la turbulence intégrable. Les études expérimentales et numériques de la propagation d’ondes partiellement cohérentes dans les systèmes décrits par l’équation de Schrödinger non linéaire à une dimension ont révélé un écart par rapport à la distribution gaussienne. Les régimes de propagation focalisant et défocalisant présentent un comportement qualitativement différent: la probabilité que des événements extrêmes apparaissent dans le cas focalisant est supérieure à la loi normale, alors que dans le régime défocalisant, elle y est inférieure. Nous avons réalisé des expériences d’optique bien décrites par l'équation de Schrödinger non linéaire 1-D afin d'étudier ce problème. Nous avons construit deux outils de mesure nouveaux et complémentaires. En utilisant ces outils, nous avons réalisé une observation directe des structures cohérentes qui apparaissent à différents stades de la propagation dans les deux régimes. En fournissant une analyse de ces structures, nous avons déterminé les mécanismes dominants dans les régimes focalisant et défocalisant. Dans le régime focalisant, nous avons mis en évidence le caractère universel de structures voisines des solitons de Peregrine et établi un lien avec un résultat mathématique rigoureux obtenu dans le régime semi-classique. Dans le régime défocalisant, nous avons montré que le mécanisme d'interférence non linéaire entre impulsions voisines définit l'évolution des conditions initiales partiellement cohérentes. Nous avons proposé un modèle simplifié qui explique la présence des différentes échelles dans les données enregistrées. / This work is dedicated to the investigation of the origin of statistical phenomena recently observed in the framework of integrable turbulence. Namely, experimental and numerical studies of the partially-coherent waves propagation in 1-D Nonlinear Schrödinger equation systems revealed a deviation from the Gaussian statistics. Focusing and defocusing regimes of propagation demonstrated qualitatively different behaviour: the probability of extreme events to appear in the focusing case is higher than it is predicted by normal law, while in defocusing it is lower. We provided optical experiments well described by the 1-D Nonlinear Schrödinger equation in order to investigate this problem. We built two novel and complementary ultrafast measurement tools. Employing these tools we provided direct observation of coherent structures which appear at different stages of the propagation in both regimes. Providing analysis of these structures, we determined dominating mechanisms in both focusing and defocusing regimes. In the focusing regime, we discovered the universal appearance of Peregrine soliton-like structures and made a link with the rigorous mathematical result obtained in the semi-classical regime. In the defocusing case, we showed that the mechanism of nonlinear interference of neighbour pulse-like structures defines the evolution of the partially-coherent initial conditions. We considered a simplified model which explained the presence of different scales in the recorded data.
344

Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique / Sparsity-based detection strategies for faint signals in noise : application to astrophysical hyperspectral data

Paris, Silvia 04 October 2013 (has links)
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l’étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l’information d’intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d’hypothèses et un aperçu général sur les représentations parcimonieuses, l’estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d’hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d’acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l’effet d’étalement spatio-spectral de l’information causée par les fonctions d’étalement du point de l’instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l’Observatoire Européen Austral. / This thesis deals with the problem of detecting unknown signals at low Signal- to- Noise Ratio. This work focuses on the definition, study and implementation of efficient methods able to discern only-noise observations from those that presumably carry the information of interest in a sparse way. The relevance of these methods is assessed on hyperspectral data as an applicative part. In the first part of this work, the basic principles of statistical hypothesis testing together with a general overview on sparse representations, estimation and detection are introduced. In the second part of the manuscript, two statistical hypotheses tests are proposed and studied. Both are adapted to the detection of sparse signals. The behaviors and the relative differences between the tests are theoretically investigated through a detailed study of their analytical and structural characteristics. The tests’ detection performances are compared with those of classical frequentist and Bayesian methods. According to the three-dimensional data sets considered in the applicative part, and to be closer to realistic scenarios involving data acquisition systems, the proposed detection strategies are then adapted in order to: i) account for spectrally variable noise; ii) exploit the spectral similarities of neighbors pixels in the spatial domain and iii) exploit the greater accuracy brought by dictionary-based models, which take into account the spatiospectral blur of information caused by instrumental Point Spread Functions. The tests are finally applied to massive astrophysical hyperspectral data in the context of the European Southern Observatory’s Multi Unit Spectroscopic Explorer.
345

Contributions to the statistical mechanics of ideal two and a half dimensional flows / Mécanique statistique d'écoulements idéaux à deux dimensions et demi

Thalabard, Simon 28 October 2013 (has links)
Dans cette thèse, nous nous intéressons à la mécanique statistique d’une classe d’écoulements “quasi-bidimensionnels”. Nous nous penchons plus particulièrement sur le cas des écoulements tri-dimensionnels axisymétriques, bidimensionnels stratifiés et bidimensionnels magnéto hydrodynamiques. La dynamique de ces écoulements est génériquement décrite par les équations d’évolution d’un champ de vitesses incompressible bidimensionnel,couplées à une équation d’évolution d’un champ scalaire. Ce dernier représente tantôt une température, tantôt un courant électrique, tantôt un mouvement tourbillonnaire transverse. Ces écoulements ont un intérêt géophysique ou astrophysique : ils peuvent être utilisés pour modéliser grossièrement les ouragans, les courants océaniques à l’échelle planétaire, les taches solaires, etc. Ils ont aussi un intérêt plus fondamental.Malgré leur géométrie bidimensionnelle intrinsèque, les écoulements “2D3C” peuvent être en effet tri-dimensionnellement connotés. Dans les cas que l’on regarde, la vorticité n’est pas seulement transportée : elle est aussi étirée. Il n’est ainsi pas évident de savoir si la tendance naturelle des écoulements 2D3C est de s’organiser en structures cohérentes énergétiques à grande échelle comme en deux dimensions, ou plutôt de répartir leur énergie sur les petites échelles comme en trois dimensions. Il n’est a priori pas clair nonplus de savoir si une forme d’énergie (cinétique ou magnétique/tourbillonnaire) y est privilégiée aux dépends de l’autre.Pour répondre à ces questions de manière très générale, nous étudions et décrivons la mécanique statistique d’équilibre des écoulements 2D3C sus-mentionnés, en nous plaçant d’abord dans le cadre des “ensembles d’équilibre absolu” considérés par Robert Kraichnan à la fin des années 1960, puis dans le cadre plus moderne des “mesures microcanoniques stationnaires” introduites par Raoul Robert, Jonathan Miller et Joël Sommeria pour les fluides bidimensionnels au début des années 1990. Les équilibres 2D3C sont décrits dans la première partie de ce manuscript. La seconde partie du manuscript est plus pratique, et également plus spéculative. Nous nous servons d’ outils de la mécanique statistique d’équilibre pour interpréter des données turbulentes expérimentales provenant d’expériences de type Von Kármán . Nous utilisons ensuite des résultats récents de théorie de probabilité pour montrer que des régimes de turbulence quasi-bidimensionnelle (turbulence tri-dimensionnelle avec rotation,turbulence dans des couches savonneuses) ont des propriétés d’invariance conforme statistique, analogues à celles observées dans des systèmes de spins ferromagnétiques au point critique. / The present manuscript deals with the statistical mechanics of some inviscid fluidmodels which are possibly relevant in the context of geophysics and astrophysics. Weinvestigate the case of axially symmetric flows, two-dimensional Boussinesq flows, andtwo-dimensional magneto-hydro fluids. Those flows can be loosely referred to as twodimensionalflows with three components (“2D3C”). In addition to the two-dimensionalvelocity field, they describe the evolution of an additional field variable, which representseither a magnetic current, a salinity, a temperature or a swirl depending on the situation.In common with the dynamics of strictly two-dimensional hydrodynamical flows, thenon-linear dynamics of 2D3C flows is constrained by the presence of an infinite numberof Casimir invariants, which emerge as dynamical invariants in the limit of a vanishingforcing and a vanishing dissipation . In common with three-dimensional flows, the vorticityis not only mixed but also stretched by the dynamics. The additional field may actas a source or a sink of kinetic energy. It is commonly believed that such flows have thepropensity to develop large scale coherent structures. Whether those long lived structuresare equilibrium or metastable structures is however not so clear, nor are the exactconditions of their emergence. The role of the Casimir invariants in constraining those isnot so obvious either.
346

Etude des fragments de fission au point de scission avec le modèle SPY / Fission fragments study at scission point with SPY model

Lemaître, Jean-François 25 September 2015 (has links)
Bien que découverte il y a 75 ans, la fission nucléaire fait toujours l'objet de recherches. En effet, la compréhension de ce phénomène présente encore des difficultés théoriques dues à sa complexité. Cela nécessite une bonne compréhension de la structure du noyau de l'atome ainsi qu'une description détaillée du mécanisme pilotant l'évolution du système fissionnant.Un nouveau modèle statistique, appelé SPY (Scission Point Yields), a été développé pour déterminer les caractéristiques des fragments (rendements de fission, énergie cinétique, énergie d¹excitation). Ce modèle est basé sur le modèle de Wilkins développé en 1976. Il consiste en une description statistique du processus de fission au point de scission où les fragments sont complètement définis. L'une des principales avancées du modèle SPY est l'introduction de la description microscopique de la structure nucléaire dans le calcul de l'énergie du système à la scission.Il permet d'étudier la relation entre les propriétés des fragments et leur structure nucléaire. Avec le modèle SPY, il est possible de calculer les propriétés des fragments et d'identifier les tendances globales pour environ 3000 noyaux fissionnants de Z=70 à Z=109, de la drip line neutron jusqu'à la drip line proton.Après une présentation générale de la version de référence du modèle SPY, les résultats obtenus pour la fission thermique de l'uranium 235 et la fission spontanée du californium 252 sont comparés aux données expérimentales. Une étude systématique sur l'ensemble des noyaux actuellement synthétisés est également menée avant d'étendre cette étude bien au-delà de la zone des noyaux synthétisables. Deux développements seront ensuite détaillés. Le premier concerne la manière de calculer l'énergie d'interaction coulombienne entre les deux fragments. Les distributions de charges issues de calculs microscopiques seront introduites afin d'améliorer le calcul de l'énergie d'interaction coulombienne. La possibilité de redéfinir le point de scission du système grâce à ces distributions de charge sera également discuté.Le deuxième développement porte sur le lien entre la modélisation du noyau et les observables associées aux fragments de fission. D'une part, différents modèles du noyau pour le calcul de l'énergie individuelle des fragments, tel que le modèle de la goutte liquide, seront envisagés et l'impact du choix de la modélisation du noyau sera étudiée.D'autre part, l'impact de la prise en compte de la structure nucléaire des fragments dans le calcul des densités d'états sur les observables sera étudié. / Although discovered 75 years ago, nuclear fission is still under investigation. Indeed, the understanding of this phenomenon still presents theoretical difficulties due to its complexity. This requires a good understanding of the structure of atomic nucleus and at the same time a detailed description of the mechanisms driving the evolution of a fissioning system.A new statistical scission point model named SPY (Scission Point Yields) is developped to model the fission mechanism and determine nascent fragments characteristics (yields, kinetic energy, excitation energy). This model is based on the Wilkins model developed in 1976. It consists in a statistical description of the fission process at the scission point where fragments are completely defined and well separated. One of the main advance brought by SPY model is the introduction of microscopic description of the nuclear structure in the calculation of the energy of the system at scission. Therefore, this model can be regarded as a theoretical laboratory for fission modeling since it allows to study the relationship between fission fragments properties and their nuclear structure.With SPY, we were able to calculate the properties of fragments and to identify global trends for about 3000 fissioning nuclei from Z=70 to Z=109 and from proton drip line to neutron drip line.After a general presentation of SPY model, results for thermal fission of uranium 235 and spontaneous fission of 252 californium are compared with experimental data. A systematic study over all currently synthesized nuclei is also done before extending this study beyond the synthesizable nuclei area. Finally the main developments of the model performed will be detailed.The first one is related to calcultation of the Coulomb interaction energy between the two fragments. The charge distributions from microscopic calculations are introduced to improve the calculation of the energy of Coulomb interaction. The ability to redefine the scission point of the system thanks to these distributions will also be discussed. The second development concerns the relationship between nucleus modeling and observables related to fission fragments. On the one hand, different models of the nucleus to calculate the individual energy of the fragments, such as liquid drop model, will be considered and the impact of the choice of the nucleus modeling will be studied. On the other hand, the impact of the inclusion of the nuclear structure of the fragments in the calculation of states densities on observable will be studied.
347

Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension / Estimation of physical parameters through their representation by a high dimensional database

Watson, Victor 12 July 2018 (has links)
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017). / This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017).
348

Computational studies of molecular self-assembly at surfaces : from rational design to function / Études computationnelles de l'auto-assemblage moléculaire au niveau des surfaces : de la conception rationnelle à la fonction

Conti, Simone 30 September 2016 (has links)
L’auto-assemblage moléculaire au niveau des surfaces est un exemple majeur de l'auto-organisation de la matière avec des applications technologiques d’intérêt. La capacité́ de prédire la structure de la monocouche auto-assemblée (SAM) formée à l'équilibre est d'une importance fondamentale. Dans cette thèse, je présente une théorie aux premiers principes pour l’interprétation de l’auto-assemblage 2D basée sur la modélisation et la thermodynamique statistique. La méthode mise au point permet d'accéder à la stabilité́ thermodynamique de la SAM et à sa dépendance à l'égard de la concentration. Cela permet d'étudier les équilibres concurrentiels au niveau des surfaces et de rationaliser le polymorphisme en 2D. De plus, cette théorie prédit l'existence d'une concentration critique de monomères au-dessus de laquelle l’auto-assemblage 2D est favorisé. Celle-ci est utilisée pour définir une échelle absolue définissant la propension à l’auto-assemblage en 2D. Enfin, quatre applications technologiques sont discutées, exposant les possibilités de la méthode développée. / Molecular self-assembly at surfaces is a prominent example of self-organization of matter with outstanding technological applications. The ability to predict the structure of the self-assembled monolayer (SAM) formed at equilibrium is of great fundamental and technological importance. In this dissertation I present a self-consistent theory for a first-principle interpretation of 2D self-assembly based on modeling and statistical thermodynamics. The developed framework provides access to the thermodynamic stability of the SAM and to its concentration dependence. This allows to study competitive equilibria at surfaces and to rationalize the 2D polymorphism evidenced by scanning probe techniques. The theory predicts the existence of a critical concentration of monomers, which is used to set an absolute scale for the 2D self-assembly propensity. Last, four technological applications are discussed, showing the potentials of the developed framework.
349

Long term performance prediction of proton exchange membrane fuel cells using machine learning method / Prédiction à long terme ds performances de piles à combustible à membrane échangeuse de protons par apprentissage statistique

Wu, Yiming 13 December 2016 (has links)
Les questions environnementales, en particulier le réchauffement de la planète en raison de l'effet de serre, estdevenu de plus en plus critique au cours des dernières décennies. Candidate potentielle parmi les différentessolutions alternatives d'énergie verte pour le développement durable, la pile à combustible à membrane échangeusede protons (PEMFC en anglais) a fait l'objet de nombreux travaux de recherche, dans les domaines de l'énergie etdes transports. Les PEMFC peuvent produire de l'électricité directement à partir de la réaction électrochimique entrel'hydrogène et l'oxygène de l'air, avec comme seul sous-produits de l'eau et de la chaleur. Si l'hydrogène est produità partir de sources d'énergie renouvelables, cette conversion de l'énergie est complètement écologique.Cependant, la durée de vie relativement courte des PEMFC fonctionnant dans des conditions dynamiques (pour lesvéhicules, par exemple) empêche son utilisation massive. La prévision précise de leurs mécanismes devieillissement peut ainsi aider à concevoir des modèles de maintenance appropriés des PEMFC en fournissant desinformations prévisibles sur la dégradation des performances. De plus, la prédiction pourrait également contribuer àatténuer la dégradation indésirable des systèmes PEMFC en cours d'exploitation. Ces travaux proposent unenouvelle approche guidée par les données pour prédire la dégradation des performances des PEMFC en utilisantune méthode d'apprentissage améliorée (Relevance Vector Machine : RVM).Tout d'abord, la description théorique des PEMFC en fonctionnement est présentée. Ensuite, une illustrationdétaillée de l'impact des conditions opérationnelles sur la performance des PEMFC est exposée, ainsi que desmécanismes de dégradation de chaque composant des PEMFC.Une méthode de prédiction de performance en utilisant la RVM améliorée est ensuite proposée et démontrée. Lesrésultats de prédiction basés sur des zones d'apprentissage différentes à partir des données historiques sontégalement discutés et comparés avec les résultats de prédiction utilisant les machines à vecteurs de support(Support Vector Machine : SVM).En outre, une méthode de prédiction RVM à noyau auto-adaptatif (Self-Adaptive Kernel) est présentée. La matricede conception de la formation du RVM est également modifiée afin d'acquérir une plus grande précision lors de laprédiction. Les résultats de la prévision sont illustrés et discutés en détails.En résumé, ces travaux permettent de discuter principalement de l'analyse de la prédiction de la performance desPEMFC en utilisant des méthodes d'apprentissage statistique. / The environmental issues, especially the global warming due to greenhouse effect, has become more and morecritical in recent decades. As one potential candidate among different alternative "green energy" solutions forsustainable development, the Proton Exchange Membrane Fuel Cell (PEMFC) has been received extensiveresearch attention since many years for energy and transportation applications. The PEMFC stacks, can produceelectricity directly from electrochemical reaction between hydrogen and oxygen in the air, with the only by-productsof water and heat. If the hydrogen is produced from renewable energy sources, this energy conversion is 100% ecofriendly.However, the relatively short lifespan of PEMFCs operating under non-steady-state conditions (for vehicles forexample) impedes its massive use. The accurate prediction of their aging mechanisms can thus help to designproper maintenance patterns of PEMFCs by providing foreseeable performance degradation information. In addition,the prediction could also help to avoid or mitigate the unwanted degradation of PEMFC systems during operation.This thesis proposes a novel data driven approach to predict the performance degradation of the PEMFC using animproved relevance vector machine method.Firstly, the theoretical description of the PEMFC during operation will be presented followed by an extensivelydetailed illustration on impacts of operational conditions on PEMFC performance, along with the degradationmechanisms on each component of PEMFC. Moreover, different approaches of PEMFC performance prediction inthe literature will also be briefly introduced.Further, a performance prediction method using an improved Relevance Vector Machine (RVM) would be proposedand demonstrated. The prediction results based on different training zones from historical data will also bediscussed and compared with the prediction results using conventional Support Vector Machine (SVM).Moreover, a self-adaptive kernel RVM prediction method will be introduced. At the meantime, the design matrix ofthe RVM training will also be modified in order to acquire higher precision during prediction. The prediction resultswill be illustrated and discussed thoroughly in the end.In summary, this dissertation mainly discusses the analysis of the PEMFC performance prediction using advancedmachine learning methods.
350

Prévision et spatialisation des concentrations en ozone troposphérique en Bourgogne

Houzé, Marie-Laure 11 December 2006 (has links) (PDF)
La thèse, réalisée au Centre de Recherches de Climatologie, UMR 5210 CNRS / Université de Bourgogne, a été co-financée par le Conseil Régional de Bourgogne et les Associations agréées de Surveillance de la Qualité de l'Air (AASQA) de la région (Atmosf'Air). Elle porte sur l'ozone, gaz toxique que les concentrations placent parmi les polluants atmosphériques les plus préoccupants de la région. Les concentrations horaires en ozone mesurées sur quelques années dans douze stations bourguignonnes sont analysées. Leurs variations spatiales et temporelles sont mises en relation avec certains éléments extra-régionaux (ozone de fond, conditions synoptiques) et infra-régionaux (propriétés physiques, occupation du sol, caractéristiques météorologiques locales et potentiel d'émission de précurseurs). Le deuxième volet concerne l'élaboration d'une méthode statistico-dynamique de prévision des concentrations maximales d'ozone pour le lendemain pour cinq stations Atmosf'Air dans l'agglomération dijonnaise, trois dans celle de Chalon-sur-Saône, deux à Mâcon, une à Montceau-les-Mines et une station rurale, dans le Morvan, à Saint-Brisson. Nous avons élaboré les modèles de prévisions avec le concours de Météo-France. Ils intègrent des prévisions météorologiques extraites d'ALADIN. La chimie est également prise en compte, puisque peuvent être intégrés dans les modèles de régressions multiples retenus, des précurseurs (oxyde d'azote) ou l'ozone mesuré par Atmosf'Air le jour où est effectuée la prévision. L'erreur moyenne de prévision est d'environ 20 μg/m3. Grâce à l'application d'un correctif qui renforce le « dynamisme » des prévisions, les pics d'ozone sont correctement prévus. Les erreurs résiduelles sont analysées et indiquent que les modèles atténuent légèrement les variations de concentrations observées lors des changements brutaux de types de temps. Des erreurs ponctuelles, mais plus fortes, sont liées à des erreurs de prévisions météorologiques ou à des concentrations anormales de précurseurs. Au total, ces prévisions sont performantes et plus fines spatialement que celles issues des modèles déterministes. Leur intérêt est indéniable localement pour informer et alerter les populations concernées. Enfin, en s'appuyant sur les résultats d'une campagne de mesures terrain (104 points échantillonnés par tubes à diffusion passive), distribués sur l'ensemble de la Bourgogne en août 2000, nous avons cherché à mieux comprendre les déterminants de la répartition spatiale de l'ozone et par conséquent les mécanismes mis en jeux. Une démarche descendante utilisant les méthodes de l'analyse et de la statistique spatiale a été développée. Tout d'abord, des indices sur les propriétés de la surface ont été créés à partir des données compilées (MNT, occupation du sol, champs atmosphériques simulés) et avec l'aide d'un Système d'Information Géographique (SIG). Ensuite, la structuration spatiale de l'ozone a été étudiée à partir de l'analyse variographique directe et croisée. Nous avons interprété ces comportements à partir des états de l'atmosphère et des indices de la surface. En plus de la forte anisotropie observée sur la répartition spatiale de l'ozone, les résultats ont fait ressortir deux types de structuration en accord avec deux situations météorologiques contrastées. Un premier type correspond à une configuration peu favorable à la formation d'ozone. Dans ce cas, la structure spatiale de l'ozone à l'échelle de la région est fortement corrélée à la rugosité de la surface. Un deuxième type correspond à une situation favorable à la production d'ozone. Nous montrons alors le forçage « biologique » de la surface sur le champ d'ozone, via des grandes classes combinant rugosité de surface et occupation du sol. Ainsi, une forte corrélation entre la concentration en ozone en un point et la proportion de forêt mixte en amont de ce point est observée. Dans tous les cas, les résultats démontrent la complexité des mécanismes et le forçage de la répartition spatiale de l'ozone en Bourgogne par la surface.

Page generated in 0.1557 seconds