• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 45
  • 14
  • Tagged with
  • 191
  • 60
  • 55
  • 47
  • 34
  • 32
  • 27
  • 26
  • 24
  • 24
  • 22
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Suivi en temps réel de tumeurs cancéreuses par résonance magnétique et applications à la radiothérapie

Bourque, Alexandra 08 1900 (has links)
No description available.
162

Détection, suivi et ré-identification de personnes à travers un réseau de caméra vidéo / People detection, tracking and re-identification through a video camera network

Souded, Malik 20 December 2013 (has links)
Cette thèse CIFRE est effectuée dans un contexte industriel et présente un framework complet pour la détection, le suivi mono-caméra et de la ré-identification de personnes dans le contexte multi-caméras. Les performances élevés et le traitement en temps réel sont les deux contraintes critiques ayant guidé ce travail. La détection de personnes vise à localiser/délimiter les gens dans les séquences vidéo. Le détecteur proposé est basé sur une cascade de classifieurs de type LogitBoost appliqué sur des descripteurs de covariances. Une approche existante a fortement été optimisée, la rendant applicable en temps réel et fournissant de meilleures performances. La méthode d'optimisation est généralisable à d'autres types de détecteurs d'objets. Le suivi mono-caméra vise à fournir un ensemble d'images de chaque personne observée par chaque caméra afin d'extraire sa signature visuelle, ainsi qu'à fournir certaines informations du monde réel pour l'amélioration de la ré-identification. Ceci est réalisé par le suivi de points SIFT à l'aide d'une filtre à particules, ainsi qu'une méthode d'association de données qui infère le suivi des objets et qui gère la majorité des cas de figures possible, notamment les occultations. Enfin, la ré-identification de personnes est réalisée avec une approche basée sur l'apparence globale en améliorant grandement une approche existante, obtenant de meilleures performances tout en étabt applicable en temps réel. Une partie "conscience du contexte" est introduite afin de gérer le changement d'orientation des personnes, améliorant les performances dans le cas d'applications réelles. / This thesis is performed in industrial context and presents a whole framework for people detection and tracking in a camera network. It addresses the main process steps: people detection, people tracking in mono-camera context, and people re-identification in multi-camera context. High performances and real-time processing are considered as strong constraints. People detection aims to localise and delimits people in video sequences. The proposed people detection is performed using a cascade of classifiers trained using LogitBoost algorithm on region covariance descriptors. A state of the art approach is strongly optimized to process in real time and to provide better detection performances. The optimization scheme is generalizable to many other kind of detectors where all possible weak classifiers cannot be reasonably tested. People tracking in mono-camera context aims to provide a set of reliable images of every observed person by each camera, to extract his visual signature, and it provides some useful real world information for re-identification purpose. It is achieved by tracking SIFT features using a specific particle filter in addition to a data association framework which infer object tracking from SIFT points one, and which deals with most of possible cases, especially occlusions. Finally, people re-identification is performed using an appearance based approach by improving a state of the art approach, providing better performances while keeping the real-time processing advantage. A context-aware part is introduced to robustify the visual signature against people orientations, ensuring better re-identification performances in real application case.
163

Caractérisation des propriétés chimiques, physiques et optiques des matières particulaires atmosphériques dans le Grand Nord canadien

Tremblay, Samantha 12 1900 (has links)
No description available.
164

Fonctionnement hydrogéologique et processus de transport dans les aquifères karstiques du Massif du Jura / Hydrogeological functioning and transport processes in the karst aquifers of the Jura Mountains

Cholet, Cybèle 18 May 2017 (has links)
La compréhension du fonctionnement des aquifères karstiques est un enjeu considérable au vu des structures complexes de ces réservoirs. La forte hétérogénéité des écoulements induit une grande vulnérabilité de ces milieux et des comportements variés au cours des crues en lien avec différents processus de recharge. Dans le Massif du Jura, les aquifères karstiques constituent la principale ressource en eau potable et posent la question de leur rôle dans la dégradation de la qualité de l'eau observée depuis plusieurs décennies. Cette thèse propose différentes approches complémentaires pour mieux comprendre les dynamiques de crues dans ces aquifères sous diverses conditions hydrologiques. Plusieurs systèmes karstiques du Massif du Jura, présentant des dimensions variables et dominés par des mécanismes de recharges distincts, sont caractérisés à partir de suivis physico-chimiques et hydrochimiques détaillés.Tout d'abord, les différents systèmes sont comparés à l'échelle du cycle hydrologique et à l'échelle saisonnière afin d'identifier les processus de recharge dominants (infiltrations localisées et/ou diffuses) ainsi que les signatures hydrochimiques caractéristiques (arrivées allochtones, autochtones et/ou anthropiques). Une étude comparative de deux systèmes met en avant la forte variabilité saisonnière de la réponse hydrochimique sur un système marqué par une recharge localisée importante. Les différents systèmes sont ensuite analysés à une échelle de temps plus fine afin de mieux comprendre les dynamiques de crues. Une crue intense d'automne a été ainsi comparée à de plus petites crues précédées par des périodes d'étiages importantes et marquées par des signatures hydrochimiques anthropiques significatives. A partir de ces résultats, la méthode EMMA (End-Member Mixing Analysis) est appliquée afin d'établir les principaux pôles hydrochirniques responsables des contributions caractéristiques des différents systèmes. Ensuite, au vu du transport important de matières en suspension au cours des crues dans ces aquifères, une partie de ce travail vise à mieux comprendre le rôle et l'impact de ces matières sur le transport dissous et colloïdal. Les éléments traces métalliques (ETM) sont utilisés afin de caractériser l'origine et la dynamique des transferts. Ils apparaissent alors comme des outils pertinents pour identifier des phénomènes de dépôts et de remobilisation de particules dans le système. Ces dynamiques s'observent à la fois sur le système de Fourbanne marqué par une infiltration localisée importante et sur le petit système du Dahon, caractérisé par une infiltration diffuse.Finalement, afin de mieux comprendre la variabilité spatio-temporelle des interactions qui ont lieu au cours des crues le long du conduit karstique, une nouvelle approche de modélisation est définit. Elle propose l'utilisation des équations de l'onde diffusante et d'advection-diffusion avec la même résolution mathématique (solution analytique d'Hayarni (1951)) en supposant une distribution uniforme des échanges le long du conduit. A partir d'une modélisation inverse, elle permet alors d'identifier et d'estimer les échanges en termes de flux hydriques et de flux massiques entre deux stations de mesure. Cette méthodologie est appliquée sur le système de Fourbanne le long de deux tronçons caractérisant (1) la zone non-saturée et (2) zone non-saturée et saturée. L'analyse de plusieurs crues permet d'observer des dynamiques d'échanges variées sur les deux tronçons. Elle permet ainsi d'établir un schéma de fonctionnement du système soulignant des interactions importantes dans la zone saturée et également le rôle de la zone non-saturée pour le stockage dans le système karstique.Ce travail de thèse propose donc un ensemble d'outils riches et complémentaires pour mieux comprendre les dynamiques de crues et montre l'importance de coupler l'analyse des processus hydrodynamiques et hydrochimiques afin de mieux déchiffrer le fonctionnement de ces aquifères. / The understanding of karst aquifer functioning is a major issue, given the complex structures of these reservoirs. The high heterogeneity of the flows induces a high vulnerability of these media and implies distinct behaviours during floods because of various infiltration processes. In the Jura Mountains, karst aquifers constitute the main source of water drinking supply and raise the question of their role in the degradation of water quality observed for several decades. This work uses complementary approaches to better understand the dynamics of floods in aquifers under various hydrological conditions. Several karst systems of the Jura Mountains, varying in size and characterized by distinct recharge processes, are investigated by detailed physico-chemical and hydrochemical monitoring.First, the different systems are compared at the hydrological cycle scale and at the seasonal scale to identify the dominant recharge processes (localized and/or diffuse infiltrations) as well as the characteristic hydrochemical signatures (allochtonous, autochthonous and/or anthropogenic). A comparative study of two systems with distinct recharge processes highlights the high seasonal variability of the hydrochemical response. The different systems are then analysed on a finer time scale to shed light on flood dynamics. An intense autumn flood was thus compared to smaller floods preceded by periods of significant low flow and marked by significant anthropogenic hydrochemical signatures. The EMMA (End-Member Mixing Analysis) method is applied to these results in order to establish the main hydrochemical end-members responsible for the characteristic contributions of the different systems.Then, considering the important transport of suspended matter during floods in these aquifers, part of this work aims to better understand the role and impact of these materials on dissolved and colloidal transport. Metal trace elements (ETM) are used to characterize the origin and transfer dynamics. These are relevant tools to identify the processes of storage and remobilization of the particles in the system. These dynamics are observed both on the Fourbanne system with an important localized infiltration, and on the small Dahon system, characterized by diffuse infiltration.Finally, in order to shed light on the spatio-temporal variability of the interactions that occur along the karst network during floods, a new modelling approach is defined. It is based upon the use of the diffusive wave and advection­diffusion equations with the same mathematical resolution (Hayami's analytical solution (1951)) assuming a uniform distribution of the exchanges along the reach. An inverse modelling approach allows to identify and estimate the exchanges in terms of water flows and solute between two measurement stations. This methodology is applied to the Fourbanne system on two sections characterizing (1) the unsaturated zone and (2) unsaturated and saturated zone. The analysis of several floods highlights the different exchange dynamics on the two sections. It thus makes it possible to establish a functioning scheme of the system, bringing to light the important interactions in the saturated zone and also the storage role of the unsaturated zone in the karst system.This work offers a set of rich and complementary tools to better characterize the dynamics of floods and shows the importance of coupling the analysis of the hydrodynamic and hydrochemical processes to better decipher the functioning of these aquifers.
165

Etudes in vitro/in vivo de la toxicité de polluants atmosphériques. Implication du stress oxydant dans les mécanismes génotoxiques et sur la variation des paramètres biochimiques / In vitro/in vivo studies of air pollutants toxicity. Oxidative stress involvement in genotoxic mechanisms and in biochemical parameters changes

Cassien, Mathieu 24 March 2016 (has links)
La pollution atmosphérique particulaire représente un facteur de risque potentiel même à de faibles concentrations. Quelle que soit leur composition, les nanoparticules (NP) sont parmi les plus nocives en raison de leur capacité à atteindre profondément les tissus pulmonaires, la circulation sanguine et les organes. Notre travail constitue une base solide dans la compréhension des effets induits par une sélection de polluants atmosphériques représentatifs, utilisés dans un contexte environnemental réaliste. Nos résultats in vitro fournissent l'évidence d'un effet génotoxique à dominance clastogène lors de l’exposition de cellules à des NP contenant du CeO2, qui d’une part exercent une action mécanique sur le noyau, et d’autre part stimulent la production de O2•- / H2O2 via la NADPH oxydase et la mitochondrie, favorisant la production d’HO•. En présence de 1-Nitropyrène, on observe selon la dose utilisée deux mécanismes génotoxiques successifs, passant d'une dominance aneugène à clastogène, cet effet étant relié à une surproduction de HO• détectable par RPE. L'étude in vivo chez le rat a mis en œuvre un système de génération d'aérosols de NP contenant des pesticides, réalisant une exposition quotidienne et chronique à de faibles doses. Un effet direct sur la fonction hémodynamique myocardique reflétant l'apparition de dommages cellulaires irréversibles a été observée, ainsi que des lésions rénales, hépatiques, et l'installation d'un stress oxydant et d’une inflammation systémiques. Sur le long terme, l'effet des NP modifie les profils lipidiques et favorise la survenue d’une intolérance au glucose. Des modes d'action spécifiques à chaque pesticide employé ont été proposés. / Epidemiological studies have consistently reported that particulate matter in ambient air pollution is associated with increases in cardiopulmonary diseases and mortality. Because they can deeply penetrate lung tissue, reaching blood stream and organs, nanoparticles (NPs) are considered particularly harmful. Here, our foray into the specific mutagenicity and cytotoxicity of NPs focused on manufactured nano-CeO2 (a fuel additive) and NPs known to form in air from a variety of atmospheric toxicants (eg, combustion residues, pesticides). We first revealed a genotoxic effect of nanoCeO2 on human fibroblasts by a clastogenic mechanism following stimulation of the release of O2•-/H2O2 by NADPH oxidase and mitochondria. However, upon exposure of these cells to nM doses of 1-nitropyrene (a combustion byproduct) promotion of DNA damage involving an aneugenic mechanism occurred before a clastogenic effect was seen at µM doses. Second, using a home-made chamber equipped with an aerosol generator, we determined indices of oxidative stress and tissue damage in rats chronically inhaling toxicant NPs for 1-5 months at environmentally relevant doses. Long term exposure, even at low NPs doses, provoked systemic oxidative stress, lipid peroxidation, kidney damage, liver dysfunction, changes in lipid profile and occurrence of disorders of glucose tolerance. Moreover, a strong impairment of hemodynamic performance was evidenced in hearts from NP-exposed rats. By extending literature data of the in vitro toxicity of NPs to the in vivo situation, our study incriminates the nano-sized components of atmospheric particulate matter as a privileged vector of genotoxicity and cardiotoxicity.
166

Estimation Bayésienne non Paramétrique de Systèmes Dynamiques en Présence de Bruits Alpha-Stables / Nonparametric Bayesian Estimition of Dynamical Systems in the Presence of Alpha-Stable Noise

Jaoua, Nouha 06 June 2013 (has links)
Dans un nombre croissant d'applications, les perturbations rencontrées s'éloignent fortement des modèles classiques qui les modélisent par une gaussienne ou un mélange de gaussiennes. C'est en particulier le cas des bruits impulsifs que nous rencontrons dans plusieurs domaines, notamment celui des télécommunications. Dans ce cas, une modélisation mieux adaptée peut reposer sur les distributions alpha-stables. C'est dans ce cadre que s'inscrit le travail de cette thèse dont l'objectif est de concevoir de nouvelles méthodes robustes pour l'estimation conjointe état-bruit dans des environnements impulsifs. L'inférence est réalisée dans un cadre bayésien en utilisant les méthodes de Monte Carlo séquentielles. Dans un premier temps, cette problématique a été abordée dans le contexte des systèmes de transmission OFDM en supposant que les distorsions du canal sont modélisées par des distributions alpha-stables symétriques. Un algorithme de Monte Carlo séquentiel a été proposé pour l'estimation conjointe des symboles OFDM émis et des paramètres du bruit $\alpha$-stable. Ensuite, cette problématique a été abordée dans un cadre applicatif plus large, celui des systèmes non linéaires. Une approche bayésienne non paramétrique fondée sur la modélisation du bruit alpha-stable par des mélanges de processus de Dirichlet a été proposée. Des filtres particulaires basés sur des densités d'importance efficaces sont développés pour l'estimation conjointe du signal et des densités de probabilité des bruits / In signal processing literature, noise's sources are often assumed to be Gaussian. However, in many fields the conventional Gaussian noise assumption is inadequate and can lead to the loss of resolution and/or accuracy. This is particularly the case of noise that exhibits impulsive nature. The latter is found in several areas, especially telecommunications. $\alpha$-stable distributions are suitable for modeling this type of noise. In this context, the main focus of this thesis is to propose novel methods for the joint estimation of the state and the noise in impulsive environments. Inference is performed within a Bayesian framework using sequential Monte Carlo methods. First, this issue has been addressed within an OFDM transmission link assuming a symmetric alpha-stable model for channel distortions. For this purpose, a particle filter is proposed to include the joint estimation of the transmitted OFDM symbols and the noise parameters. Then, this problem has been tackled in the more general context of nonlinear dynamic systems. A flexible Bayesian nonparametric model based on Dirichlet Process Mixtures is introduced to model the alpha-stable noise. Moreover, sequential Monte Carlo filters based on efficient importance densities are implemented to perform the joint estimation of the state and the unknown measurement noise density
167

Laser à rayons X ultra-compact Raman XFEL / Ultra-compact X-ray free electron laser Raman XFEL

Hadj-Bachir, Mokrane 15 December 2016 (has links)
L’obtention d’un Laser à Électrons Libres X (LEL-X) compact est un objectif majeur pour le développement des lasers. Plusieurs schémas prometteurs de LEL-X ont été proposés en utilisant à la fois l’accélération d’électrons dans les plasmas et des onduleurs optiques en régime Compton ou Compton inverse. Nous avons proposé un nouveau concept de LEL-X compact baptisé Raman XFEL, en combinant la physique des LEL en régime Compton, des lasers XUV conventionnels basés sur l’interaction laser plasma, et de l’optique non-linéaire. Nous étudions dans cette thèse les étapes préalables pour déclencher un effet laser à rayons X lors de l’interaction entre un paquet d’électrons libres relativistes et un réseau optique créé par l’interférence transverse de deux impulsions laser intenses. Dans cet objectif j’ai développé un code particulaire baptisé RELIC. Les études menées avec le code RELIC nous ont permis d’étudier la dynamique d’électrons relativistes et les processus d’injection du paquet d’électrons dans le réseau optique. Grâce à RELIC, nous avons distingué de nouveaux régimes d’interaction en fonction des paramètres du paquet d’électrons, ainsi que de la géométrie du réseau optique. Ces études ont été appliquées à l’amplification du rayonnement X et appuyées par des simulations PIC. RELIC a également permis de modéliser et d’analyser la première expérience réalisée en octobre 2015 sur l’installation laser ’Salle Jaune’ au Laboratoire d’Optique Appliquée (LOA). Cette première expérience a été une étape très importante pour la validation des modèles théoriques, et pour la réalisation future d’un laser à électrons libre X Raman. / The quest for a compact X-ray laser has long been a major objective of laser science. Several schemes using optical undulators are currently considered, in order to trigger the amplification of back scattered radiation, in Compton or inverse Compton regime. We have proposed a new concept of compact XFEL based on a combination between the physics of free electron lasers, of laser-plasma interactions, and of nonlinear optics. In this thesis, we study the necessary steps to trigger a X-ray laser during the interaction between a free relativistic electron bunch and an optical lattice created by the interference of two intense transverse laser pulses. For this purpose I developed a particular tracking code dubbed RELIC. RELIC allowed us to study the dynamics and injection process of a bunch of relativistic electrons into the optical lattice. Thanks to RELIC, we distinguished several interaction regimes depending on the relativistic electron bunch parameters, and on those of the optical lattice and its geometry. These studies are applied to the X ray amplification and supported by PIC simulations. RELIC also allowed us to model and analyze the first experiment conducted in october 2015 on the ”Salle Jaune” laser facility at LOA. This first experiment was very important to validate our theoretical models, and should prove to be an essential milestone for the development of a Raman X-ray free electron laser.
168

Planification et affectation de ressources dans les réseaux de soin : analogie avec le problème du bin packing, proposition de méthodes approchées / Planning and resources assignment in healthcare networks : analogy with the bin packing problem, proposition of approximate methods

Klement, Nathalie 04 December 2014 (has links)
Les travaux de thèse présentés s’intéressent à l’optimisation des systèmes hospitaliers. Une solution existante est la mutualisation de ressources au sein d’un même territoire. Cela peut passer par différentes formes de coopération dont la Communauté Hospitalière de Territoire. Différents problèmes sont définis en fonction du niveau de décision : stratégique, tactique ou opérationnel ; et du niveau de modélisation : macroscopique, mesoscopique et microscopique. Des problèmes de dimensionnement, de planification et d’ordonnancement peuvent être considérés. Nous définissons notamment le problème de planification d’activités avec affectation de ressources. Plusieurs cas sont dissociés : soit les ressources humaines sont à capacité infinie, soit elles sont à capacité limitée et leur affectation sur site est une donnée, soit elles sont à capacité limitée et leur affectation sur site est une variable. Ces problèmes sont spécifiés et formalisés mathématiquement. Tous ces problèmes sont comparés à un problème de bin packing : le problème du bin packing de base pour le problème où les ressources humaines sont à capacité infinie, le problème du bin packing avec interdépendances dans les deux autres cas. Le problème du bin packing avec incompatibilités est ainsi défini. De nombreuses méthodes de résolution ont déjà été proposées pour le problème du bin packing. Nous faisons plusieurs propositions dont un couplage hiérarchique entre une heuristique et une métaheuristique. Des métaheuristiques basées individu et une métaheuristique basée population, l’optimisation par essaim particulaire, sont utilisées. Cette proposition nécessite un nouveau codage inspiré des problèmes de permutation d’ordonnancement. Cette méthode donne de très bons résultats sur les instances du problème du bin packing. Elle est simple à appliquer : elle couple des méthodes déjà connues. Grâce au couplage proposé, les nouvelles contraintes à considérer nécessitent d’être intégrées uniquement au niveau de l’heuristique. Le fonctionnement de la métaheuristique reste le même. Ainsi, notre méthode est facilement adaptable au problème de planification d’activités avec affectation de ressources. Pour les instances de grande taille, le solveur utilisé comme référence ne donne qu’un intervalle de solutions. Les résultats de notre méthode sont une fois encore très prometteurs : les solutions obtenues sont meilleures que la borne supérieure retournée par le solveur. Il est envisageable d’adapter notre méthode sur d’autres problèmes plus complexes par intégration dans l’heuristique des nouvelles contraintes à considérer. Il serait notamment intéressant de tester ces méthodes sur de réelles instances hospitalières afin d’évaluer leur portée. / The presented work is about optimization of the hospital system. An existing solution is the pooling of resources within the same territory. This may involve different forms of cooperation between several hospitals. Various problems are defined at the decision level : strategic, tactical or operational ; and at the modeling level : macroscopic, mesoscopic and microscopic. Problems of sizing, planning and scheduling may be considered. We define the problem of activities planning with resource allocation. Several cases are dissociated : either human resources are under infinite capacity, or they are under limited capacity and their assignment on a place is given, or they are under limited capacity and their assignment is a variable. These problems are specified and mathematically formalized. All thes problems are compared to a bin packing problem : the classical problem of bin packing is used for the problem where human resources are under infinite capacity, the bin packing problem with interdependencies is used in the two other cases. The bin packing problem with incompatibilities is defined. Many resolution methods have been proposed for the bin packing problem. We make several propositions including a hierarchical coupling between heuristic and metaheuristic. Single based metaheuristics and a population based metaheuristic, the particle swarm optimization, are used. This proposition requires a new encoding inspired by permutation problems. This method gives very good results to solve instances of the bin packing problem. It is easy to apply : it combines already known methods. With the proposed coupling, the new constraints to be considered need to be integrated only on the heuristic level. The running of the metaheuristic is the same. Thus, our method is easily adaptable to the problem of activities planning with resource allocation. For big instances, the solver used as a reference returns only an interval of solutions. The results of our method are once again very promising : the obtained solutions are better than the upper limit returned by the solver. It is possible to adapt our method on more complex issues through integration into the heuristic of the new constraints to consider. It would be particularly interesting to test these methods on real hospital authorities to assess their significance.
169

Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens / Single and multiple object(s) Bayesian restoration algorithms for Markovian models

Petetin, Yohan 27 November 2013 (has links)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre « Probability Hypothesis Density ». Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits « localement optimaux », c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire / This thesis focuses on the Bayesian estimation problem for statistical filtering which consists in estimating hidden states from an historic of observations over time in a given stochastic model. The considered models include the popular Hidden Markov Chain models and the Jump Markov State Space Systems; in addition, the filtering problem is addressed under a general form, that is to say we consider the mono- and multi-object filtering problems. The latter one is addressed in the Random Finite Sets and Probability Hypothesis Density contexts. First, we focus on the class of particle filtering algorithms, which include essentially the sequential importance sampling and auxiliary particle filter algorithms. We explore the recursive loops for computing the filtering probability density function, and alternative particle filtering algorithms are proposed. The ``locally optimal'' filtering algorithms, i.e. the sequential importance sampling with optimal conditional importance distribution and the fully adapted auxiliary particle filtering algorithms, are statistically compared in function of the parameters of a given stochastic model. Next, variance reduction methods based on the Rao-Blackwell theorem are exploited in the mono- and multi-object filtering contexts. More precisely, these methods are mainly used in mono-object filtering when the dimension of the hidden state is large; so we first extend them for Monte Carlo approximations of the Probabilty Hypothesis Density filter. In addition, alternative variance reduction methods are proposed. Although we still use the Rao-Blackwell decomposition, our methods no longer focus on the spatial aspect of the problem but rather on its temporal one. Finally, we discuss on the extension of the classical stochastic models. We first recall pairwise and triplet Markov models and we illustrate their interest through several practical examples. We next address the multi-object filtering problem for such models in the random finite sets context. Moreover, the statistical properties of the more general triplet Markov models are used to build new approximations of the optimal Bayesian estimate (in the sense of the mean square error) in Jump Markov State Space Systems. These new approximations can produce estimates with performances alike those given by particle filters but with lower computational cost
170

Modélisation statistique de l’état de charge des batteries électriques / Statistical modeling of the state of charge of electric batteries

Kalawoun, Jana 30 November 2015 (has links)
Les batteries électriques sont omniprésentes dans notre vie quotidienne : ordinateur, téléphone, etc. Elles jouent un rôle important dans le défi de la transition énergétique : anticiper la raréfaction des énergies fossiles et réduire la pollution, en développant le stockage des énergies renouvelables et les transports électriques. Cependant, l'estimation de l'état de charge (State of Charge – SoC) d'une batterie est difficile et les modèles de prédiction actuels sont peu robustes. En effet, une batterie est un système électrochimique complexe, dont la dynamique est influencée non seulement par ses caractéristiques internes, mais aussi par les conditions d'usages souvent non contrôlables : température, profil d’utilisation, etc. Or, une estimation précise du SoC permet de garantir une utilisation sûre de la batterie en évitant une surcharge ou surdécharge ; mais aussi d’estimer son autonomie. Dans cette étude, nous utilisons un modèle à espaces d'états gouverné par une chaîne de Markov cachée. Ce modèle est fondé sur des équations physiques et la chaîne de Markov cachée permet d’appréhender les différents «régimes de fonctionnement» de la batterie. Pour garantir l’unicité des paramètres du modèle, nous démontrons son identifiabilité à partir de contraintes simples et naturelles sur ses paramètres «physiques ». L’estimation du SoC dans un véhicule électrique doit être faîte en ligne et avec une puissance de calcul limitée. Nous estimons donc le SoC en utilisant une technique d’échantillonnage préférentiel séquentiel. D’autre part l’estimation des paramètres est faîte à partir d’une base d’apprentissage pour laquelle les états de la chaîne de Markov et le SoC ne sont pas observés. Nous développons et testons trois algorithmes adaptés à notre modèle à structure latente : un échantillonneur particulaire de Gibbs, un algorithme de Monte-Carlo EM pénalisé par des contraintes d’identifiabilité et un algorithme de Monte-Carlo EM pénalisé par une loi a priori. Par ailleurs les états cachés de la chaîne de Markov visent à modéliser les différents régimes du fonctionnement de la batterie. Nous identifions leur nombre par divers critères de sélection de modèles. Enfin, à partir de données issues de trois types de batteries (cellule, module et pack d’un véhicule électrique), notre modèle a permis d’appréhender les différentes sollicitations de la batterie et donne des estimations robustes et précises du SoC. / Electric batteries are omnipresent in our daily lives: computers, smartphones, etc. Batteries are important for anticipating the scarcity of fossil fuels and tackling their environmental impact. Therefore, estimating the State of Charge (SoC) of a battery is nowadays a challenging issue, as existing physical and statistical models are not yet robust. Indeed a battery is a complex electrochemical system. Its dynamic depends not only on its internal characteristics but also on uncontrolled usage conditions: temperature, usage profile, etc. However the SoC estimation helps to prevent overcharge and deep discharge, and to estimate the battery autonomy. In this study, the battery dynamics are described by a set of physical linear equations, switching randomly according to a Markov chain. This model is referred to as switching Markov state space model. To ensure the unicity of the model parameters, we prove its identifiability by applying straightforward and natural constraints on its “physical” parameters. Embedded applications, like electric vehicles, impose online estimated with hardware and time constraints. Therefore we estimate the SoC using a sequential importance sampling technique. Furthermore the model includes two latent variables: the SoC and the Markov chain state. Thus, to estimate the parameters, we develop and test three algorithms adapted to latent structure models: particle Gibbs sampler, Monte Carlo EM penalized with identifiability constraints, and Monte Carlo EM penalized with a prior distribution. The hidden Markov states aim to model the different “regimes” of the battery dynamics. We identify their number using different model selection criteria. Finally, when applied to various data from three battery types (cell, module and pack of an electric vehicle) our model allows us to analyze the battery dynamics and to obtain a robust and accurate SoC estimation under uncontrolled usage conditions.

Page generated in 0.0792 seconds