• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Optique quantique dans les microcavités semi-conductrices. Spectroscopie de l'ion moléculaire H2+

Karr, Jean-Philippe 03 December 2008 (has links) (PDF)
Je présente dans une première partie mes travaux de recherche sur les microcavités semi-conductrices en régime de couplage fort exciton-photon. Les modes propres dans ces systèmes sont des états mixtes exciton-photon appelés polaritons de cavité, qui présentent de fortes non-linéarités optiques provenant de l'interaction exciton-exciton. Je présente plusieurs applications de ces dispositifs dans les domaines de l'optique quantique (compression du bruit quantique, génération de faisceaux corrélés) des communications optiques et de l'opto-électronique de spin.<br /><br />J'aborde dans la deuxième partie mes activités théorique et expérimentale autour de la spectroscopie de l'ion H2+. Le but de l'expérience, qui a débuté en 2003 à l'université d'Evry, est de mesurer la fréquence d'une transition vibrationnelle à deux photons sans effet Doppler, et de la comparer à des prédictions théoriques précises pour en déduire une nouvelle détermination du rapport mp/me. Je décris les progrès des calculs de haute précision sur l'ion H2+ (niveaux d'énergie non relativistes, structure hyperfine), ainsi que le dispositif expérimental mis en place et les perspectives de l'expérience.
152

Méthodologie de compilation d'algorithmes de traitement du signal pour les processeurs en virgule fixe sous contrainte de précision

Ménard, Daniel 12 December 2002 (has links) (PDF)
L'implantation efficace des algorithmes de traitement numérique du signal (TNS) dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire les contraintes de coût, de consommation et d'encombrement exigées par ces applications. Le codage manuel des données en virgule fixe est une tâche fastidieuse et source d'erreurs. De plus, la réduction du temps de mise sur le marché des applications exige l'utilisation d'outils de développement de haut niveau, permettant d'automatiser certaines tâches. Ainsi, le développement de méthodologies de codage automatique des données en virgule fixe est nécessaire. Dans le cadre des processeurs programmables de traitement du signal, la méthodologie doit déterminer le codage optimal, permettant de maximiser la précision et de minimiser le temps d'exécution et la taille du code. L'objectif de ce travail de recherche est de définir une nouvelle méthodologie de compilation d'algorithmes spécifiés en virgule flottante au sein d'architectures programmables en virgule fixe sous contrainte de respect des critères de qualité associés à l'application. Ce travail de recherche s'articule autour de trois points principaux. Le premier aspect de notre travail a consisté à définir la structure de la méthodologie. L'analyse de l'influence de l'architecture sur la précision des calculs montre la nécessité de tenir compte de l'architecture cible pour obtenir une implantation optimisée d'un point de vue du temps d'exécution et de la précision. De plus, l'étude de l'interaction entre les phases de compilation et de codage des données permet de définir le couplage nécessaire entre les phases de conversion en virgule fixe et le processus de génération de code. Le second aspect de ce travail de recherche concerne l'évaluation de la précision au sein d'un système en virgule fixe à travers la détermination du Rapport Signal à Bruit de Quantification (RSBQ). Une méthodologie permettant de déterminer automatiquement l'expression analytique du RSBQ en fonction du format des données en virgule fixe est proposée. Dans un premier temps, un nouveau modèle de bruit est présenté. Ensuite, les concepts théoriques pour déterminer la puissance du bruit de quantification en sortie des systèmes linéaires et des systèmes non-linéaires et non-récursifs sont détaillés. Finalement, la méthodologie mise en oeuvre pour obtenir automatiquement l'expression du RSBQ dans le cadre des systèmes linéaires est exposée. Le troisième aspect de ce travail de recherche correspond à la mise en oeuvre de la méthodologie de codage des données en virgule fixe. Dans un premier temps, la dynamique des données est déterminée à l'aide d'une approche analytique combinant deux techniques différentes. Ces informations sur la dynamique permettent de déterminer la position de la virgule de chaque donnée en tenant compte de la présence éventuelle de bits de garde au sein de l'architecture. Pour obtenir un format des données en virgule fixe complet, la largeur de chaque donnée est déterminée en prenant en compte l'ensemble des types des données manipulées au sein du DSP. La méthode sélectionne la séquence d'instructions permettant de fournir une précision suffisante en sortie de l'algorithme et de minimiser le temps d'exécution du code. La dernière phase du processus de codage correspond à l'optimisation du format des données en vue d'obtenir une implantation plus efficace. Les différentes opérations de recadrage sont déplacées afin de minimiser le temps d'exécution global tant que la précision en sortie de l'algorithme est supérieure à la contrainte. Deux types de méthode ont été mis en {\oe}uvre en fonction des capacités de parallélisme au niveau instruction de l'architecture ciblée. Cette méthodologie a été testée sur différents algorithmes de traitement numérique du signal présents au sein des systèmes de radio-communications de troisième génération. Les résultats obtenus montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
153

Etude théorique et expérimentale des corrections électrofaibles au processus de production inclusive de jets. Développement de méthodes de détection de topologies extrêmes.

Meric, Nicolas 19 September 2013 (has links) (PDF)
Nous avons réalisé une étude du comportement des processus de production inclusive de jets et de production associée d'un boson vecteur faible et de jets du point de vue phénoménologique et expérimental dans le cadre de l'expérience ATLAS au LHC pour comprendre quel est l'impact des logarithmes de Sudakov dans les corrections electrofaibles et lors de la production associée de bosons vecteurs faibles et de jets au LHC. En particulier l'étude des corrections électrofaibles au processus de production inclusive de jets, du fait de l'émission de bosons faibles réels par les quarks a été réalisée à 7TeV, 8TeV et 14TeV à l'aide des générateurs MCFM et NLOjet++. Cette étude a permis de mettre en évidence, pour la mesure de la section efficace de production inclusive de jets, l'annulation partielle des corrections virtuelles électrofaibles (dans le cas où les bosons faibles interviennent dans les boucles) lorsque les corrections électrofaibles avec émission réelle de bosons faibles sont ajoutées. L'annulation de Bloch-Nordsieck est donc partiellement rétablie pour ce processus. Nous avons ensuite participé à la mesure des sections efficaces de production inclusive de jets et de production associée d'un boson vecteur avec au moins un jet, à une énergie de 7TeV dans le centre de masse de collision de protons avec l'expérience ATLAS au LHC. Nous avons, dans le cadre de ces mesures, étudié le bruit de fond QCD pour le processus W+jets dans le canal muonique. Les résultats obtenus dans le canal muonique ont ensuite été combinés et comparés afin de mettre en évidence le comportement des corrections électrofaibles liées à l' émission réelle d'un boson faible par les jets. En particulier, cette étude semble mettre en avant la présence de plusieurs effets qui augmentent la section efficace différentielle de production associée d'un boson faible et de jets. Cette étude est une étude préliminaire dont le but est de mettre en évidence l'intérêt de comparer les processus de production associée étudiés dans cette thèse avec les processus purement hadroniques. Finalement, une étude exhaustive des bruits de fond détecteur affectant le calorimètre électromagnétique a été réalisée. Cette étude a permis le développement d'une nouvelle méthode de détection temporelle et spatiale dans le but de détecter en toute circonstance la présence de tels bruits de fond dans les données. Nous présentons cette méthode dans une partie dédiée.
154

Numérisation 3D d'objets transparents par polarisation dans l'IR et par triangulation dans l'UV

Rantoson, Rindra 03 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'étude, la conception et le développement de deux nouveaux prototypes de reconstruction tridimensionnelle, spécifique aux objets transparents. La numérisation 3D d'objets opaques est abondamment traitée dans la littérature et de nombreux systèmes sont d'ailleurs commercialisés. Cependant, lorsqu'il s'agit de la numérisation 3D d'objets transparents, les publications se font rares et aucun système de scanning n'existe sur le marché. La technique de numérisation de surfaces transparentes demeure compliquée et non maîtrisée à l'heure actuelle. L'opacification de la surface avant le scanning s'avère être la solution retenue dans le domaine du contrôle qualité. Néanmoins, cette alternative n'est pas optimale en raison du coût de traitements et du manque de précision éventuellement engendré. Afin de solutionner les problèmes de la numérisation d'objets transparents, nous avons développé deux approches dites non conventionnelles en étendant les méthodes existantes (dans le visible) aux longueurs d'onde dans lesquelles les sujets apparaissent opaques (IR et UV). Les deux méthodes de mesure sans contact retenues sont : - la reconstruction par polarisation dans l'IR, en vue de s'affranchir des problèmes d'inter-réflexions; - le scanning par laser UV, pour satisfaire les contraintes industrielles (précision, rapidité et coût) tout en résolvant de manière efficace le problème de réfraction. La première approche est fondée sur la réflexion spéculaire de l'objet dans l'IR tandis que la seconde exploite la propriété de l'objet à fluorescer sous l'irradiation UV. L'inexistence des lentilles télécentriques dans l'IR nous a conduits à adapter la reconstruction par polarisation dans l'IR à l'aide d'une lentille non télécentrique. Pour ce faire, une méthode d'approximation du modèle orthographique a été développée et une méthode de validation visant à améliorer la précision des résultats a été en outre intégrée dans le processus de reconstruction après l'étape d'estimation des paramètres de Stokes. Nos résultats sont très satisfaisants et attestent la faisabilité de la reconstruction par polarisation dans l'IR. Quatre configurations de système de scanning par triangulation ont été déployées afin d'exploiter la propriété de fluorescence des objets transparents irradiés sous un rayonnement UV. Des expérimentations visant à caractériser la fluorescence induite à la surface des objets considérés et à vérifier l'éligibilité de notre approche ont été menées. Les mesures spectroscopiques nous ont permis d'élaborer des critères de "tracking" (détection et localisation) des points fluorescents en présence des bruits inhérents à l'acquisition. Nous avons également mis au point des méthodes de validation des paramètres du modèle de reconstruction 3D estimés lors de la calibration, permettant ainsi d'optimiser la configuration du système de scanning. Les méthodes de "tracking" et de validation ont contribué considérablement à l'amélioration de la précision des résultats. Par ailleurs, la précision obtenue n'a jamais été atteinte au regard de ce que l'on trouve dans la littérature.
155

Amélioration de la précision des robots industriels pour des applications d'usinage a grande vitesse

Olabi, Adel 23 November 2011 (has links) (PDF)
Les robots poly-articulés industriels sont un moyen de production moins couteux que les machines outils. De part leur structure, ils sont moins rigides, mais ils disposent d'une agilité et d'une zone de travail plus importante. L'exploitation de ces avantages pour la réalisation de certaines opérations continues, comme l'usinage par exemple, fait l'objet d'une demande croissante de l'industrie manufacturière. Ces nouvelles applications des robots poly-articulés pour l'usinage nécessitent de progresser sur le front de l'amélioration de la précision statique et dynamique de ces structures. Ainsi, afin d'améliorer la précision des robots, nous avons développé dans ce travail de thèse une méthode de planification de trajectoire basée sur l'interpolation paramétrique des courbes géométriques. Cette méthode permet de maîtriser le positionnement et la cinématique de l'outil pour les applications nécessitant un suivi de profil continu et notamment pour l'usinage. Nous proposons ainsi de qualifier les différentes souplesses des robots industriels 6 axes afin de déduire une cartographie de rigidité dans l'espace de travail cartésien. Une méthode exploitant cette cartographie permettant l'optimisation de la configuration géométrique du robot pour l'usinage est présentée. Les souplesses axiales des articulations sont intégrées dans un modèle élasto-statique utilisé pour la commande. Ce modèle permet d'anticiper les déviations statiques induites par ces souplesses articulaires. Enfin, nous mettons en évidence les défauts de transmission associés aux chaînes cinématiques des axes du robot. Nous montrons que ces défauts sont à l'origine d'une erreur de position au niveau de l'organe terminal de l'ordre de quelques dixièmes de millimètre. Un protocole d'identification de ces défauts est proposé. Ces défauts sont modélisés et intégrés dans une stratégie de correction hors ligne de position.
156

Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes

Charles, Joseph 26 April 2012 (has links) (PDF)
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.
157

Étude et réalisation d'un système de localisation en six dimensions pour la chirurgie assistée par ordinateur

Chassat, Fabrice 26 March 2001 (has links) (PDF)
La plupart des Gestes Médicaux-Chirurgicaux Assistés par Ordinateur (G.M.C.A.O.) nécessitent l'utilisation d'un localisateur en six-dimensions. Il s'agit d'un système permettant de déterminer et de suivre la position et l'orientation de corps rigides constitués de marqueurs dans l'espace. De nombreux localisateurs ont été utilisés en chirurgie. Très peu de systèmes sont dédiés spécifiquement à la chirurgie ainsi ils ne répondent pas entièrement de façon satisfaisante aux contraintes du domaine. Nous présentons dans cette thèse, une approche originale de la localisation. A partir d'une étude des applications chirurgicales utilisant un localisateur, nous avons défini un ensemble de critères qualitatifs (encombrement, poids, forme) et quantitatifs en particulier sur la précision pour laquelle un protocole générique d'évaluation des localisateurs pour la chirurgie est proposé. Ces critères nous ont conduit à proposer une évolution des principaux systèmes utilisés aujourd'hui (les localisateurs optiques) afin de les rendre totalement adaptés aux besoins du domaine. En particulier, il est apparu que le coût, la précision et l'ergonomie globale des systèmes existants bien que satisfaisantes dans la plupart des cas étaient insuffisantes pour des applications exigeantes. Nous avons étudié et nous détaillons dans cette thèse deux prototypes permettant de répondre aux problèmes posés par le coût, la précision et surtout l'ergonomie. A partir de la base commune d'un localisateur par stéréovision passive repérant des marqueurs ponctuels, nous proposons une évolution originale basée sur la localisation et l'identification de marqueurs linéaires par le rapport de Thalès pour améliorer la visibilité des cibles. Enfin nous proposons deux concepts très innovants de localisation répondant à l'inconvénient majeur des systèmes optiques qui doivent avoir une ligne de vue entre les caméras et les marqueurs libre de tout obstacle.
158

Nouvelles approches pour l'estimation du canal ultra-large bande basées sur des techniques d'acquisition compressée appliquées aux signaux à taux d'innovation fini IR-UWB / New approaches for UWB channel estimation relying on the compressed sampling of IR-UWB signals with finite rate of innovation

Yaacoub, Tina 20 October 2017 (has links)
La radio impulsionnelle UWB (IR-UWB) est une technologie de communication relativement récente, qui apporte une solution intéressante au problème de l’encombrement du spectre RF, et qui répond aux exigences de haut débit et localisation précise d’un nombre croissant d’applications, telles que les communications indoor, les réseaux de capteurs personnels et corporels, l’IoT, etc. Ses caractéristiques uniques sont obtenues par la transmission d’impulsions de très courte durée (inférieure à 1 ns), occupant une largeur de bande allant jusqu’à 7,5 GHz, et ayant une densité spectrale de puissance extrêmement faible (inférieure à -43 dBm/MHz). Les meilleures performances d’un système IR-UWB sont obtenues avec des récepteurs cohérents de type Rake, au prix d’une complexité accrue, due notamment à l’étape d’estimation du canal UWB, caractérisé par de nombreux trajets multiples. Cette étape de traitement nécessite l’estimation d’un ensemble de composantes spectrales du signal reçu, sans pouvoir faire appel aux techniques d’échantillonnage usuelles, en raison d’une limite de Nyquist particulièrement élevée (plusieurs GHz).Dans le cadre de cette thèse, nous proposons de nouvelles approches, à faible complexité, pour l’estimation du canal UWB, basées sur la représentation parcimonieuse du signal reçu, la théorie de l’acquisition compressée, et les méthodes de reconstruction des signaux à taux d’innovation fini. La réduction de complexité ainsi obtenue permet de diminuer de manière significative le coût d’implémentation du récepteur IR-UWB et sa consommation. D’abord, deux schémas d’échantillonnage compressé, monovoie (filtre SoS) et multivoie (MCMW) identifiés dans la littérature sont étendus au cas des signaux UWB ayant un spectre de type passe-bande, en tenant compte de leur implémentation réelle dans le circuit. Ces schémas permettent l’acquisition des coefficients spectraux du signal reçu et l’échantillonnage à des fréquences très réduites ne dépendant pas de la bande passante des signaux, mais seulement du nombre des trajets multiples du canal UWB. L’efficacité des approches proposées est démontrée au travers de deux applications : l’estimation du canal UWB pour un récepteur Rake cohérent à faible complexité, et la localisation précise en environnement intérieur dans un contexte d’aide à la dépendance.En outre, afin de réduire la complexité de l’approche multivoie en termes de nombre de voies nécessaires pour l’estimation du canal UWB, nous proposons une architecture à nombre de voies réduit, en augmentant le nombre d’impulsions pilotes émises.Cette même approche permet aussi la réduction de la fréquence d’échantillonnage associée au schéma MCMW. Un autre objectif important de la thèse est constitué par l’optimisation des performances des approches proposées. Ainsi, bien que l’acquisition des coefficients spectraux consécutifs permette une mise en oeuvre simple des schémas multivoie, nous montrons que les coefficients ainsi choisis, ne donnent pas les performances optimales des algorithmes de reconstruction. Ainsi, nous proposons une méthode basée sur la cohérence des matrices de mesure qui permet de trouver l’ensemble optimal des coefficients spectraux, ainsi qu’un ensemble sous-optimal contraint où les positions des coefficients spectraux sont structurées de façon à faciliter la conception du schéma MCMW. Enfin, les approches proposées dans le cadre de cette thèse sont validées expérimentalement à l’aide d’une plateforme expérimentale UWB du laboratoire Lab-STICC CNRS UMR 6285. / Ultra-wideband impulse radio (IR-UWB) is a relatively new communication technology that provides an interesting solution to the problem of RF spectrum scarcity and meets the high data rate and precise localization requirements of an increasing number of applications, such as indoor communications, personal and body sensor networks, IoT, etc. Its unique characteristics are obtained by transmitting pulses of very short duration (less than 1 ns), occupying a bandwidth up to 7.5 GHz, and having an extremely low power spectral density (less than -43 dBm / MHz). The best performances of an IR-UWB system are obtained with Rake coherent receivers, at the expense of increased complexity, mainly due to the estimation of UWB channel, which is characterized by a large number of multipath components. This processing step requires the estimation of a set of spectral components for the received signal, without being able to adopt usual sampling techniques, because of the extremely high Nyquist limit (several GHz).In this thesis, we propose new low-complexity approaches for the UWB channel estimation, relying on the sparse representation of the received signal, the compressed sampling theory, and the reconstruction of the signals with finite rate of innovation. The complexity reduction thus obtained makes it possible to significantly reduce the IR-UWB receiver cost and consumption. First, two existent compressed sampling schemes, single-channel (SoS) and multi-channel (MCMW), are extended to the case of UWB signals having a bandpass spectrum, by taking into account realistic implementation constraints. These schemes allow the acquisition of the spectral coefficients of the received signal at very low sampling frequencies, which are not related anymore to the signal bandwidth, but only to the number of UWB channel multipath components. The efficiency of the proposed approaches is demonstrated through two applications: UWB channel estimation for low complexity coherent Rake receivers, and precise indoor localization for personal assistance and home care.Furthermore, in order to reduce the complexity of the MCMW approach in terms of the number of channels required for UWB channel estimation, we propose a reduced number of channel architecture by increasing the number of transmitted pilot pulses. The same approach is proven to be also useful for reducing the sampling frequency associated to the MCMW scheme.Another important objective of this thesis is the performance optimization for the proposed approaches. Although the acquisition of consecutive spectral coefficients allows a simple implementation of the MCMW scheme, we demonstrate that it not results in the best performance of the reconstruction algorithms. We then propose to rely on the coherence of the measurement matrix to find the optimal set of spectral coefficients maximizing the signal reconstruction performance, as well as a constrained suboptimal set, where the positions of the spectral coefficients are structured so as to facilitate the design of the MCMW scheme. Finally, the approaches proposed in this thesis are experimentally validated using the UWB equipment of Lab-STICC CNRS UMR 6285.
159

Towards fast and certified multiple-precision librairies / Vers des bibliothèques multi-précision certifiées et performantes

Popescu, Valentina 06 July 2017 (has links)
De nombreux problèmes de calcul numérique demandent parfois à effectuer des calculs très précis. L'étude desystèmes dynamiques chaotiques fournit des exemples très connus: la stabilité du système solaire ou l’itération à longterme de l'attracteur de Lorenz qui constitue un des premiers modèles de prédiction de l'évolution météorologique. Ons'intéresse aussi aux problèmes d'optimisation semi-définie positive mal-posés qui apparaissent dans la chimie oul'informatique quantique.Pour tenter de résoudre ces problèmes avec des ordinateurs, chaque opération arithmétique de base (addition,multiplication, division, racine carrée) demande une plus grande précision que celle offerte par les systèmes usuels(binary32 and binary64). Il existe des logiciels «multi-précision» qui permettent de manipuler des nombres avec unetrès grande précision, mais leur généralité (ils sont capables de manipuler des nombres de millions de chiffres) empêched’atteindre de hautes performances. L’objectif majeur de cette thèse a été de développer un nouveau logiciel à la foissuffisamment précis, rapide et sûr : on calcule avec quelques dizaines de chiffres (quelques centaines de bits) deprécision, sur des architectures hautement parallèles comme les processeurs graphiques et on démontre des bornesd'erreur afin d'être capables d’obtenir des résultats certains. / Many numerical problems require some very accurate computations. Examples can be found in the field ofdynamical systems, like the long-term stability of the solar system or the long-term iteration of the Lorenz attractor thatis one of the first models used for meteorological predictions. We are also interested in ill-posed semi-definite positiveoptimization problems that appear in quantum chemistry or quantum information.In order to tackle these problems using computers, every basic arithmetic operation (addition, multiplication,division, square root) requires more precision than the ones offered by common processors (binary32 and binary64).There exist multiple-precision libraries that allow the manipulation of very high precision numbers, but their generality(they are able to handle numbers with millions of digits) is quite a heavy alternative when high performance is needed.The major objective of this thesis was to design and develop a new arithmetic library that offers sufficient precision, isfast and also certified. We offer accuracy up to a few tens of digits (a few hundred bits) on both common CPU processorsand on highly parallel architectures, such as graphical cards (GPUs). We ensure the results obtained by providing thealgorithms with correctness and error bound proofs.
160

Data-driven fault diagnosis for PEMFC systems

Li, Zhongliang 16 September 2014 (has links)
Cette thèse est consacrée à l'étude de diagnostic de pannes pour les systèmes pile à combustible de type PEMFC. Le but est d'améliorer la fiabilité et la durabilité de la membrane électrolyte polymère afin de promouvoir la commercialisation de la technologie des piles à combustible. Les approches explorées dans cette thèse sont celles du diagnostic guidé par les données. Les techniques basées sur la reconnaissance de forme sont les plus utilisées. Dans ce travail, les variables considérées sont les tensions des cellules. Les résultats établis dans le cadre de la thèse peuvent être regroupés en trois contributions principales.La première contribution est constituée d'une étude comparative. Plus précisément, plusieurs méthodes sont explorées puis comparées en vue de déterminer une stratégie précise et offrant un coût de calcul optimal.La deuxième contribution concerne le diagnostic online sans connaissance complète des défauts au préalable. Il s'agit d'une technique adaptative qui permet d'appréhender l'apparition de nouveaux types de défauts. Cette technique est fondée sur la méthodologie SSM-SVM et les règles de détection et de localisation ont été améliorées pour répondre au problème du diagnostic en temps réel.La troisième contribution est obtenue à partir méthodologie fondée sur l'utilisation partielle de modèles dynamiques. Le principe de détection et localisation de défauts est fondé sur des techniques d'identification et sur la génération de résidus directement à partir des données d'exploitation.Toutes les stratégies proposées dans le cadre de la thèse ont été testées à travers des données expérimentales et validées sur un système embarqué. / Aiming at improving the reliability and durability of Polymer Electrolyte Membrane Fuel Cell (PEMFC) systems and promote the commercialization of fuel cell technologies, this thesis work is dedicated to the fault diagnosis study for PEMFC systems. Data-driven fault diagnosis is the main focus in this thesis. As a main branch of data-driven fault diagnosis, the methods based on pattern classification techniques are firstly studied. Taking individual fuel cell voltages as original diagnosis variables, several representative methodologies are investigated and compared from the perspective of online implementation.Specific to the defects of conventional classification based diagnosis methods, a novel diagnosis strategy is proposed. A new classifier named Sphere-Shaped Multi-class Support Vector Machine (SSM-SVM) and modified diagnostic rules are utilized to realize the novel fault recognition. While an incremental learning method is extended to achieve the online adaptation.Apart from the classification based diagnosis approach, a so-called partial model-based data-driven approach is introduced to handle PEMFC diagnosis in dynamic processes. With the aid of a subspace identification method (SIM), the model-based residual generation is designed directly from the normal and dynamic operating data. Then, fault detection and isolation are further realized by evaluating the generated residuals.The proposed diagnosis strategies have been verified using the experimental data which cover a set of representative faults and different PEMFC stacks. The preliminary online implementation results with an embedded system are also supplied.

Page generated in 0.0696 seconds