• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Imagerie de diffusion en temps-réel : correction du bruit et inférence de la connectivité cérébrale

Brion, Véronique 30 April 2013 (has links) (PDF)
La plupart des constructeurs de systèmes d'imagerie par résonance magnétique (IRM) proposent un large choix d'applications de post-traitement sur les données IRM reconstruites a posteriori, mais très peu de ces applications peuvent être exécutées en temps réel pendant l'examen. Mises à part certaines solutions dédiées à l'IRM fonctionnelle permettant des expériences relativement simples ainsi que d'autres solutions pour l'IRM interventionnelle produisant des scans anatomiques pendant un acte de chirurgie, aucun outil n'a été développé pour l'IRM pondérée en diffusion (IRMd). Cependant, comme les examens d'IRMd sont extrêmement sensibles à des perturbations du système hardware ou à des perturbations provoquées par le sujet et qui induisent des données corrompues, il peut être intéressant d'investiguer la possibilité de reconstruire les données d'IRMd directement lors de l'examen. Cette thèse est dédiée à ce projet innovant. La contribution majeure de cette thèse a consisté en des solutions de débruitage des données d'IRMd en temps réel. En effet, le signal pondéré en diffusion peut être corrompu par un niveau élevé de bruit qui n'est plus gaussien, mais ricien ou chi non centré. Après avoir réalisé un état de l'art détaillé de la littérature sur le bruit en IRM, nous avons étendu l'estimateur linéaire qui minimise l'erreur quadratique moyenne (LMMSE) et nous l'avons adapté à notre cadre de temps réel réalisé avec un filtre de Kalman. Nous avons comparé les performances de cette solution à celles d'un filtrage gaussien standard, difficile à implémenter car il nécessite une modification de la chaîne de reconstruction pour y être inséré immédiatement après la démodulation du signal acquis dans l'espace de Fourier. Nous avons aussi développé un filtre de Kalman parallèle qui permet d'appréhender toute distribution de bruit et nous avons montré que ses performances étaient comparables à celles de notre méthode précédente utilisant un filtre de Kalman non parallèle. Enfin, nous avons investigué la faisabilité de réaliser une tractographie en temps-réel pour déterminer la connectivité structurelle en direct, pendant l'examen. Nous espérons que ce panel de développements méthodologiques permettra d'améliorer et d'accélérer le diagnostic en cas d'urgence pour vérifier l'état des faisceaux de fibres de la substance blanche.
52

Développement d'un dispositif intégré de photodétection de grande sensibilité avec discrimination spectrale pour les laboratoires sur puce

Courcier, Thierry 17 June 2014 (has links) (PDF)
Ce travail de thèse a pour but de développer un dispositif basé autour d'un dispositif intégré de photodétection pour des applications biomédicales nécessitant une grande sensibilité de détection et une discrimination spectrale (sélectivité). Ce dispositif peut être appliqué, par exemple, à la mesure simultanée de plusieurs marqueurs fluorescents dans les laboratoires sur puce mettant en œuvre de très faibles volumes de réactifs (inférieurs au microlitre). Le travail de thèse se focalise sur la conception, la réalisation et le test de ce dispositif intégré de photodétection. Ce travail se décline selon deux axes principaux : d'une part, la conception d'un photodétecteur CMOS avec préamplificateurs intégrés, et d'autre part la conception, la réalisation et la caractérisation de filtres optiques intégrés performants pour la détection de fluorescence
53

Early detection of cardiac arrhythmia based on Bayesian methods from ECG data / La détection précoce des troubles du rythme cardiaque sur la base de méthodes bayésiens à partir des données ECG

Montazeri Ghahjaverestan, Nasim 10 July 2015 (has links)
L'apnée est une complication fréquente chez les nouveaux-nés prématurés. L'un des problèmes les plus fréquents est l'épisode d'apnée bradycardie dont la répétition influence de manière négative le développement de l'enfant. C'est pourquoi les enfants prématurés sont surveillés en continu par un système de monitoring. Depuis la mise en place de ce système, l'espérance de vie et le pronostic de vie des prématurés ont été considérablement améliorés et ainsi la mortalité réduite. En effet, les avancées technologiques en électronique, informatique et télécommunications ont conduit à l'élaboration de systèmes multivoies de monitoring néonatal de plus en plus performants. L'un des principaux signaux exploités dans ces systèmes est l'électrocardiogramme (ECG). Toutefois, même si l'analyse de l'ECG a évolué au fil des années, l'ensemble des informations qu'il fournit n'est pas encore totalement exploité dans les processus de décision, notamment en monitoring en Unité de Soins Intensifs en Néonatalogie (USIN). L'objectif principal de cette thèse est d'améliorer la prise en compte des dynamiques multi-dimensionnelles en proposant de nouvelles approches basées sur un formalisme bayésien, pour la détection précoce des apnées bradycardies chez le nouveau-né prématuré. Aussi, dans cette thèse, nous proposons deux approches bayésiennes, basées sur les caractéristiques de signaux biologiques en vue de la détection précoce de l'apnée bradycardie des nouveaux-nés prématurés. Tout d'abord avec l'approche de Markov caché, nous proposons deux extensions du Modèle de Markov Caché (MMC) classique. La première, qui s'appelle Modèle de Markov Caché Couplé (MMCC), créé une chaîne de Markov à chaque dimension de l'observation et établit un couplage entre les chaînes. La seconde, qui s'appelle Modèle Semi-Markov Caché Couplé (MSMCC), combine les caractéristiques du modèle de MSMC avec le mécanisme de couplage entre canaux. Pour les deux nouveaux modèles (MMCC et MSMCC), les algorithmes récursifs basées sur la version classique de Forward-Backward sont introduits pour résoudre les problèmes d'apprentissage et d'inférence dans le cas couplé. En plus des modèles de Markov, nous proposons deux approches passées sur les filtres de Kalman pour la détection d'apnée. La première utilise les modifications de la morphologie du complexe QRS et est inspirée du modèle générateur de McSharry, déjà utilisé en couplant avec un filtre de Kalman étendu dans le but de détecter des changements subtils de l'ECG, échantillon par échantillon. La deuxième utilise deux modèles AR (l'un pour le processus normal et l'autre pour le processus de bradycardie). Les modèles AR sont appliqués sur la série RR, alors que le filtre de Kalman suit l'évolution des paramètres du modèle AR et fournit une mesure de probabilité des deux processus concurrents. / Apnea-bradycardia episodes (breathing pauses associated with a significant fall in heart rate) are the most common disease in preterm infants. Consequences associated with apnea-bradycardia episodes involve a compromise in oxygenation and tissue perfusion, a poor neuromotor prognosis at childhood and a predisposing factor to sudden-death syndrome in preterm newborns. It is therefore important that these episodes are recognized (early detected or predicted if possible), to start an appropriate treatment and to prevent the associated risks. In this thesis, we propose two Bayesian Network (BN) approaches (Markovian and Switching Kalman Filter) for the early detection of apnea bradycardia events on preterm infants, using different features extracted from electrocardiographic (ECG) recordings. Concerning the Markovian approach, we propose new frameworks for two generalizations of the classical Hidden Markov Model (HMM). The first framework, Coupled Hidden Markov Model (CHMM), is accomplished by assigning a Markov chain (channel) to each dimension of observation and establishing a coupling among channels. The second framework, Coupled Hidden semi Markov Model (CHMM), combines the characteristics of Hidden semi Markov Model (HSMM) with the above-mentioned coupling concept. For each framework, we present appropriate recursions in order to use modified Forward-Backward (FB) algorithms to solve the learning and inference problems. The proposed learning algorithm is based on Maximum Likelihood (ML) criteria. Moreover, we propose two new switching Kalman Filter (SKF) based algorithms, called wave-based and R-based, to present an index for bradycardia detection from ECG. The wave-based algorithm is established based on McSarry's dynamical model for ECG beat generation which is used in an Extended Kalman filter algorithm in order to detect subtle changes in ECG sample by sample. We also propose a new SKF algorithm to model normal beats and those with bradycardia by two different AR processes.
54

Etude des filtres miniatures LTCC High K en bandes L&S / LTCC High K miniature filters in L and S bands

Guerrero Enriquez, Rubén Dario 24 June 2016 (has links)
Dans les systèmes actuels de communication, qu’ils soient terrestre ou spatial, qu’ils soient mobile ou fixe, il y a un réel intérêt à développer des front-ends radiofréquences et hyperfréquences miniatures et performants. Ceci s’applique en particulier aux dispositifs de filtrage où l’encombrement et les facteurs de qualité sont clairement antagonistes. Pour les bandes de fréquences basses aux alentours du GHz, les longueurs d’onde restent encore importantes, rendant difficiles les efforts de miniaturisation. D’autre part il faut aussi s’assurer que ces filtres viendront s’interconnecter aisément avec les autres composants du système, notamment les actifs.Pour toutes ces raisons, le développement de structures de filtres multicouches utilisant des substrats à haute permittivité (εr = 68) selon une approche LTCC apparait comme une alternative intéressante. Elle peut en effet conduire à une réduction significative de l'empreinte (footprint) sans pour autant trop nuire aux performances électriques.Dans le cadre de ce travail, deux structures de filtres multicouches ont été développées pour répondre à des spécifications proposées en bandes L et S, par un équipementier du spatial. Ces filtres ont pour caractéristiques principales un haut niveau de rejection et des faibles pertes dans la bande passante. Pour atteindre les spécifications, un filtre SIW empilé verticalement et un filtre à stubs en court-circuit en configuration triplaque ont été étudiés. Le filtre SIW se distingue par un facteur de qualité élevé, ce qui entraîne des faibles pertes d’insertion et une bonne platitude. La solution à stub permet quant à elle de réduire l’encombrement mais au prix d’un impact sur les performances électriques. Dans les deux cas on tire parti de la souplesse offerte par la technologie LTCC, puisqu’elle offre finalement un degré de liberté supplémentaire, par rapport à une approche planaire classique. Si dans le cas SIW, c’est surtout l’architecture topologique qui a été étudiée finement pour pouvoir agencer et coupler douze cavités, dans le cas du filtre à stub une synthèse mettant à profit tous les degrés de liberté offerts a été spécifiquement développée.Compte tenu de la complexité des filtres, notamment à cause de l’ordre élevé et de la mise en oeuvre de murs « électriques » à partir d’arrangements de via spécifiques, une attention particulière doit être apportée lors des phases de simulation et d’optimisation. De plus la très forte permittivité du substrat ne permet pas d’utiliser de ligne 50 Ohms. Enfin les transitions constituent un point dur de l’exercice surtout dans le cas SIW.Cette thèse co-financée par le CNES (Centre National d'Etudes Spatiales) et Thales Alenia Space, était accompagnée par un projet R&T financé par le CNES. Le fondeur allemand Via Electronic avait en charge la fabrication des filtres. / In current communication systems, whether terrestrial or spatial, whether fixed or mobile, there is a real interest in developing high performance miniature RF front-ends. This is applied in particular to filter devices, in which the size and the quality factors are clearly in conflict. For low frequency bands around the GHz, the wavelengths remain significant, making it difficult the miniaturization efforts. On the other hand, we must also ensure that these filters will be easily interconnected with other other system components, including active devices.For all these reasons, the development of multilayer filter structures using high permittivity substrates (Er = 68) in an LTCC approach is consolidated as an interesting alternative. It may lead to a significant footprint reduction without decreasing the electrical performances.As part of this work, two multilayer filter structures have been developed to meet the given specifications in L and S bands, given by a space manufacturer. These filters have as main features a high rejection level and low losses in the passband. To meet the specifications, a vertically stacked SIW filter and a short-circuited stubs filter in a stripline configuration were studied. The SIW filter is characterized by a high quality factor, which results in low insertion loss and good flatness. The stubs filter allows in contrast to reduce the footprint but at the price of impacting the electrical performance. In both cases we take advantage of the flexibility offered by the LTCC technology as it finally provides an additional freedom degree compared to a conventional planar approach. For the SIW filter, the topological architecture was studied and designed in detail, to be able to arrange and synthetize couplings between twelve cavities. In a similar way, for the stub filter a synthesis that takes profit of all the offered freedom degrees was developed.Given the filters complexity, especially due to the high order and the implementation of “electrical walls" based on specific vias patterns, a close attention must be paid during the simulation and optimization phase. In addition, the high permittivity substrate does not allow to conceive 50-Ohms lines. Finally, access transitions constitute a challenging task, especially for the SIW case.This thesis was co-funded by CNES (Centre National d'Etudes Spatiales) and Thales Alenia Space, and was accompanied by an R&T project funded by CNES. The German foundry Via Electronic was responsible for the filters fabrication.
55

Cadre unifié pour la modélisation des incertitudes statistiques et bornées : application à la détection et isolation de défauts dans les systèmes dynamiques incertains par estimation / A unified framework for modeling statistical and bounded uncertainties : application to fault detection and isolation of uncertain dynamic systems via estimation

Tran, Tuan Anh 29 November 2017 (has links)
Cette thèse porte sur l'estimation d'état des systèmes dynamiques à temps discret dans le contexte de l'intégration d'incertitudes statistiques et à erreurs bornées. Partant du filtre de Kalman intervalle (IKF) et de son amélioration (iIKF), nous proposons un algorithme de filtrage pour des systèmes linéaires dont les bruits sont gaussiens incertains, c'est-à-dire de moyenne et matrice de covariance définies par leur appartenance à des intervalles. Ce nouveau filtre de Kalman intervalle (UBIKF) repose sur la recherche d'une matrice de gain ponctuelle minimisant une borne majorante de l'ensemble des matrices de covariance de l'erreur d'estimation en respectant les bornes des incertitudes paramétriques. Un encadrement de tousles estimés possibles est ensuite déterminé en utilisant l'analyse par intervalles. Le filtre UBIKF permet de réduire à la fois la complexité calculatoire de l'inversion ensembliste des matrices intervalles présent dans le filtre iIKF et le conservatisme des estimations. Nous abordons ensuite différents cadres permettant de représenter des connaissances incomplètes ou imprécises, y compris les fonctions de répartition, la théorie de possibilité et la théorie des fonctions de croyance. Grâce à cette dernière, un modèle sous forme d'une fonction de masse pour une distribution gaussienne multivariée incertaine est proposé. Un filtrage particulaire ensembliste basé sur cette théorie est développé pour des systèmes dynamiques non linéaires dans lesquels les bruits sur la dynamique sont bornés et les erreurs de mesure sont modélisées par une fonction de masse gaussienne incertaine. Enfin, le filtre UBIKF est utilisé pour la détection et l'isolation de défauts en mettant en œuvre le schéma d'observateurs généralisé et l'analyse structurelle. Au travers de différents exemples, la capacité d'isolation de défauts capteurs/actionneurs de cet outil est illustrée et comparée à d'autre approches. / This thesis deals with state estimation in discrete-time dynamic systems in the context of the integration of statistical and bounded error uncertainties. Motivated by the drawbacks of the interval Kalman filter (IKF) and its improvement (iIKF), we propose a filtering algorithm for linear systems subject to uncertain Gaussian noises, i.e. with the mean and covariance matrix defined by their membership to intervals. This new interval Kalman filter (UBIKF) relies on finding a punctual gain matrix minimizing an upper bound of the set of estimation error covariance matrices by respecting the bounds of the parametric uncertainties. An envelope containing all possible estimates is then determined using interval analysis. The UBIKF reduces not only the computational complexity of the set inversion of the matrices intervals appearing in the iIKF, but also the conservatism of the estimates. We then discuss different frameworks for representing incomplete or imprecise knowledge, including the cumulative distribution functions, the possibility theory and the theory of belief functions. Thanks to the last, a model in the form of a mass function for an uncertain multivariate Gaussian distribution is proposed. A box particle filter based on this theory is developed for non-linear dynamic systems in which the process noises are bounded and the measurement errors are represented by an uncertain Gaussian mass function. Finally, the UBIKF is applied to fault detection and isolation by implementing the generalized observer scheme and structural analysis. Through various examples, the capacity for detecting and isolating sensor/actuator faults of this tool is illustrated and compared to other approaches.
56

Navigation d'un véhicule autonome autour d'un astéroïde

Dionne, Karine January 2010 (has links)
Les missions d'exploration planétaire utilisent des véhicules spatiaux pour acquérir les données scientifiques qui font avancer notre connaissance du système solaire. Depuis les années 90, ces missions ciblent non seulement les planètes, mais aussi les corps célestes de plus petite taille comme les astéroïdes. Ces astres représentent un défi particulier du point de vue des systèmes de navigation, car leur environnement dynamique est complexe. Une sonde spatiale doit réagir rapidement face aux perturbations gravitationnelles en présence, sans quoi sa sécurité pourrait être compromise. Les délais de communication avec la Terre pouvant souvent atteindre plusieurs dizaines de minutes, il est nécessaire de développer des logiciels permettant une plus grande autonomie d'opération pour ce type de mission. Ce mémoire présente un système de navigation autonome qui détermine la position et la vitesse d'un satellite en orbite autour d'un astéroïde. Il s'agit d'un filtre de Kalman étendu adaptatif à trois degrés de liberté. Le système proposé se base sur l'imagerie optique pour détecter des"points de repères" qui ont été préalablement cartographiés. Il peut s'agir de cratères, de rochers ou de n'importe quel trait physique discernable à la caméra. Les travaux de recherche réalisés se concentrent sur les techniques d'estimation d'état propres à la navigation autonome. Ainsi, on suppose l'existence d'un logiciel approprié qui réalise les fonctions de traitement d'image. La principale contribution de recherche consiste en l'inclusion, à chaque cycle d'estimation, d'une mesure de distance afin d'améliorer les performances de navigation. Un estimateur d'état de type adaptatif est nécessaire pour le traitement de ces mesures, car leur précision varie dans le temps en raison de l'erreur de pointage. Les contributions secondaires de recherche sont liées à l'analyse de l'observabilité du système ainsi qu'à une analyse de sensibilité pour six paramètres principaux de conception. Les résultats de simulation montrent que l'ajout d'une mesure de distance par cycle de mise à jour entraîne une amélioration significative des performances de navigation. Ce procédé réduit l'erreur d'estimation ainsi que les périodes de non-observabilité en plus de contrer la dilution de précision des mesures. Les analyses de sensibilité confirment quant à elles la contribution des mesures de distance à la diminution globale de l'erreur d'estimation et ce pour une large gamme de paramètres de conception. Elles indiquent également que l'erreur de cartographie est un paramètre critique pour les performances du système de navigation développé.
57

Gestion de mémoire pour la détection de fermeture de boucle pour la cartographie temps réel par un robot mobile

Labbé, Mathieu January 2010 (has links)
Pour permettre à un robot autonome de faire des tâches complexes, il est important qu'il puisse cartographier son environnement pour s'y localiser. À long terme, pour corriger sa carte globale, il est nécessaire qu'il détecte les endroits déjà visités. C'est une des caractéristiques les plus importantes en localisation et cartographie simultanée (SLAM), mais aussi sa principale limitation. La charge de calcul augmente en fonction de la taille de l'environnement, et alors les algorithmes n'arrivent plus à s'exécuter en temps réel. Pour résoudre cette problématique, l'objectif est de développer un nouvel algorithme de détection en temps réel d'endroits déjà visités, et qui fonctionne peu importe la taille de l'environnement. La détection de fermetures de boucle, c'est-à-dire la reconnaissance des endroits déjà visités, est réalisée par un algorithme probabiliste robuste d'évaluation de la similitude entre les images acquises par une caméra à intervalles réguliers. Pour gérer efficacement la charge de calcul de cet algorithme, la mémoire du robot est divisée en mémoires à long terme (base de données), à court terme et de travail (mémoires vives). La mémoire de travail garde les images les plus caractéristiques de l'environnement afin de respecter la contrainte d'exécution temps réel. Lorsque la contrainte de temps réel est atteinte, les images des endroits vus les moins souvent depuis longtemps sont transférées de la mémoire de travail à la mémoire à long terme. Ces images transférées peuvent être récupérées de la mémoire à long terme à la mémoire de travail lorsqu'une image voisine dans la mémoire de travail reçoit une haute probabilité que le robot soit déjà passé par cet endroit, augmentant ainsi la capacité de détecter des endroits déjà visités avec les prochaines images acquises. Le système a été testé avec des données préalablement prises sur le campus de l'Université de Sherbrooke afin d'évaluer sa performance sur de longues distances, ainsi qu'avec quatre autres ensembles de données standards afin d'évaluer sa capacité d'adaptation avec différents environnements. Les résultats suggèrent que l'algorithme atteint les objectifs fixés et permet d'obtenir des performances supérieures que les approches existantes. Ce nouvel algorithme de détection de fermeture de boucle peut être utilisé directement comme une technique de SLAM topologique ou en parallèle avec une technique de SLAM existante afin de détecter les endroits déjà visités par un robot autonome. Lors d'une détection de boucle, la carte globale peut alors être corrigée en utilisant la nouvelle contrainte créée entre le nouveau et l'ancien endroit semblable.
58

Techniques mixtes de positionnement et la navigation véhiculaire

Amadou Maranga, Abdoulaye January 2015 (has links)
Les véhicules intelligents sont des véhicules dotés de systèmes permettant d’alerter le conducteur ou de prendre une décision en cas de danger imminent. Une condition sine qua non pour garantir un bon fonctionnement de ces systèmes est d’avoir une localisation précise du véhicule. En tirant profit des capteurs embarqués dans un véhicule, on peut exploiter la redondance de l’information afin d’obtenir un positionnement fiable. Cette information de localisation peut être alors utilisée dans un système d’aide à la conduite. Cette étude va se focaliser sur deux aspects. Dans un premier temps, un effort sera porté sur l'aspect localisation précise du véhicule lors de son déplacement. Il s’agit d’utiliser des approches bayésiennes pour fusionner les informations provenant de systèmes hétérogènes de navigation telle que le GPS et une centrale inertielle (INS) auxquels sera rajoutée ensuite l'odométrie. L'accent sera mis sur la précision des résultats. Ensuite, nous allons nous mettre en œuvre un régulateur de vitesse intelligent pour couvrir l’aspect navigation d’un véhicule.
59

Contrôle de l'épaisseur de gelée dans les réacteurs métallurgiques à haute température à l'aide d'un capteur virtuel

Lebreux, Marc January 2011 (has links)
Au Québec, les producteurs d'aluminium consomment 12% de la puissance totale installée d'Hydro-Québec. Dans un contexte où le prix de l'énergie est en constante progression, les alumineries font donc face à des défis énergétiques de taille ; de plus, la production d'émissions de gaz à effet de serre étant directement reliée à la consommation d'énergie, des défis environnementaux importants s'annoncent pour le futur. Pour répondre à ces défis, une des avenues envisagées concerne la couche de gelée qui est présente dans chacune des cuves d'électrolyse d'aluminium. La couche de gelée a une importance capitale dans le procédé de fabrication d'aluminium, car elle sert de barrière protectrice aux parois réfractaires contre le bain électrolytique très corrosif à haute température. Elle permet également de minimiser les courants horizontaux à l'intérieur de la cuve, ce qui assure sa stabilité magnéto-hydrodynamique et permet d'optimiser l'efficacité de courant du procédé. La méthode traditionnelle pour mesurer le profil de gelée dans une cuve se fait manuellement à l'aide d'une sonde mécanique, mais cette opération nécessite beaucoup de temps ainsi que du personnel qualifié. De plus, ces mesures sont réalisées à une faible fréquence, et nécessitent l'ouverture du capot, ce qui libère beaucoup de chaleur et d'émissions chimiques dans l'atmosphère. Pour pallier aux désavantages de la méthode traditionnelle, ce travail présente le développement d'une méthode inverse (capteur virtuel) qui permet d'estimer en continu, et de manière non-instrusive [i.e. non-intrusive], l'épaisseur de gelée à partir de mesures thermiques (température et/ou flux de chaleur) provenant de capteurs situés dans les parois latérales de la cuve d'électrolyse. Le capteur virtuel est composé d'un filtre de Kalman et d'un estimateur récursif aux moindres-carrés, et il est combiné à une procédure d'identification du procédé en modèles d'état. Cette approche est appliquée pour la première fois dans la résolution d'un problème inverse avec changement de phase et en utilisant des capteurs de flux de chaleur. Parce que pour les alumineries, l'intérêt et le réel défi consistent plutôt à contrôler l'épaisseur de gelée, le capteur virtuel est ensuite combiné à un algorithme de contrôle qui régule le système de refroidissement des parois latérales de la cuve d'électrolyse. Ceci permet alors de contrôler à sa guise l'épaisseur de gelée malgré les perturbations thermiques inhérentes au procédé. La stratégie de contrôle retenue consiste en un contrôleur classique proportionnel-intégral-dérivatif, largement utilisé en industrie. Le capteur virtuel et l'algorithme de contrôle sont ensuite validés pour des conditions d'opérations typiques présentes dans les réacteurs métallurgiques à haute température. Les résultats montrent que la différence entre l'épaisseur réelle de gelée et celle prédite avec le capteur virtuel demeure dans tous les cas inférieure à 5%, tandis que la stratégie de contrôle demeure stable pour chacune des conditions d'opération, assure une erreur nulle en régime permanent ainsi qu'aucun dépassement de consigne, et procure une erreur maximale de 1 x 10[indice supérieur -3] m sur le suivi de la consigne de l'épaisseur de gelée. Pour répondre simultanément à la problématique d'estimation et de contrôle de l'épaisseur de gelée, le présent travail nécessite donc la combinaison de plusieurs domaines traditionnellement séparés (modélisation, transfert de chaleur, identification, méthodes inverses, contrôle) et cette procédure est appliquée pour la première fois dans le procédé d'électrolyse d'aluminium.
60

MODÉLISATION SPATIO-TEMPORELLE D'UNE VARIABLE QUANTITATIVE À PARTIR DE DONNÉES MULTI-SOURCES APPLICATION À LA TEMPÉRATURE DE SURFACE DES OCÉANS

Tandeo, Pierre 15 October 2010 (has links) (PDF)
Ce travail de thèse porte sur une variable océanographique importante dans le suivi du climat : la température de surface des océans. Au niveau global, les observations de cette température sont fournies principalement par des radiomètres embarqués sur des satellites. Afin de traiter ce flux important de données, un traitement statistique s'impose dans le but de synthétiser l'information en des cartes globales et quotidiennes de notre variable d'intérêt. Pour ce faire, nous proposons un modèle linéaire de type espace-d'état avec des erreurs Gaussiennes. Nous commençons par présenter ce modèle sur des données issues de séries temporelles ayant un échantillonnage irrégulier. Suit un travail d'inférence avec la mise en place d'un schéma d'estimation des paramètres, basé sur la combinaison d'une méthode des moments et du maximum de vraisemblance au travers de l'algorithme EM et des probabilités de filtrage et lissage de Kalman. Nous appliquons enfin cette méthodologie pour estimer les variances d'erreurs et le paramètre de corrélation temporelle à tout l'océan Atlantique. Nous ajoutons ensuite la composante spatiale et proposons une structure d'ordre deux, séparable, basée sur le produit d'une covariance temporelle et d'une covariance spatiale ani- sotrope. Les paramètres de cette dernière sont estimés sur l'océan Atlantique à partir de techniques géostatistiques usuelles et forment un atlas pertinent pour les océanographes. Fi- nalement, nous montrons que l'apport de l'information spatiale augmente le pouvoir prédictif du modèle.

Page generated in 0.0273 seconds