• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 14
  • 6
  • Tagged with
  • 49
  • 49
  • 37
  • 25
  • 22
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Fouille de données stochastique pour la compréhension des dynamiques temporelles et spatiales des territoires agricoles. Contribution à une agronomie numérique / Stochastic data mining for the understanding of temporal and spatial dynamics in agricultural landscapes. Contribution to a numerical landscape agronomy

Lazrak, El Ghali 19 September 2012 (has links)
Cette thèse vise à développer une méthode générique de modélisation des dynamiques passées et actuelles de l'organisation territoriale de l'activité agricole (OTAA). Nous avons développé une méthode de modélisation stochastique fondée sur des modèles de Markov cachés qui permet de fouiller un corpus de données spatio-temporelles d'occupations du sol (OCS) en vue de le segmenter et de révéler des dynamiques agricoles cachées. Nous avons testé cette méthode sur des corpus d'OCS issus de sources variées et appartenant à des territoires agricoles de dimensions. Cette méthode apporte 3 contributions à la modélisation de l'OTAA : (i) la description de l'OTAA suivant une approche temporo-spatiale qui identifie des régularités temporelles, puis les localise en segmentant le territoire agricole en zones compactes de régularités temporelles similaires; (ii) la fouille des voisinages des successions d'OCS et de leurs dynamiques; (iii) l'articulation des régularités révélées par notre approche de fouille de données à l'échelle régionale avec des règles identifiées par des experts en agronomie et en écologie à des échelles plus locales en vue d'expliquer les régularités et de valider les hypothèses des experts. Nos résultats valident l'hypothèse que l'OTAA se prête bien à la représentation par un champs de Markov de successions. Cette thèse ouvre la voie à une nouvelle approche de modélisation de l'OTAA explorant le couplage entre régularités et règles, et exploitant davantage les outils d'intelligence artificielle. Elle constituerait les prémices de ce qui pourrait devenir une agronomie numérique des territoires / The purpose of this thesis is to develop a generic method for modelling the past and current dynamics of Landscape Organization of Farming Activity (LOFA). We developed a stochastic modelling method based on Hidden Markov Models that allows data mining within a corpus of spatio-temporal land use data to segment the corpus and reveal hidden agricultural dynamics. We applied this method to land use corpora from various sources belonging to two agricultural landscapes of regional dimension. This method provides three contributions to the modeling of LOFA : (i) LOFA description following a temporo-spatial approach that first identifies temporal regularities and then localizes them by segmenting the agricultural landscape into compact areas having similar temporal regularities; (ii) data mining of the neighborhood of land use successions and their dynamics; (iii) combining of the regularities revealed by our data mining approach at the regional level with rules identified by agronomy and ecology experts at more local scales to explain the regularities and validate the experts' hypotheses. Our results validate the hypothesis according to which LOFA fits well a Markov field of land-use successions. This thesis opens the door to a new LOFA modelling approach that investigates the combining of regularities and rules and that further exploits artificial intelligence tools. This work could serve as the beginning of what could become a numerical landscape agronomy
22

Vers un système de capture du mouvement humain en 3D pour un robot mobile évoluant dans un environnement encombré / Toward a motion capture system in 3D for a mobile robot moving in a cluttered environment

Dib, Abdallah 24 May 2016 (has links)
Dans cette thèse nous intéressons à la conception d'un robot mobile capable d’analyser le comportement et le mouvement d’une personne en environnement intérieur et encombré, par exemple le domicile d’une personne âgée. Plus précisément, notre objectif est de doter le robot des capacités de perception visuelle de la posture humaine de façon à mieux maîtriser certaines situations qui nécessitent de comprendre l’intention des personnes avec lesquelles le robot interagit, ou encore de détecter des situations à risques comme les chutes ou encore d’analyser les capacités motrices des personnes dont il a la garde. Le suivi de la posture dans un environnement dynamique et encombré relève plusieurs défis notamment l'apprentissage en continue du fond de la scène et l'extraction la silhouette qui peut être partiellement observable lorsque la personne est dans des endroits occultés. Ces difficultés rendent le suivi de la posture une tâche difficile. La majorité des méthodes existantes, supposent que la scène est statique et la personne est toujours visible en entier. Ces approches ne sont pas adaptées pour fonctionner dans des conditions réelles. Nous proposons, dans cette thèse, un nouveau système de suivi capable de suivre la posture de la personne dans ces conditions réelles. Notre approche utilise une grille d'occupation avec un modèle de Markov caché pour apprendre en continu l'évolution de la scène et d'extraire la silhouette, ensuite un algorithme de filtrage particulaire hiérarchique est utilisé pour reconstruire la posture. Nous proposons aussi un nouvel algorithme de gestion d'occlusion capable d'identifier et d'exclure les parties du corps cachées du processus de l'estimation de la pose. Finalement, nous avons proposé une base de données contenant des images RGB-D avec la vérité-terrain dans le but d'établir une nouvelle référence pour l'évaluation des systèmes de capture de mouvement dans un environnement réel avec occlusions. La vérité-terrain est obtenue à partir d'un système de capture de mouvement à base de marqueur de haute précision avec huit caméras infrarouges. L'ensemble des données est disponible en ligne. La deuxième contribution de cette thèse, est le développement d'une méthode de localisation visuelle à partir d'une caméra du type RGB-D montée sur un robot qui se déplace dans un environnement dynamique. En effet, le système de capture de mouvement que nous avons développé doit équiper un robot se déplaçant dans une scène. Ainsi, l'estimation de mouvement du robot est importante pour garantir une extraction de silhouette correcte pour le suivi. La difficulté majeure de la localisation d'une caméra dans un environnement dynamique, est que les objets mobiles de la scène induisent un mouvement supplémentaire qui génère des pixels aberrants. Ces pixels doivent être exclus du processus de l'estimation du mouvement de la caméra. Nous proposons ainsi une extension de la méthode de localisation dense basée sur le flux optique pour isoler les pixels aberrants en utilisant l'algorithme de RANSAC. / In this thesis we are interested in designing a mobile robot able to analyze the behavior and movement of a a person in indoor and cluttered environment. Our goal is to equip the robot by visual perception capabilities of the human posture to better analyze situations that require understanding of person with which the robot interacts, or detect risk situations such as falls or analyze motor skills of the person. Motion capture in a dynamic and crowded environment raises multiple challenges such as learning the background of the environment and extracting the silhouette that can be partially observable when the person is in hidden places. These difficulties make motion capture difficult. Most of existing methods assume that the scene is static and the person is always fully visible by the camera. These approaches are not able to work in such realistic conditions. In this thesis, We propose a new motion capture system capable of tracking a person in realistic world conditions. Our approach uses a 3D occupancy grid with a hidden Markov model to continuously learn the changing background of the scene and to extract silhouette of the person, then a hierarchical particle filtering algorithm is used to reconstruct the posture. We propose a novel occlusion management algorithm able to identify and discards hidden body parts of the person from process of the pose estimation. We also proposed a new database containing RGBD images with ground truth data in order to establish a new benchmark for the assessment of motion capture systems in a real environment with occlusions. The ground truth is obtained from a motion capture system based on high-precision marker with eight infrared cameras. All data is available online. The second contribution of this thesis is the development of a new visual odometry method to localize an RGB-D camera mounted on a robot moving in a dynamic environment. The major difficulty of the localization in a dynamic environment, is that mobile objects in the scene induce additional movement that generates outliers pixels. These pixels should be excluded from the camera motion estimation process in order to produce accurate and precise localization. We thus propose an extension of the dense localization method based on the optical flow method to remove outliers pixels using the RANSAC algorithm.
23

Analyse conjointe de traces oculométriques et d'EEG à l'aide de modèles de Markov cachés couplés / Joint analysis of eye movements and EEGs using coupled hidden Markov

Olivier, Brice 26 June 2019 (has links)
Cette thèse consiste à analyser conjointement des signaux de mouvement des yeux et d’électroencéphalogrammes (EEG) multicanaux acquis simultanément avec des participants effectuant une tâche de lecture de recueil d'informations afin de prendre une décision binaire - le texte est-il lié à un sujet ou non? La recherche d'informations textuelles n'est pas un processus homogène dans le temps - ni d'un point de vue cognitif, ni en termes de mouvement des yeux. Au contraire, ce processus implique plusieurs étapes ou phases, telles que la lecture normale, le balayage, la lecture attentive - en termes d'oculométrie - et la création et le rejet d'hypothèses, la confirmation et la décision - en termes cognitifs.Dans une première contribution, nous discutons d'une méthode d'analyse basée sur des chaînes semi-markoviennes cachées sur les signaux de mouvement des yeux afin de mettre en évidence quatre phases interprétables en termes de stratégie d'acquisition d'informations: lecture normale, lecture rapide, lecture attentive et prise de décision.Dans une deuxième contribution, nous lions ces phases aux changements caractéristiques des signaux EEG et des informations textuelles. En utilisant une représentation en ondelettes des EEG, cette analyse révèle des changements de variance et de corrélation des coefficients inter-canaux, en fonction des phases et de la largeur de bande. En utilisant des méthodes de plongement des mots, nous relions l’évolution de la similarité sémantique au sujet tout au long du texte avec les changements de stratégie.Dans une troisième contribution, nous présentons un nouveau modèle dans lequel les EEG sont directement intégrés en tant que variables de sortie afin de réduire l’incertitude des états. Cette nouvelle approche prend également en compte les aspects asynchrones et hétérogènes des données. / This PhD thesis consists in jointly analyzing eye-tracking signals and multi-channel electroencephalograms (EEGs) acquired concomitantly on participants doing an information collection reading task in order to take a binary decision - is the text related to some topic or not ? Textual information search is not a homogeneous process in time - neither on a cognitive point of view, nor in terms of eye-movement. On the contrary, this process involves several steps or phases, such as normal reading, scanning, careful reading - in terms of oculometry - and creation and rejection of hypotheses, confirmation and decision - in cognitive terms.In a first contribution, we discuss an analysis method based on hidden semi-Markov chains on the eye-tracking signals in order to highlight four interpretable phases in terms of information acquisition strategy: normal reading, fast reading, careful reading, and decision making.In a second contribution, we link these phases with characteristic changes of both EEGs signals and textual information. By using a wavelet representation of EEGs, this analysis reveals variance and correlation changes of the inter-channels coefficients, according to the phases and the bandwidth. And by using word embedding methods, we link the evolution of semantic similarity to the topic throughout the text with strategy changes.In a third contribution, we present a new model where EEGs are directly integrated as output variables in order to reduce the state uncertainty. This novel approach also takes into consideration the asynchronous and heterogeneous aspects of the data.
24

Estimation conjointe d'information de contenu musical d'un signal audio

Papadopoulos, Hélène 02 July 2010 (has links) (PDF)
Depuis quelques années, nous assistons à l'augmentation croissante de gigantesques collections de musique en ligne. Ce phénomène a attiré l'attention de nombreux chercheurs. En effet, le besoin urgent de développer des outils et des méthodes qui permettent d'interagir avec ces énormes bibliothèques de musique numérique pose des défis scientifiques complexes. Le domaine de la recherche d'information musicale (Music Information Retrieval, MIR) est ainsi devenu très actif depuis une dizaine d'années. Ce domaine général inclut celui de l'indexation musicale dans lequel s'inscrit cette thèse qui a pour but d'aider au stockage, à la diffusion et la consultation des gigantesques collections de musique en ligne. Ce domaine ouvre de nombreuses perspectives pour l'industrie et la recherche liées aux activités multimédia. Dans cette thèse, nous nous intéressons au problème de l'extraction automatique d'informations de contenu d'un signal audio de musique. La plupart des travaux existants abordent ce problème en considérant les attributs musicaux de manière indépendante les uns vis-à-vis des autres. Cependant les morceaux de musique sont extrèmement structurés du point de vue de l'harmonie et du rythme et leur estimation devrait se faire en tenant compte du contexte musical, comme le fait un musicien lorsqu'il analyse un morceau de musique. Nous nous concentrons sur trois descripteurs musicaux liés aux structures harmoniques, métriques et tonales d'un morceau de musique. Plus précisément, nous cherchons à en estimer la progression des accords, les premiers temps et la tonalité. L'originalité de notre travail consiste à construire un modèle qui permet d'estimer de manière conjointe ces trois attributs musicaux. Notre objectif est de montrer que l'estimation des divers descripteurs musicaux est meilleure si on tient compte de leurs dépendances mutuelles que si on les estime de manière indépendante. Nous proposons au cours de ce travail un ensemble de protocoles de comparaison, de métriques de performances et de nouvelles bases de données de test afin de pouvoir évaluer les différentes méthodes étudiées. Afin de valider notre approche, nous présentons également les résultats de nos participations à des campagnes d'évaluation internationales. Dans un premier temps, nous examinons plusieurs représentations typiques du signal audio afin de choisir celle qui est la plus appropriée à l'analyse du contenu harmonique d'un morceau de musique. Nous explorons plusieurs méthodes qui permettent d'extraire un chromagram du signal et les comparons à travers un protocole d'évaluation original et une nouvelle base de données que nous avons annotée. Nous détaillons et expliquons les raisons qui nous ont amenés à choisir la représentation que nous utilisons dans notre modèle. Dans notre modèle, les accords sont considérés comme un attribut central autour duquel les autres descripteurs musicaux s'organisent. Nous étudions le problème de l'estimation automatique de la suite des accords d'un morceau de musique audio en utilisant les _chromas_ comme observations du signal. Nous proposons plusieurs méthodes basées sur les modèles de Markov cachés (hidden Markov models, HMM), qui permettent de prendre en compte des éléments de la théorie musicale, le résultat d'expériences cognitives sur la perception de la tonalité et l'effet des harmoniques des notes de musique. Les différentes méthodes sont évaluées et comparées pour la première fois sur une grande base de données composée de morceaux de musique populaire. Nous présentons ensuite une nouvelle approche qui permet d'estimer de manière simultanée la progression des accords et les premiers temps d'un signal audio de musique. Pour cela, nous proposons une topologie spécifique de HMM qui nous permet de modéliser la dépendance des accords par rapport à la structure métrique d'un morceau. Une importante contribution est que notre modèle peut être utilisé pour des structures métriques complexes présentant par exemple l'insertion ou l'omission d'un temps, ou des changements dans la signature rythmique. Le modèle proposé est évalué sur un grand nombre de morceaux de musique populaire qui présentent des structures métriques variées. Nous comparons les résultats d'un modèle semi-automatique, dans lequel nous utilisons les positions des temps annotées manuellement, avec ceux obtenus par un modèle entièrement automatique où la position des temps est estimée directement à partir du signal. Enfin, nous nous penchons sur la question de la tonalité. Nous commençons par nous intéresser au problème de l'estimation de la tonalité principale d'un morceau de musique. Nous étendons le modèle présenté ci-dessus à un modèle qui permet d'estimer simultanément la progression des accords, les premiers temps et la tonalité principale. Les performances du modèle sont évaluées à travers des exemples choisis dans la musique populaire. Nous nous tournons ensuite vers le problème plus complexe de l'estimation de la tonalité locale d'un morceau de musique. Nous proposons d'aborder ce problème en combinant et en étendant plusieurs approches existantes pour l'estimation de la tonalité principale. La spécificité de notre approche est que nous considérons la dépendance de la tonalité locale par rapport aux structures harmonique et métrique. Nous évaluons les résultats de notre modèle sur une base de données originale composée de morceaux de musique classique que nous avons annotés.
25

Observations bruitées d'une diffusion. Estimation, filtrage, applications.

Favetto, Benjamin 30 September 2010 (has links) (PDF)
Les modèles aléatoires basés sur l'observation bruitée de diffusions discrétisées sont couramment utilisés en biologie ou en finance pour rendre compte de la présence d'erreur (ou bruit) entâchant la mesure d'un phénomène dont le comportement est dirigé par une équation différentielle stochastique. Deux questions statistiques sont liées à ces modèles : l'estimation d'un paramètre theta déterminant le comportement de la diffusion cachée, et le calcul du filtre optimal, ou d'une approximation. La première partie de cette thèse porte sur l'étude d'un modèle d'Ornstein-Uhlenbeck bidimensionnel partiellement observé et bruité, en lien avec l'estimation de paramètres de microvascularisation pour un modèle pharmacocinétique stochastique. Plusieurs résultats sur données médicales sont présentés. Dans la seconde partie, des estimateurs pour les paramètres de la diffusion cachée, sont obtenus dans un contexte de données haute fréquence, comme minima de fonctions de contraste ou comme zéros de fonctions d'estimation basées sur des moyennes locales d'observations bruitées. On montre en particulier la consistence et la normalité asymptotique de ces estimateurs. Enfin, la troisième partie étudie la tension de la suite des variances asymptotiques obtenues dans le théorème central limite associé à l'approximation particulaire du filtre et de la prédiction dans un modèle de Markov caché.
26

Modèles markoviens et extensions pour la classification de données complexes

Blanchet, Juliette 10 October 2007 (has links) (PDF)
Nous abordons le problème de la classification d'individus à partir d'observations dites " complexes " en ce sens qu'elles ne vérifient pas certaines des hypothèses simplificatrices classiquement adoptées. Dans ce travail, les individus à classer sont supposés dépendants les uns des autres. L'approche adoptée est une approche probabiliste fondée sur une modélisation markovienne. Trois problèmes de classification sont abordés.<br />Le premier concerne la classification de données lorsque celles-ci sont de grande dimension. Pour un tel problème, nous adoptons un modèle markovien gaussien non diagonal tirant partie du fait que la plupart des observations de grande dimension vivent en réalité dans des sous-espaces propres à chacune des classes et dont les dimensions intrinsèques sont faibles. De ce fait, le nombre de paramètres libres du modèle reste raisonnable.<br />Le deuxième point abordé s'attache à relâcher l'hypothèse simplificatrice de bruit indépendant unimodal, et en particulier gaussien. Nous considérons pour cela le modèle récent de champ de Markov triplet et proposons une nouvelle famille de Markov triplet adaptée au cadre d'une classification supervisée. Nous illustrons la flexibilité et les performances de nos modèles sur une application à la reconnaissance d'images réelles de textures.<br />Enfin, nous nous intéressons au problème de la classification d'observations dites incomplètes, c'est-à-dire pour lesquelles certaines valeurs sont manquantes. Nous développons pour cela une méthode markovienne ne nécessitant pas le remplacement préalable des observations manquantes. Nous présentons une application de cette méthodologie à un problème réel de classification de gènes.
27

Modèles d'encodage parcimonieux de l'activité cérébrale mesurée par IRM fonctionnelle

Bakhous, Christine 10 December 2013 (has links) (PDF)
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une technique non invasive permettant l'étude de l'activité cérébrale au travers des changements hémodynamiques associés. Récemment, une technique de détection-estimation conjointe (DEC) a été développée permettant d'alterner (1) la détection de l'activité cérébrale induite par une stimulation ainsi que (2) l'estimation de la fonction de réponse hémodynamique caractérisant la dynamique vasculaire; deux problèmes qui sont généralement traités indépendamment. Cette approche considère une parcellisation a priori du cerveau en zones fonctionnellement homogènes et alterne (1) et (2) sur chacune d'entre elles séparément. De manière standard, l'analyse DEC suppose que le cerveau entier peut être activé par tous les types de stimuli (visuel, auditif, etc.). Cependant la spécialisation fonctionnelle des régions cérébrales montre que l'activité d'une région n'est due qu'à certains types de stimuli. La prise en compte de stimuli non pertinents dans l'analyse, peut dégrader les résultats. La sous-famille des types de stimuli pertinents n'étant pas la même à travers le cerveau une procédure de sélection de modèles serait très coûteuse en temps de calcul. De plus, une telle sélection a priori n'est pas toujours possible surtout dans les cas pathologiques. Ce travail de thèse propose une extension de l'approche DEC permettant la sélection automatique des conditions (types de stimuli) pertinentes selon l'activité cérébrale qu'elles suscitent, cela simultanément à l'analyse et adaptativement à travers les régions cérébrales. Des exemples d'analyses sur des jeux de données simulés et réels, illustrent la capacité de l'approche DEC parcimonieuse proposée à sélectionner les conditions pertinentes ainsi que son intérêt par rapport à l'approche DEC standard.
28

Modélisation spatio-temporelle à base de modèles de Markov cachés pour la prévision des changements en imagerie satellitaire : cas de la végétation et de l'urbain / Spatio-temporal modelling based on hidden Markov models for predicting changes in satellite imagery : the case of vegetation and urban areas

Essid, Houcine 13 December 2012 (has links)
Les séries temporelles d'images satellitaires sont une source d'information importante pour le suivi des changements spatio-temporels des surfaces terrestres. En outre, le nombre d’images est en augmentation constante. Pour les exploiter pleinement, des outils dédiés au traitement automatique du contenu informationnel sont développés. Néanmoins ces techniques ne satisfont pas complètement les géographes qui exploitent pourtant, de plus en plus couramment, les données extraites des images dans leurs études afin de prédire le futur. Nous proposons dans cette thèse, une méthodologie générique à base d’un modèle de Markov caché pour l’analyse et la prédiction des changements sur une séquence d’images satellitaires. Cette méthodologie présente deux modules : un module de traitement intégrant les descripteurs et les algorithmes classiquement utilisés en interprétation d'images, et un module d’apprentissage basé sur les modèles de Markov cachés. La performance de notre approche est évaluée par des essais d’interprétations des évènements spatio-temporels effectués sur plusieurs sites d’études. Les résultats obtenus permettront d’analyser et de prédire les changements issus des différentes séries temporelles d’images SPOT et LANDSAT pour l’observation des évènements spatio-temporels telle que l'expansion urbaine et la déforestation. / The time series of satellite images are an important source of information for monitoring spatiotemporal changes of land surfaces. Furthermore, the number of satellite images is increasing constantly, for taking full advantage, tools dedicated to the automatic processing of information content is developed. However these techniques do not completely satisfy the geographers who exploit more currently, the data extracted from the images in their studies to predict the future. In this research we propose a generic methodology based on a hidden Markov model for analyzing and predicting changes in a sequence of satellite images. The methodology that is proposed presents two modules : a processing module which incorporating descriptors and algorithms conventionally used in image interpretation and a learning module based on hidden Markov models. The performance of the approach is evaluated by trials of interpretation of spatiotemporal events conducted in several study sites. Results obtained allow us to analyze and to predict changes from various time series of SPOT and LANDSAT images for observation of spatiotemporal events such as urban development and deforestation.
29

Early detection of cardiac arrhythmia based on Bayesian methods from ECG data / La détection précoce des troubles du rythme cardiaque sur la base de méthodes bayésiens à partir des données ECG

Montazeri Ghahjaverestan, Nasim 10 July 2015 (has links)
L'apnée est une complication fréquente chez les nouveaux-nés prématurés. L'un des problèmes les plus fréquents est l'épisode d'apnée bradycardie dont la répétition influence de manière négative le développement de l'enfant. C'est pourquoi les enfants prématurés sont surveillés en continu par un système de monitoring. Depuis la mise en place de ce système, l'espérance de vie et le pronostic de vie des prématurés ont été considérablement améliorés et ainsi la mortalité réduite. En effet, les avancées technologiques en électronique, informatique et télécommunications ont conduit à l'élaboration de systèmes multivoies de monitoring néonatal de plus en plus performants. L'un des principaux signaux exploités dans ces systèmes est l'électrocardiogramme (ECG). Toutefois, même si l'analyse de l'ECG a évolué au fil des années, l'ensemble des informations qu'il fournit n'est pas encore totalement exploité dans les processus de décision, notamment en monitoring en Unité de Soins Intensifs en Néonatalogie (USIN). L'objectif principal de cette thèse est d'améliorer la prise en compte des dynamiques multi-dimensionnelles en proposant de nouvelles approches basées sur un formalisme bayésien, pour la détection précoce des apnées bradycardies chez le nouveau-né prématuré. Aussi, dans cette thèse, nous proposons deux approches bayésiennes, basées sur les caractéristiques de signaux biologiques en vue de la détection précoce de l'apnée bradycardie des nouveaux-nés prématurés. Tout d'abord avec l'approche de Markov caché, nous proposons deux extensions du Modèle de Markov Caché (MMC) classique. La première, qui s'appelle Modèle de Markov Caché Couplé (MMCC), créé une chaîne de Markov à chaque dimension de l'observation et établit un couplage entre les chaînes. La seconde, qui s'appelle Modèle Semi-Markov Caché Couplé (MSMCC), combine les caractéristiques du modèle de MSMC avec le mécanisme de couplage entre canaux. Pour les deux nouveaux modèles (MMCC et MSMCC), les algorithmes récursifs basées sur la version classique de Forward-Backward sont introduits pour résoudre les problèmes d'apprentissage et d'inférence dans le cas couplé. En plus des modèles de Markov, nous proposons deux approches passées sur les filtres de Kalman pour la détection d'apnée. La première utilise les modifications de la morphologie du complexe QRS et est inspirée du modèle générateur de McSharry, déjà utilisé en couplant avec un filtre de Kalman étendu dans le but de détecter des changements subtils de l'ECG, échantillon par échantillon. La deuxième utilise deux modèles AR (l'un pour le processus normal et l'autre pour le processus de bradycardie). Les modèles AR sont appliqués sur la série RR, alors que le filtre de Kalman suit l'évolution des paramètres du modèle AR et fournit une mesure de probabilité des deux processus concurrents. / Apnea-bradycardia episodes (breathing pauses associated with a significant fall in heart rate) are the most common disease in preterm infants. Consequences associated with apnea-bradycardia episodes involve a compromise in oxygenation and tissue perfusion, a poor neuromotor prognosis at childhood and a predisposing factor to sudden-death syndrome in preterm newborns. It is therefore important that these episodes are recognized (early detected or predicted if possible), to start an appropriate treatment and to prevent the associated risks. In this thesis, we propose two Bayesian Network (BN) approaches (Markovian and Switching Kalman Filter) for the early detection of apnea bradycardia events on preterm infants, using different features extracted from electrocardiographic (ECG) recordings. Concerning the Markovian approach, we propose new frameworks for two generalizations of the classical Hidden Markov Model (HMM). The first framework, Coupled Hidden Markov Model (CHMM), is accomplished by assigning a Markov chain (channel) to each dimension of observation and establishing a coupling among channels. The second framework, Coupled Hidden semi Markov Model (CHMM), combines the characteristics of Hidden semi Markov Model (HSMM) with the above-mentioned coupling concept. For each framework, we present appropriate recursions in order to use modified Forward-Backward (FB) algorithms to solve the learning and inference problems. The proposed learning algorithm is based on Maximum Likelihood (ML) criteria. Moreover, we propose two new switching Kalman Filter (SKF) based algorithms, called wave-based and R-based, to present an index for bradycardia detection from ECG. The wave-based algorithm is established based on McSarry's dynamical model for ECG beat generation which is used in an Extended Kalman filter algorithm in order to detect subtle changes in ECG sample by sample. We also propose a new SKF algorithm to model normal beats and those with bradycardia by two different AR processes.
30

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles / Smoothing and estimation methods in hidden variable models through sequential Monte-Carlo methods

Dubarry, Cyrille 09 October 2012 (has links)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles / Hidden Markov chain models or more generally Feynman-Kac models are now widely used. They allow the modelling of a variety of time series (in finance, biology, signal processing, ...) Their increasing complexity gave birth to approximations using Monte-Carlo methods, among which Markov Chain Monte-Carlo (MCMC) and Sequential Monte-Carlo (SMC). SMC methods applied to particle filtering and smoothing are dealt with in this thesis. These methods consist in approximating the law of interest through a particle population sequentially defined. Different algorithms have already been developed and studied in the literature. We make some of these results more precise in the particular of the Forward Filtering Backward Smoothing and Forward Filtering Backward Simulation by showing exponential deviation inequalities and by giving non-asymptotic upper bounds to the mean error. We also introduce a new smoothing algorithm improving a particle population through MCMC iterations and allowing to estimate the estimator variance without further simulation. Part of the work presented in this thesis is devoted to the parallel computing of particle estimators. We study different interaction schemes between several particle populations. Finally, we also illustrate the use of hidden Markov chains in the modelling of financial data through an algorithm using Expectation-Maximization to calibrate the exponential Ornstein-Uhlenbeck multiscale stochastic volatility model

Page generated in 0.0392 seconds