• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 2
  • Tagged with
  • 9
  • 9
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles markoviens et extensions pour la classification de données complexes

Blanchet, Juliette 10 October 2007 (has links) (PDF)
Nous abordons le problème de la classification d'individus à partir d'observations dites " complexes " en ce sens qu'elles ne vérifient pas certaines des hypothèses simplificatrices classiquement adoptées. Dans ce travail, les individus à classer sont supposés dépendants les uns des autres. L'approche adoptée est une approche probabiliste fondée sur une modélisation markovienne. Trois problèmes de classification sont abordés.<br />Le premier concerne la classification de données lorsque celles-ci sont de grande dimension. Pour un tel problème, nous adoptons un modèle markovien gaussien non diagonal tirant partie du fait que la plupart des observations de grande dimension vivent en réalité dans des sous-espaces propres à chacune des classes et dont les dimensions intrinsèques sont faibles. De ce fait, le nombre de paramètres libres du modèle reste raisonnable.<br />Le deuxième point abordé s'attache à relâcher l'hypothèse simplificatrice de bruit indépendant unimodal, et en particulier gaussien. Nous considérons pour cela le modèle récent de champ de Markov triplet et proposons une nouvelle famille de Markov triplet adaptée au cadre d'une classification supervisée. Nous illustrons la flexibilité et les performances de nos modèles sur une application à la reconnaissance d'images réelles de textures.<br />Enfin, nous nous intéressons au problème de la classification d'observations dites incomplètes, c'est-à-dire pour lesquelles certaines valeurs sont manquantes. Nous développons pour cela une méthode markovienne ne nécessitant pas le remplacement préalable des observations manquantes. Nous présentons une application de cette méthodologie à un problème réel de classification de gènes.
2

Modèles d'encodage parcimonieux de l'activité cérébrale mesurée par IRM fonctionnelle

Bakhous, Christine 10 December 2013 (has links) (PDF)
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une technique non invasive permettant l'étude de l'activité cérébrale au travers des changements hémodynamiques associés. Récemment, une technique de détection-estimation conjointe (DEC) a été développée permettant d'alterner (1) la détection de l'activité cérébrale induite par une stimulation ainsi que (2) l'estimation de la fonction de réponse hémodynamique caractérisant la dynamique vasculaire; deux problèmes qui sont généralement traités indépendamment. Cette approche considère une parcellisation a priori du cerveau en zones fonctionnellement homogènes et alterne (1) et (2) sur chacune d'entre elles séparément. De manière standard, l'analyse DEC suppose que le cerveau entier peut être activé par tous les types de stimuli (visuel, auditif, etc.). Cependant la spécialisation fonctionnelle des régions cérébrales montre que l'activité d'une région n'est due qu'à certains types de stimuli. La prise en compte de stimuli non pertinents dans l'analyse, peut dégrader les résultats. La sous-famille des types de stimuli pertinents n'étant pas la même à travers le cerveau une procédure de sélection de modèles serait très coûteuse en temps de calcul. De plus, une telle sélection a priori n'est pas toujours possible surtout dans les cas pathologiques. Ce travail de thèse propose une extension de l'approche DEC permettant la sélection automatique des conditions (types de stimuli) pertinentes selon l'activité cérébrale qu'elles suscitent, cela simultanément à l'analyse et adaptativement à travers les régions cérébrales. Des exemples d'analyses sur des jeux de données simulés et réels, illustrent la capacité de l'approche DEC parcimonieuse proposée à sélectionner les conditions pertinentes ainsi que son intérêt par rapport à l'approche DEC standard.
3

Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climat / A non-stationary and regional statistical model for the precipitation extremes simulated by a climate model

Jalbert, Jonathan 30 October 2015 (has links)
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu'elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l'occurrence et l'intensité de ces dernières risquent fort probablement de s'accroître. Par conséquent, le risque d'inondation pourrait vraisemblablement s'intensifier. Les impacts de l'évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d'inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infra-journalières et elles s'étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d'estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l'élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d'estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l'information contenue dans les séries journalières continues pour améliorer l'estimation des quantiles non stationnaires et ce, sans effectuer d'hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l'information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l'occurrence des champs de Markov gaussiens. L'application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d'estimation des quantiles en Amérique du Nord. / Precipitation extremes plays a major role in flooding events and their occurrence as well as their intensity are expected to increase. It is therefore important to anticipate the impacts of such an increase to ensure the public safety and the infrastructure sustainability. Since climate models are the only tools for providing quantitative projections of precipitation, flood risk management for the future climate may be based on their simulations. Most of the time, the Extreme value theory is used to estimate the extreme precipitations from a climate simulation, such as the T-year return levels. The variance of the estimations are generally large notably because the sample size of the maxima series are short. Such variance could have a significant impact for flood risk management. It is therefore relevant to reduce the estimation variance of simulated return levels. For this purpose, the aim of this paper is to develop a non-stationary and regional statistical model especially suited for climate models that estimates precipitation extremes. At first, the non-stationarity is removed by a preprocessing approach. Thereafter, the spatial correlation is modeled by a Bayesian hierarchical model including an intrinsic Gaussian Markov random field. The model has been used to estimate the 100-year return levels over North America from a simulation by the Canadian Regional Climate Model. The results show a large estimation variance reduction when using the regional model.
4

Modèles d'encodage parcimonieux de l'activité cérébrale mesurée par IRM fonctionnelle / Parsimonious encoding models for brain activity measured by functional MRI

Bakhous, Christine 10 December 2013 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une technique non invasive permettant l'étude de l'activité cérébrale au travers des changements hémodynamiques associés. Récemment, une technique de détection-estimation conjointe (DEC) a été développée permettant d'alterner (1) la détection de l'activité cérébrale induite par une stimulation ainsi que (2) l'estimation de la fonction de réponse hémodynamique caractérisant la dynamique vasculaire; deux problèmes qui sont généralement traités indépendamment. Cette approche considère une parcellisation a priori du cerveau en zones fonctionnellement homogènes et alterne (1) et (2) sur chacune d'entre elles séparément. De manière standard, l'analyse DEC suppose que le cerveau entier peut être activé par tous les types de stimuli (visuel, auditif, etc.). Cependant la spécialisation fonctionnelle des régions cérébrales montre que l'activité d'une région n'est due qu'à certains types de stimuli. La prise en compte de stimuli non pertinents dans l'analyse, peut dégrader les résultats. La sous-famille des types de stimuli pertinents n'étant pas la même à travers le cerveau une procédure de sélection de modèles serait très coûteuse en temps de calcul. De plus, une telle sélection a priori n'est pas toujours possible surtout dans les cas pathologiques. Ce travail de thèse propose une extension de l'approche DEC permettant la sélection automatique des conditions (types de stimuli) pertinentes selon l'activité cérébrale qu'elles suscitent, cela simultanément à l'analyse et adaptativement à travers les régions cérébrales. Des exemples d'analyses sur des jeux de données simulés et réels, illustrent la capacité de l'approche DEC parcimonieuse proposée à sélectionner les conditions pertinentes ainsi que son intérêt par rapport à l'approche DEC standard. / Functional magnetic resonance imaging (fMRI) is a noninvasive technique allowing the study of brain activity via the measurement of hemodynamic changes. Recently, a joint detection-estimation (JDE) framework was developed and relies on both (1) the brain activity detection and (2) the hemodynamic response function estimation, two steps that are generally addressed in a separate way. The JDE approach is a parcel-based model that alternates (1) and (2) on each parcel successively. The JDE analysis assumes that all delivered stimuli (e.g. visual, auditory, etc.) possibly generate a response everywhere in the brain although activation is likely to be induced by only some of them in specific brain areas. Inclusion of irrelevant events may degrade the results. Since the relevant conditions or stimulus types can change between different brain areas, a model selection procedure will be computationally expensive. Furthermore, criteria are not always available to select the relevant conditions prior to activation detection, especially in pathological cases. The goal of this work is to develop a JDE extension allowing an automatic selection of the relevant conditions according to the brain activity they elicit. This condition selection is done simultaneously to the analysis and adaptively through the different brain areas. Analysis on simulated and real datasets illustrate the ability of our model to select the relevant conditions and its interest compare to the standard JDE analysis.
5

Classification supervisée d'images d'observation de la Terre à haute résolution par utilisation de méthodes markoviennes

Voisin, Aurélie 17 October 2012 (has links) (PDF)
La classification d'images de télédétection incluant des zones urbaines permet d'établir des cartes d'utilisation du sol et/ou de couverture du sol, ou de zones endommagées par des phénomènes naturels (tremblements de terre, inondations...). Les méthodes de classification développées au cours de cette thèse sont des méthodes supervisées fondées sur des modèles markoviens. Une première approche a porté sur la classification d'images d'amplitudes issues de capteurs RSO (radar à synthèse d'ouverture) à simple polarisation et mono-résolution. La méthode choisie consiste à modéliser les statistiques de chacune des classes par des modèles de mélanges finis, puis à intégrer cette modélisation dans un champ de Markov. Afin d'améliorer la classification au niveau des zones urbaines, non seulement affectées par le bruit de chatoiement, mais aussi par l'hétérogénéité des matériaux qui s'y trouvent, nous avons extrait de l'image RSO un attribut de texture qui met en valeur les zones urbaines (typiquement, variance d'Haralick). Les statistiques de cette information texturelle sont combinées à celles de l'image initiale via des copules bivariées. Par la suite, nous avons cherché à améliorer la méthode de classification par l'utilisation d'un modèle de Markov hiérarchique sur quad-arbre. Nous avons intégré, dans ce modèle, une mise à jour de l'a priori qui permet, en pratique, d'aboutir à des résultats moins sensibles bruit de chatoiement. Les données mono-résolution sont décomposées hiérarchiquement en ayant recours à des ondelettes. Le principal avantage d'un tel modèle est de pouvoir utiliser des images multi-résolution et/ou multi-capteur et de pouvoir les intégrer directement dans l'arbre. En particulier, nous avons travaillé sur des données optiques (type GeoEye) et RSO (type COSMO-SkyMed) recalées. Les statistiques à chacun des niveaux de l'arbre sont modélisées par des mélanges finis de lois normales pour les images optiques et de lois gamma généralisées pour les images RSO. Ces statistiques sont ensuite combinées via des copules multivariées et intégrées dans le modèle hiérarchique. Les méthodes ont été testées et validées sur divers jeux de données mono-/multi-résolution RSO et/ou optiques.
6

Quelques contributions à la modélisation et l'analyse statistique de processus spatiaux

Hardouin, Cécile 11 July 2011 (has links) (PDF)
Le thème de cette habilitation est centré sur la modélisation et l'étude statistique de processus spatiaux ou spatio-temporels. Le premier chapitre synthétise les travaux sur une modélisation spatio-temporelle générale, consistant en des chaînes de Markov (temporelles) de champs de Markov (spatiaux), et à une généralisation des auto-modèles de Besag qui constituent une classe de champs markoviens particulièrement utilisés en statistique spatiale. Ces modèles généraux permettent une modélisation non hiérarchique pour des données spatiales ou spatio-temporelles de nature mixte, composées par exemple d'une masse en zéro accompagnée de valeurs réelles. Nous étudions la structure de ces modèles et leurs propriétés statistiques, comme l'ergodicité ou l'estimation paramétrique. Des applications sur des données réelles en météorologie ou en images illustrent les résultats. Le second chapitre concerne la modélisation de mécanismes conduisant à l'adoption de certains standards technologiques, dans un cadre de l'économie spatiale. Le but est de décrire la diffusion d'un processus technologique et de proposer des tests de coordination spatiale lorsque la règle de choix est locale et peut être dictée par les choix précédents des voisins. Le chapitre 3 présente quelques résultats récents sur le calcul de la constante de normalisation pour un processus de Gibbs via un algorithme récursif sur les lois conditionnelles. Enfin, le chapitre 4 reprend des travaux plus anciens en statistique paramétrique sur les méthodes d'estimation par minimum de contraste en situation non ergodique, et les méthodes de régression temporelle avec résidu à longue mémoire.
7

Segmentation des tissus et structures sur les IRM cérébrales : agents markoviens locaux coopératifs et formulation bayésienne.

Scherrer, Benoît 12 December 2008 (has links) (PDF)
La segmentation des IRM cérébrales est une étape cruciale pour de nombreuses applications, tant dans le domaine clinique que pour les neurosciences. Elle est rendu difficile par les artéfacts inhérents à ce type d'image, leur faible contraste et les importantes variations individuelles qui limitent l'introduction de connaissances a priori. Dans cette thèse nous proposons une nouvelle approche de segmentation des IRM cérébrales dont l'originalité réside (1) dans le couplage de la segmentation des tissus, de la segmentation des structures et de l'intégration de connaissances anatomiques et (2) la volonté de prendre en compte la localité de l'information.<br />La localité est modélisée via un cadre multi-agents : des agents sont distribués dans le volume et réalisent une segmentation markovienne locale. Dans une première approche (LOCUS, Local Cooperative Unified Segmentation) nous proposons des mécanismes intuitifs de coopération et de couplage pour assurer la cohérence des modèles locaux. Les structures sont segmentées via l'intégration de contraintes de localisation floue décrites par des relations spatiales entre structures. Dans une seconde approche (LOCUS-B, LOCUS in a Bayesian framework) nous considérons l'introduction d'un atlas statistique des structures. Nous reformulons le problème dans un cadre bayésien nous permettant une formalisation statistique du couplage et de la coopération. Segmentation des tissus, régularisation des modèles locaux, segmentation des structures et recalage local affine de l'atlas sont alors réalisés de manière couplée dans un cadre EM, chacune des étapes s'améliorant mutuellement. <br />L'évaluation sur des images simulées et réelles montrent les performances de l'approche et en particulier sa robustesse aux artéfacts pour de faibles temps de calculs. Les modèles markoviens locaux distribués et coopératifs apparaissent alors comme une approche prometteuse pour la segmentation d'images médicales.
8

Contributions au développement d'outils computationnels de design de protéine : méthodes et algorithmes de comptage avec garantie / Contribution to protein design tools : counting methods and algorithms

Viricel, Clement 18 December 2017 (has links)
Cette thèse porte sur deux sujets intrinsèquement liés : le calcul de la constante de normalisation d’un champ de Markov et l’estimation de l’affinité de liaison d’un complexe de protéines. Premièrement, afin d’aborder ce problème de comptage #P complet, nous avons développé Z*, basé sur un élagage des quantités de potentiels négligeables. Il s’est montré plus performant que des méthodes de l’état de l’art sur des instances issues d’interaction protéine-protéine. Par la suite, nous avons développé #HBFS, un algorithme avec une garantie anytime, qui s’est révélé plus performant que son prédécesseur. Enfin, nous avons développé BTDZ, un algorithme exact basé sur une décomposition arborescente qui a fait ses preuves sur des instances issues d’interaction intermoléculaire appelées “superhélices”. Ces algorithmes s’appuient sur des méthodes issuse des modèles graphiques : cohérences locales, élimination de variable et décompositions arborescentes. A l’aide de méthodes d’optimisation existantes, de Z* et des fonctions d’énergie de Rosetta, nous avons développé un logiciel open source estimant la constante d’affinité d’un complexe protéine protéine sur une librairie de mutants. Nous avons analysé nos estimations sur un jeu de données de complexes de protéines et nous les avons confronté à deux approches de l’état de l’art. Il en est ressorti que notre outil était qualitativement meilleur que ces méthodes. / This thesis is focused on two intrinsically related subjects : the computation of the normalizing constant of a Markov random field and the estimation of the binding affinity of protein-protein interactions. First, to tackle this #P-complete counting problem, we developed Z*, based on the pruning of negligible potential quantities. It has been shown to be more efficient than various state-of-the-art methods on instances derived from protein-protein interaction models. Then, we developed #HBFS, an anytime guaranteed counting algorithm which proved to be even better than its predecessor. Finally, we developed BTDZ, an exact algorithm based on tree decomposition. BTDZ has already proven its efficiency on intances from coiled coil protein interactions. These algorithms all rely on methods stemming from graphical models : local consistencies, variable elimination and tree decomposition. With the help of existing optimization algorithms, Z* and Rosetta energy functions, we developed a package that estimates the binding affinity of a set of mutants in a protein-protein interaction. We statistically analyzed our esti- mation on a database of binding affinities and confronted it with state-of-the-art methods. It appears that our software is qualitatively better than these methods.
9

Non-parametric synthesis of volumetric textures from a 2D sample / Méthodes non-paramétriques pour la synthèse de textures volumiques à partir d’un exemple 2D

Urs, Radu Dragos 29 March 2013 (has links)
Ce mémoire traite de synthèse de textures volumiques anisotropes à partir d’une observation 2D unique. Nous présentons différentes variantes d’algorithmes non paramétriques et multi-échelles. Leur principale particularité réside dans le fait que le processus de synthèse 3D s’appuie sur l’échantillonnage d’une seule image 2D d’entrée, en garantissant la cohérence selon les différentes vues de la texture 3D. Deux catégories d’approches sont abordées, toutes deux multi-échelles et basées sur une hypothèse markovienne. La première catégorie regroupe un ensemble d’algorithmes dits de recherche de voisinages fixes, adaptés d’algorithmes existants de synthèses de textures volumiques à partir de sources 2D multiples. Le principe consiste, à partir d’une initialisation aléatoire, à modifier les voxels un par un, de façon déterministe, en s’assurant que les configurations locales de niveaux de gris sur des tranches orthogonales contenant le voxel sont semblables à des configurations présentes sur l’image d’entrée. La deuxième catégorie relève d’une approche probabiliste originale dont l’objectif est de reproduire, sur le volume texturé, les interactions entre pixels estimées sur l’image d’entrée. L’estimation est réalisée de façon non paramétrique par fenêtrage de Parzen. L’optimisation est gérée voxel par voxel, par un algorithme déterministe de type ICM. Différentes variantes sont proposées, relatives aux stratégies de gestion simultanée des tranches orthogonales contenant le voxel. Ces différentes méthodes sont d’abord mises en œuvre pour la synthèse d’un jeu de textures structurées, de régularité et d’anisotropie variées. Une analyse comparée et une étude de sensibilité sont menées, mettant en évidence les atouts et faiblesses des différentes approches. Enfin, elles sont appliquées à la simulation de textures volumiques de matériaux composites carbonés, à partir de clichés obtenus à l’échelle nanométrique par microscopie électronique à transmission. Le schéma expérimental proposé permet d’évaluer quantitativement et de façon objective les performances des différentes méthodes. / This thesis deals with the synthesis of anisotropic volumetric textures from a single 2D observation. We present variants of non parametric and multi-scale algorithms. Their main specificity lies in the fact that the 3D synthesis process relies on the sampling of a single 2D input sample, ensuring consistency in the different views of the 3D texture. Two types of approaches are investigated, both multi-scale and based on markovian hypothesis. The first category brings together a set of algorithms based on fixed-neighbourhood search, adapted from existing algorithms of texture synthesis from multiple 2D sources. The principle is that, starting from a random initialisation, the 3D texture is modified, voxel by voxel, in a deterministic manner, ensuring that the grey level local configurations on orthogonal slices containing the voxel are similar to configurations of the input image. The second category points out an original probabilistic approach which aims at reproducing in the textured volume the interactions between pixels learned in the input image. The learning is done by non-parametric Parzen windowing. Optimization is handled voxel by voxel by a deterministic ICM type algorithm. Several variants are proposed regarding the strategies used for the simultaneous handling of the orthogonal slices containing the voxel. These synthesis methods are first implemented on a set of structured textures of varied regularity and anisotropy. A comparative study and a sensitivity analysis are carried out, highlighting the strengths and the weaknesses of the different algorithms. Finally, they are applied to the simulation of volumetric textures of carbon composite materials, on nanometric scale snapshots obtained by transmission electron microscopy. The proposed experimental benchmark allows to evaluate quantitatively and objectively the performances of the different methods.

Page generated in 0.0787 seconds