371 |
Dynamique cérébrale en neuroimagerie fonctionnelleCiuciu, Philippe 10 July 2008 (has links) (PDF)
Mes travaux portent sur l'analyse de la dynamique cérébrale à partir de données de neuro-imagerie fonctionnelle issues d'examens d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ils concernent aussi bien l'étude de la dynamique évoquée par un paradigme d'activation cérébrale et celle issue de l'activité spontanée ou de « fond » lorsque le sujet est au repos (resting state). Les algorithmes que j'ai développés s'appuient pour une large partie sur une connaissance explicite du paradigme expérimental mis au point par l'expérimentateur mais aussi prennent place dans une moindre part au sein des méthodes exploratoires, qui n'exploitant pas ces informations issues du paradigme.<br /><br />Ce thème de recherche embrasse à la fois des problèmes bas niveau relatifs à la reconstruction d'images en IRM mais aussi des aspects plus haut niveau qui concernent l'estimation et la sélection de modèles hémodynamiques régionaux non-paramétriques, capables de prendre en compte la variabilité inter-individuelle de la réponse impulsionnelle du système neuro-vasculaire. Les problèmes de reconstruction sont traités à l'aide de méthodes classiques de régularisation dans l'espace image ou des méthodes plus évoluées opérant dans l'espace transformé des coefficients d'ondelette. Les aspects inférentiels haut niveau sont majoritairement abordés dans le cadre des statistiques bayésiennes.
|
372 |
Estimation de mouvement et segmentation<br />Partie I : Estimation de mouvement par ondelettes spatio-temporelles adaptées au mouvement.<br />Partie II : Segmentation et estimation de mouvement par modèles de Markov cachés et approche bayésienne dans les domaines direct et ondelette.Brault, Patrice 29 November 2005 (has links) (PDF)
La première partie de ce mémoire présente une nouvelle vision de l'estimation de mouvement, et donc de la compression, dans les séquences<br />vidéo. D'une part, nous avons choisi d'aborder l'estimation de mouvement à partir de familles d'ondelettes redondantes adaptées à différentes<br />transformations, dont, plus particulièrement, la vitesse. Ces familles, très peu connues, ont déjà été étudiées dans le cadre de la poursuite de<br />cibles. D'autre part, les standards de compression actuels comme MPEG4 prennent en compte une compression objet mais ne calculent toujours que de<br />simples vecteurs de mouvements de ``blocs''. Il nous a paru intéressant de chercher à mettre en oeuvre ces familles d'ondelettes car 1)<br />elle sont construites pour le calcul de paramètres sur plusieurs types de mouvement (rotation, vitesse, accélération) et 2) nous<br />pensons qu'une approche de l'estimation basée sur l'identification de trajectoires d'objets dans une scène est une solution intéressante pour les<br />méthodes futures de compression. En effet nous pensons que l'analyse et la compréhension des mouvements dans une scène est une voie pour des méthodes<br />de compression ``contextuelles'' performantes.<br /><br /><br /><br />La seconde partie présente deux développements concernant la segmentation non-supervisée dans une approche bayésienne. Le premier, destiné à réduire<br />les temps de calcul dans la segmentation de séquences vidéo, est basé sur une mise en oeuvre itérative, simple, de la segmentation. Il nous a aussi<br />permis de mettre une estimation de mouvement basée sur une segmentation ``région'' (voire objet). Le second est destiné à diminuer les temps de<br />segmentation d'images fixes en réalisant la segmentation dans le domaine des ondelettes. Ces deux développements sont basés sur une approche par<br />estimation bayésienne utilisant un modèle de champ aléatoire de Potts-Markov (PMRF) pour les étiquettes des pixels, dans le domaine direct, et pour<br />les coefficients d'ondelettes. Il utilise aussi un algorithme itératif de type MCMC (Markov Chain Monte Carlo) avec échantillonneur de Gibbs.<br />L'approche initiale, directe, utilise un modèle de Potts avec voisinage d'ordre un. Nous avons développé le modèle de Potts pour l'adapter à des<br />voisinages convenant aux orientations privilégiées des sous-bandes d'ondelettes. Ces réalisations apportent, à notre connaissance, des approches<br />nouvelles dans les méthodes de segmentation<br />non-supervisées.
|
373 |
Outils d'évaluation de la qualité d'un paramétrage de propriétés visuelles : cas des textures couleurSawadogo, Amadou 10 December 2009 (has links) (PDF)
De nos jours, les propriétés sensorielles des matériaux font l'objet d'une attention croissante tant au point de vue hédonique qu'utilitaire. Notre thèse s'inscrit dans une recherche visant à établir les bases d'une approche métrologique instrumentale permettant la caractérisation des similarités visuelles entre textures «de même nature». Notre objectif spécifique a été de faire le lien entre une évaluation métrologique instrumentale des textures «lumineuses» produites par des surfaces texturées colorées et une évaluation basée sur des tests psychophysiques réalisés par des observateurs humains. Ces tests psychophysiques ont consisté en des épreuves de classement d'images texturées colorées biphasées suivant un critère de contraste visuel. Les données de classement collectées ont été analysées à l'aide de deux approches statistiques. La première considère l'ajustement d'un modèle factoriel à effets fixes aux statistiques des rangs moyens. La seconde approche est basée sur l'ajustement aux données d'une extension du modèle de Mallows-Bradley-Terry (MBT), sous-classe du modèle de Babington Smith. L'estimation des paramètres des modèles de MBT par le maximum de vraisemblance a été résolue à l'aide d'algorithmes MM et une évaluation par une méthode MCMC du vecteur des scores. Un test d'hypothèse basé sur une statistique du rapport de vraisemblance évaluée par une méthode de Monte Carlo a été proposé pour décider entre l'hypothèse de discernabilité perceptive des textures et celle de non discernabilité. Les résultats obtenus par les deux approches montrent que la qualité sensorielle de contraste visuel se présente bien comme un continuum sensoriel que l'on peut quantifier en construisant perceptivement une échelle de discernabilité.
|
374 |
Inversion probabiliste bayésienne en analyse d'incertitudeFu, Shuai 14 December 2012 (has links) (PDF)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X a partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts surtout avec peu de données disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (méta-modèle) H chapeau. Cette approche implique plusieurs erreurs de nature différente et, dans ce travail, nous nous attachons a estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi a priori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté a notre objectif particulier dans le cadre bayésien. La principale méthodologie présentée dans ce travail a été appliquée a un cas d' étude d'ingénierie hydraulique.
|
375 |
Reconstruction de profils protéiques pour la recherche de biomarqueursSzacherski, Pascal 21 December 2012 (has links) (PDF)
Cette thèse préparée au CEA Léti, Minatec Campus, Grenoble, et à l'IMS, Bordeaux, s'inscrit dans le thème du traitement de l'information pour des données protéomiques. Nous cherchons à reconstruire des profils protéiques à partir des données issues de chaînes d'analyse complexes associant chromatographie liquide et spectrométrie de masse. Or, les signaux cibles sont des mesures de traces peptidiques qui sont de faible niveau dans un environnement très complexe et perturbé. Ceci nous a conduits à étudier des outils statistiques adaptés. Ces perturbations peuvent provenir des instruments de mesure (variabilité technique) ou des individus (variabilité biologique). Le modèle hiérarchique de l'acquisition des données permet d'inclure ces variabilités explicitement dans la modélisation probabiliste directe. La mise en place d'une méthodologie problèmes inverses permet ensuite d'estimer les grandeurs d'intérêt. Dans cette thèse, nous avons étudié trois types de problèmes inverses associés aux opérations suivantes: 1) la quantification de protéines cibles, vue comme l'estimation de la concentration protéique, 2) l'apprentissage supervisé à partir d'une cohorte multi-classe, vu comme l'estimation des paramètres des classes, et 3) la classification à partir des connaissances sur les classes, vue comme l'estimation de la classe à laquelle appartient un nouvel échantillon. La résolution des problèmes inverses se fait dans le cadre des méthodes statistiques bayésiennes, en ayant recours pour les calculs numériques aux méthodes d'échantillonnage stochastique (Monte Carlo Chaîne de Markov).
|
376 |
Dynamic Bayesian models for modelling environmental space-time fieldsDou, Yiping 05 1900 (has links)
This thesis addresses spatial interpolation and temporal prediction using air pollution data by several space-time modelling approaches. Firstly, we implement the dynamic linear modelling (DLM) approach in spatial interpolation and find various potential
problems with that approach. We develop software to implement our approach. Secondly, we implement a Bayesian spatial prediction (BSP) approach to model spatio-temporal ground-level ozone fields and compare the accuracy of that approach with that of the DLM. Thirdly, we develop a Bayesian version empirical orthogonal function (EOF) method to incorporate the uncertainties due to temporally varying spatial process, and the spatial variations at broad- and fine-
scale. Finally, we extend the BSP into the DLM framework to develop a unified Bayesian spatio-temporal model for univariate and
multivariate responses. The result generalizes a number of current approaches in this field.
|
377 |
New simulation schemes for the Heston modelBégin, Jean-François 06 1900 (has links)
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier.
Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée.
Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations.
Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)).
Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme.
Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma. / Financial stocks are often modeled by stochastic differential equations (SDEs). These equations could describe the behavior of the underlying asset as well as some of the model's parameters. For example, the Heston (1993) model, which is a stochastic volatility model, describes the behavior of the stock and the variance of the latter.
The Heston model is very interesting since it has semi-closed formulas for some derivatives, and it is quite realistic. However, many simulation schemes for this model have problems when the Feller (1951) condition is violated.
In this thesis, we introduce new simulation schemes to simulate price paths using the Heston model. These new algorithms are based on Broadie and Kaya's (2006) method. In order to increase the speed of the exact scheme of Broadie and Kaya, we use, among other things, Markov chains Monte Carlo (MCMC) algorithms and some well-chosen approximations.
In our first algorithm, we modify the second step of the Broadie and Kaya's method in order to get faster schemes. Instead of using the second-order Newton method coupled with the inversion approach, we use a Metropolis-Hastings algorithm.
The second algorithm is a small improvement of our latter scheme. Instead of using the real integrated variance over time p.d.f., we use Smith's (2007) approximation. This helps us decrease the dimension of our problem (from three to two).
Our last algorithm is not based on MCMC methods. However, we still try to speed up the second step of Broadie and Kaya. In order to achieve this, we use a moment-matched gamma random variable. According to Stewart et al. (2007), it is possible to approximate a complex gamma convolution (somewhat near the representation given by Glasserman and Kim (2008) when T-t is close to zero) by a gamma distribution.
|
378 |
Mélanges bayésiens de modèles d'extrêmes multivariés, Application à la prédétermination régionale des crues avec données incomplètes.Anne, Sabourin 24 September 2013 (has links) (PDF)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associées aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Après une introduction à la théorie des valeurs extrêmes et à l'inférence bayésienne (chapitre 1), le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi a posteriori. Le chapitre~\ref{censorDiri} est motivé par une application hydrologique: il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les perspectives sont discutées au chapitre 5.
|
379 |
De la forme des généalogies en phylogénie et en génétique des populationsBlum, Michael G B 21 October 2005 (has links) (PDF)
Dans la majeure partie de cette thèse, nous nous sommes consacrés à l'étude de la forme des arbres phylogénétiques et plus particulièrement à leur déséquilibre. Une phylogénie est dite déséquilibrée, si la plupart des noeuds internes (les ancêtres communs) séparent l'arbre en deux sous-arbres de tailles sensiblement différentes. Les deux modèles de phylogénies aléatoires les plus classiques sont le modèle de Yule qui suppose que toutes les espèces ont la même probabilité de spéciation, et le modèle uniforme qui suppose que toutes les phylogénies de même taille sont équiprobables. Dans ces deux modèles, nous avons pu identifier les distributions limites des mesures de déséquilibre les plus utilisées par les biologistes. Les démonstrations sont inspirées de méthodes apparues récemment dans l'analyse des algorithmes. En génétique des populations, nous avons montré que le déséquilibre des généalogies de gènes est le signal d'un phénomène culturel : l'héritage de la fertilité. Nous avons mis en évidence la présence de ce trait culturel dans les populations de chasseurs-cueilleurs en utilisant le déséquilibre de généalogies reconstruites à partir d'ADN mitochondrial. Dans une dernière partie, la théorie de la coalescence a été appliquée à la génétique spatiale. Trois méthodes d'inférence d'un paramètre de dispersion spatiale ont été proposées. La vitesse de dispersion des ours bruns de Scandinavie a été estimée par une de ces trois méthodes.
|
380 |
Détection et classification de cibles multispectrales dans l'infrarougeMaire, F. 14 February 2014 (has links) (PDF)
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge.
|
Page generated in 0.0402 seconds