• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 57
  • 5
  • Tagged with
  • 162
  • 96
  • 56
  • 38
  • 34
  • 28
  • 24
  • 24
  • 22
  • 20
  • 18
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile.

Dubois, Mathieu 20 February 2012 (has links) (PDF)
Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation.
22

L'évolution modulaire des protéines : un point de vue phylogénétique

Sertier, Anne-Sophie 12 September 2011 (has links) (PDF)
La diversité du monde vivant repose pour une large part sur la diversité des protéines codées dans les génomes. Comment une telle diversité a-t-elle été générée ? La théorie classique postule que cette diversité résulte à la fois de la divergence de séquence et de la combinatoire des arrangements de protéines en domaines à partir de quelques milliers de domaines anciens, mais elle n'explique pas les nombreuses protéines orphelines.Dans cette thèse, nous avons étudié l'évolution des protéines du point de vue de leur décomposition en domaines en utilisant trois bases de données : HOGENOM (familles de protéines homologues), Pfam (familles de domaines expertisées) et ProDom (familles de modules protéiques construites automatiquement). Chaque famille d'HOGENOM a ainsi été décomposée en domaines de Pfam ou modules de ProDom. Nous avons modélisé l'évolution de ces familles par un réseau Bayésien basé sur l'arbre phylogénétique des espèces. Dans le cadre de ce modèle, on peut reconstituer rigoureusement les scénarios d'évolution les plus probables qui reflètent la présence ou l'absence de chaque protéine, domaine ou module dans les espèces ancestrales. La mise en relation de ces scénarios permet d'analyser l'émergence de nouvelles protéines en fonctions de domaines ou modules ancestraux. L'analyse avec Pfam suggère que la majorité de ces événements résulte de réarrangements de domaines anciens, en accord avec la théorie classique. Cependant une part très significative de la diversité des protéines est alors négligée. L'analyse avec ProDom, au contraire, suggère que la majorité des nouvelles protéines ont recruté de nouveaux modules protéiques. Nous discutons les biais de Pfam et de ProDom qui permettent d'expliquer ces points de vue différents. Nous proposons que l'émergence de nouveaux modules protéiques peut résulter d'un turn-over rapide de séquences codantes, et que cette innovation au niveau des modules est essentielle à l'apparition de nombreuses protéines nouvelles tout au long de l'évolution.
23

Vitesses et procédures statistiques minimax dans des problèmes d'estimation et des tests d'hypothèses

Gayraud, Ghislaine 06 December 2007 (has links) (PDF)
Mes travaux s'articulent autour de trois thématiques. <br />La première thèmatique porte sur la résolution via l'approche minimax de divers problèmes d'estimation et de tests d'hypothèses dans un cadre non-paramétrique. <br />En statistique Bayésienne non-paramétrique, je me suis intéressée à un problème d'estimation d'ensembles à niveau. Les résultats obtenus résultent de l'étude des propriétés asymptotiques d'estimation Bayésienne d'ensembles à niveau. Ce sont des résultats généraux au sens où la consistance et la vitesse de convergence de l'estimateur Bayésien sont établies pour une large classe de lois a priori. <br />La troisième thématique concerne un problème d'estimation paramétrique dans un modèle de déconvolution aveugle bruitée : il s'agit de restituer la loi du signal entrant. La consistance ainsi que la distribution asymptotique d'une nouvelle procédure d'estimation sont établies.
24

Régression linéaire bayésienne sur données fonctionnelles / Functional Bayesian linear regression

Grollemund, Paul-Marie 22 November 2017 (has links)
Un outil fondamental en statistique est le modèle de régression linéaire. Lorsqu'une des covariables est une fonction, on fait face à un problème de statistique en grande dimension. Pour conduire l'inférence dans cette situation, le modèle doit être parcimonieux, par exemple en projetant la covariable fonctionnelle dans des espaces de plus petites dimensions.Dans cette thèse, nous proposons une approche bayésienne nommée Bliss pour ajuster le modèle de régression linéaire fonctionnel. Notre modèle, plus précisément la distribution a priori, suppose que la fonction coefficient est une fonction en escalier. A partir de la distribution a posteriori, nous définissons plusieurs estimateurs bayésiens, à choisir suivant le contexte : un estimateur du support et deux estimateurs, un lisse et un estimateur constant par morceaux. A titre d'exemple, nous considérons un problème de prédiction de la production de truffes noires du Périgord en fonction d'une covariable fonctionnelle représentant l'évolution des précipitations au cours du temps. En terme d'impact sur les productions, la méthode Bliss dégage alors deux périodes de temps importantes pour le développement de la truffe.Un autre atout du paradigme bayésien est de pouvoir inclure de l'information dans la loi a priori, par exemple l'expertise des trufficulteurs et des biologistes sur le développement de la truffe. Dans ce but, nous proposons deux variantes de la méthode Bliss pour prendre en compte ces avis. La première variante récolte de manière indirecte l'avis des experts en leur proposant de construire des données fictives. La loi a priori correspond alors à la distribution a posteriori sachant ces pseudo-données.En outre, un système de poids relativise l'impact de chaque expert ainsi que leurs corrélations. La seconde variante récolte explicitement l'avis des experts sur les périodes de temps les plus influentes sur la production et si cet l'impact est positif ou négatif. La construction de la loi a priori repose alors sur une pénalisation des fonctions coefficients en contradiction avec ces avis.Enfin, ces travaux de thèse s'attachent à l'analyse et la compréhension du comportement de la méthode Bliss. La validité de l'approche est justifiée par une étude asymptotique de la distribution a posteriori. Nous avons construit un jeu d'hypothèses spécifique au modèle Bliss, pour écrire une démonstration efficace d'un théorème de Wald. Une des difficultés est la mauvaise spécification du modèle Bliss, dans le sens où la vraie fonction coefficient n'est sûrement pas une fonction en escalier. Nous montrons que la loi a posteriori se concentre autour d'une fonction coefficient en escalier, obtenue par projection au sens de la divergence de Kullback-Leibler de la vraie fonction coefficient sur un ensemble de fonctions en escalier. Nous caractérisons cette fonction en escalier à partir du design et de la vraie fonction coefficient. / The linear regression model is a common tool for a statistician. If a covariable is a curve, we tackle a high-dimensional issue. In this case, sparse models lead to successful inference, for instance by expanding the functional covariate on a smaller dimensional space.In this thesis, we propose a Bayesian approach, named Bliss, to fit the functional linear regression model. The Bliss model supposes, through the prior, that the coefficient function is a step function. From the posterior, we propose several estimators to be used depending on the context: an estimator of the support and two estimators of the coefficient function: a smooth one and a stewpise one. To illustrate this, we explain the black Périgord truffle yield with the rainfall during the truffle life cycle. The Bliss method succeeds in selecting two relevant periods for truffle development.As another feature of the Bayesian paradigm, the prior distribution enables the integration of preliminary judgments in the statistical inference. For instance, the biologists’ knowledge about the truffles growth is relevant to inform the Bliss model. To this end, we propose two modifications of the Bliss model to take into account preliminary judgments. First, we indirectly collect preliminary judgments using pseudo data provided by experts. The prior distribution proposed corresponds to the posterior distribution given the experts’ pseudo data. Futhermore, the effect of each expert and their correlations are controlled with weighting. Secondly, we collect experts’ judgments about the most influential periods effecting the truffle yield and if the effect is positive or negative. The prior distribution proposed relies on a penalization of coefficient functions which do not conform to these judgments.Lastly, the asymptotic behavior of the Bliss method is studied. We validate the proposed approach by showing the posterior consistency of the Bliss model. Using model-specific assumptions, efficient proof of the Wald theorem is given. The main difficulty is the misspecification of the model since the true coefficient function is surely not a step function. We show that the posterior distribution contracts on a step function which is the Kullback-Leibler projection of the true coefficient function on a set of step functions. This step function is derived from the true parameter and the design.
25

Extension des systèmes MES au diagnostic des performances des systèmes de production au travers d'une approche probabiliste Bayésienne / Manufacturing Execution System extending to diagnosis of production performances based on probalistic Bayesian approach

Tran, Ngoc Hoang 11 July 2018 (has links)
Cette thèse s'inscrit dans le domaine de la diagnostic, en particulier de Manufacturing Execution System (MES) . Elle apporte sa contribution au diagnostic de système en présence de défaillances potentielles suit à une variation du TRS, un indicateur de performance qui donne une image de l’état de fonctionnement d’un système de production (équipement, ligne, atelier, usine) à travers l’estimation des pertes selon trois origines : disponibilité, performance, qualité. L’objectif est de fournir le maximum d’informations sur les origines d’une variation du TRS afin de permettre à l'exploitant de prendre la bonne décision. Aussi, sur la base d'un tel modèle, nous proposons une méthodologie de déploiement pour intégrer une fonction de diagnostic aux solutions MES existantes dans un contexte industriel. / This Phd thesis takes place in the diagnostic field, especially in contexte of Manufacturing Execution System (MES). It contributes to the diagnostic system in the presence of potential failures following a triggering signal OEE drift, an indicator performance that gives a picture of the production system state (equipment, production line, site, and enterprise) by estimating downtime from 3 major origins: availability, performance, and quality. Our objective is to provide maximum information of the origins of an OEE variation and to support making the best decision for four categories users of OEE (operator, leader team, supervisor, direction). Also, basis on that model, the purpose will provides a deployment methodology to integrate with MES solution in an industrial context.
26

Bayesian joint detection-estimation in functional MRI with automatic parcellation and functional constraints / Détection-estimation conjointe pour l'IRM fonctionnelle avec des approches bayésiennes et bayésiennes variationnelles

Albughdadi, Mohanad 16 September 2016 (has links)
La parcellisation du cerveau en un certain nombre de régions hémodynamiques homogènes est toujours un défi majeur en analyse des données d’imagerie par résonance magnétique fonctionnelle (IRMf). Une inférence automatique pour les parcelles à partir des données d’IRMf a été proposée dans le cadre du modèle parcellisation détection estimation conjointe (joint parcellation detection estimation: JPDE). Toutefois, ce modèle requiert toujours des informations préalables sur le nombre de parcelles ainsi que leurs formes, généralement renseignées à partir d'une parcellisation initiale, ce qui constitue un défi car cela dépend généralement du sujet. Dans cette thèse, de nouvelles approches pour la parcellisation hémodynamique du cerveau sont présentées. Ces approches sont motivées par le fait que la réponse hémodynamique varie selon les régions du cerveau, les sujets, les différentes sessions pour chaque sujet ainsi que les groupes de sujets. Les approches proposées appartiennent à l’une des deux catégories suivantes : les modèles d’analyse de données d’IRMf au niveau d’un sujet et au niveau d’un groupe de sujets. Pour l’analyse de données d’IRMf au niveau d’un sujet, trois modèles pour estimer automatiquement le nombre optimal de parcelles ainsi que leurs formes (directement) à partir des données d’IRMF sont proposés. La première approches est élaborée comme une procédure de sélection de modèle ajoutée à la structure du modèle JPDE dans lequel l’énergie libre pour les modèles candidats est calculée, chacun avec un nombre différent de parcelles, puis celui qui maximise cette énergie est retenu. Afin de surmonter l’intensité du calcul associé à cette approche, une seconde méthode est proposée. Elle repose sur un modèle bayésien nonparamétrique dans lequel une combinaison d’un processus de Dirichlet et d’un champ aléatoire de Markov caché est utilisée pour permettre un nombre illimité de parcelles et enfin en estimer le nombre optimal. Enfin, pour éviter la complexité du calcul associé à l’estimation du paramètre d’interaction du champ de Markov dans la seconde méthode, un algorithme de clustering est utilisé (le mean shift). Il est intégré dans la structure du modèle JPDE afin de déduire automatiquement le nombre de parcelles en estimant les modes de la distribution multivariée sous-jacente. Les approches proposées au niveau du sujet sont validées à l’aide de données synthétiques et réelles. Les résultats d’analyse obtenus sont cohérents pour toutes en termes de détection de l’activité évoquée. De plus, la deuxième et la troisième approches parviennent à distinguer les profils de la réponse hémodynamique en fonction de différents critères tels que la largeur à mi-hauteur et le temps de montée. En ce qui concerne les analyses au niveau d’un groupe, deux modèles capables d’estimer la parcellisation ainsi que les profils de réponse hémodynamique sont proposés. Le modèle JPDE est modifié pour permettre l’estimation au niveau du groupe en considérant les données provenant de tous les sujets ce qui a abouti à un modèle multisujet d’estimation-détection de parcellation conjointe. Cependant, les essais sur des données réelles démontre que la régularité du FRH est sensible à l'un des hyperparameters. Par conséquent, le deuxième modèle qui effectue une analyse inter et intra sujet et qui fourni une estimation à la fois au niveau du sujet et au niveau du groupe est privilégié. Une comparaison approfondie entre les deux modèles est menée au niveau du groupe et les résultats sont cohérents. Au niveau du sujet, une comparaison est effectuée entre le modèle d’analyse inter et intra sujet proposé et le modèle JPDE. Cette comparaison démontre que les estimations du FRH utilisant le modèle proposé sont plus précises car plus proches de la forme canonique FRH dans le cortex moteur droit. L’estimation des variables inconnues, et des paramètres dans les approches proposées est traitée en utilisant une stratégie d’espérance-maximisation variationnelle. / Brain parcellation into a number of hemodynamically homogeneous regions (parcels) is a challenging issue in fMRI analyses. An automatic inference for the parcels from the fMRI data was proposed in the framework of the joint parcellation detection estimation (JPDE) model. However, this model still requires appropriate prior information about the number of parcels and their shapes provided through an initial parcellation, which is a challenging task since it generally depends on the subject. In this thesis, we present novel approaches for hemodynamic brain parcellation. These approaches are motivated by the fact that the hemodynamic response function varies across brain regions and sessions within subjects, and even among subjects and groups. The proposed approaches belong to one of two main categories, the subject-level and group-level fMRI data analysis models. For the subjectlevel fMRI data analysis, we propose three models to automatically estimate the optimum number of parcels and their shapes directly from fMRI data. The first one is formulated as a model selection procedure added to the framework of the classical JPDE model in which we compute the free energy for the candidate models, each with different number of parcels, and then select the one that maximizes this energy. To overcome the computational intensity associated with the first approach, we propose a second method which relies on a Bayesian non-parametric model where a combination of a Dirichlet process mixture model and a hidden Markov random field is used to allow for unlimited number of parcels and then estimate the optimal one. Finally to avoid the computational complexity associated with the estimation of the interaction parameter of the Markov field in the second approach, we make use of a well known clustering algorithm (the mean shift) and embed it in the framework of the JPDE model to automatically infer the number of parcels by estimating the modes of the underlying multivariate distribution. All the proposed subject-level approaches are validated using synthetic and real data. The obtained results are consistent across approaches in terms of the detection of the elicited activity. Moreover, the second and the third approaches manage to discriminate the hemodynamic response function profiles according to different criteria such as the full width at half maximum and the time to peak. Regarding the group-level fMRI analysis, we propose two new models that are able to estimate group-level parcellation and hemodynamic response function profiles. The JPDE model is extended to allow for this group-level estimation by considering data coming from all the subjects resulting in a multisubject joint parcellation detection estimation model. However, in real data experiment, it is noticed that the smoothness of the estimated HRFs is sensitive to one of the hyperparameters. Hence, we resort to the second model that performs inter and intra subject analysis providing estimation at both the single and group-levels. A thorough comparison is conducted between the two models at the group-level where the results are coherent. At the subject-level, a comparison is conducted between the proposed inter and intra subject analysis model and the JPDE one. This comparison indicates that the HRF estimates using our proposed model are more accurate as they are closer to the canonical HRF shape in the right motor cortex. Finally, the estimation of the unknown variables, the parameters and the hyperparameters in all of the proposed approaches is addressed from a Bayesian point of view using a variational expectation maximization strategy.
27

Prédiction de la composition corporelle par modélisation locale et les réseaux bayésiens / Body composition prediction by locally weighted and Bayesian networks modeling

Tian, Simiao 29 November 2013 (has links)
La composition corporelle est importante pour évaluer l'état de santé et le statut nutritionnel d'individus. Le surpoids et l'obésité deviennent des problèmes de santé à l'échelle mondiale. L'accroissement de la masse grasse, notamment celle du tronc, a été associée à une augmentation du risque de maladies métaboliques, telles que le diabète de type 2 et les maladies cardiovasculaires. La masse musculaire, en particulier appendiculaire, est également un indice de santé, et est liée au taux de mortalité. En outre, le vieillissement s'accompagne de changements importants dans la composition corporelle. La masse maigre diminue (Kyle et al., 2001) et la masse grasse augmente, liée à une accumulation de tissus adipeux, en particulier dans la région abdominale (Kuk et al., 2009). Il est donc important d'étudier ces changements en fonction de l'âge pour tenter d'établir un pré-diagnostic et aider à la prévention de la morbidité et de mortalité. La composition corporelle se mesure par différentes méthodes, telles que le pesage sous l'eau ou l'absorption bi-photonique à rayons X (DXA). Cependant, ces méthodes de mesure ne sont pas adaptées pour des populations de taille très grande, car elles nécessitent un équipement fixe, demandent des manipulations longues et sont coûteuses. En revanche, le potentiel de méthodes de prédiction statistique a été mis en évidence pour estimer la composition corporelle (Snijder et al., 2006), et plusieurs modèles ont été proposés pour prédire la composition corporelle, notamment le pourcentage de la masse grasse (BF%) (Gallagher et al.,2000a; Jackson et al., 2002; Mioche et al., 2011b). Le premier objectif de cette thèse est de développer un modèle multivarié à partir de covariables anthropométriques pour prédire simultanément les masses grasse et maigre de différents segments du corps. Pour cela, nous avons proposé une régression linéaire multivariable publiée dans le British Journal of Nutrition. Notre proposition multivariée présente deux avantages principaux. Le premier avantage consiste à utiliser les covariables très simples que sont l'âge, le poids et la taille dont la mesure est facile et peu coûteuse. L'utilité d'ajouter comme covariable le tour de taille a été évaluée. Le deuxième avantage est que l'approche multivariée prend en compte la structure de corrélation entre les variables, ce qui est utile pour certaines études d'inférence où on s'intéresse à des fonctions des variables prédites. La qualité de la précision multivariée a été évaluée par comparaison avec celle des modèles univariés déjà publiés. Nous avons montré que la prédiction multivariée est bonne et que notre approche peut donc être utilisée pour des études de risques métaboliques en grandes populations. Le second objectif de cette thèse est d'étudier l'évolution de la composition corporelle au cours du vieillissement, en tenant compte des covariables anthropométriques. Deux modélisations bayésiennes ont été retenues et développées. Un des avantages principaux de nos propositions est, grâce à une modélisation, de réaliser une analyse longitudinale à partir de données transversales. En outre, la modélisation bayésienne permet de fournir une distribution prédictive, et non pas une simple valeur prédite, ce qui permet d'explorer l'incertitude de la prédiction. Également, des résultats antérieurs ou publiés peuvent être incorporés dans la distribution priore, ce qui conduit à des conclusions plus précises. Les prédictions précédentes sont fondées sur des modèles où la structure de corrélation entre les variables est laissée libre, le troisième objectif de notre travail a été d'imposer une structure de corrélation particulière adaptée au problème. L'avantage est l'utilisation d'un sous-modèle parcimonieux du modèle multivarié précédent. Cette structure est décrite au moyen d'un réseau bayésien gaussien (GBN). [...] Suite et fin du résumé dans la thèse. / The assessment of human body composition is important for evaluating health and nutritional status. Among health issues, overweight and obesity are worldwide problems. Increased fat mass, especially in the trunk location, has been associated with an increased risk of metabolic diseases, such as type 2 diabetes and cardiovascular disease. The lean body mass, especially appendicular muscle mass, is also directly related to health and particularly with the mortality rate. Also, aging is associated with substantial changes in body composition. Reduction in body lean or body fat-free mass occurs during aging (Kyle et al., 2001) together with an increase of body fat related to accumulation of adipose tissues, particularly in abdominal region (Kuk et al., 2009); therefore assessing these changes in segmental body composition may be important because the study will lead to a pre-diagnosis for the prevention of morbidity and mortality risk. Accurate measurements of body composition can be obtained from different methods, such as underwater weighing and dual-energy X-ray absorptiometry (DXA). However, their applications are not always convenient, because they require fixed equipment and they are also time consuming and expensive. As a result, they are not convenient for use as a part of routine clinical examinations or population studies. The potential uses of statistical methods for body composition assessment have been highlighted (Snijder et al., 2006), and several attempts to predict body composition, particularly body fat percentage (BF%), have been made (Gallagher et al., 2000a; Jackson et al., 2002; Mioche et al., 2011b).The first aim in this thesis was to develop a multivariate model for predicting simultaneously body, trunk and appendicular fat and lean masses from easily measured anthropometric covariables. We proposed a linear solution published in the British Journal of Nutrition. There are two main advantages in our proposed multivariate approach. The first consists in using very simple covariables, such as body weight and height, because these measurements are easy and not expensive. The usefulness of waist circumference is also investigated and combined with age, height and weight as predictor variables. The second advantage is that the multivariate approach enables to take into account the correlation structure between the responses into account, which is useful for a number of inference tasks, e.g., to give simultaneous confidence regions for all the responses together. Then the prediction accuracy of the multivariate approach is justified by comparing with that of the available univariate models that predict body fat percentage (BF%). With a good accuracy, the multivariate outcomes might then be used in studies necessitating the assessment of metabolic risk factors in large populations.The second aim in this thesis was to study age-related changes in segmental body compositions, associated with anthropometric covariables. Two Bayesian modeling methods are proposed for the exploration of age-related changes. The main advantage of these methods is to propose a surrogate for a longitudinal analysis from the cross-sectional datasets. Moreover, the Bayesian modeling enables to provide a prediction distribution, rather than a simple estimate, this is more relevant for exploring the uncertainty or accuracy problems. Also we can incorporate the previous findings in the prior distribution, by combining it with the datasets, we could obtain more suitable conclusions.The previous predictions were based on models supposing any correlation structure within the variables, the third aim in this thesis was to propose a parsimonious sub-model of the multivariable model described by a Gaussian Bayesian network (GBN), more precisely Crossed Gaussian Bayesian Networks (CGBN). Last and final summary in the thesis.
28

The blind Bayesian approach to Cosmic Microwave Background data analysis / L'approche bayésienne de l'analyse du fond diffus cosmologique

Vansyngel, Flavien 16 December 2014 (has links)
Le thème principal de cette thèse est l'analyse de données du fond diffus cosmologique (CMB). En particulier, je présente une méthode, Bayesian Independent Analysis (BICA), qui effectue à la fois la séparation des composants et l'inférence du spectre de puissance du CMB. Je commence par présenter les principes de base du CMB et souligne la nécessité d'une modélisation robuste des erreurs au niveau de la carte. Puis je présente la principale source d'erreurs dans les produits du CMB, à savoir les avant-plans. La séparation des composants est une étape cruciale dans l'analyse de données de CMB. Je passe en revue plusieurs méthodes visant à nettoyer le CMB des avant-plans. Puis je présente BICA. La méthode est formulée dans le cadre bayésien aveugle. Il en résulte une inférence jointe de la carte de CMB et de son spectre de puissance. Ainsi, les erreurs sur la reconstruction comprennent les incertitudes dues à la présence d'avant-plans dans les données. En considérant des choix particuliers de prior et d'échantillonnage, je montre comment la formulation bayésienne de séparation des composantes fournit un cadre unificateur dont les méthodes précédentes sont des cas particuliers. Je présente les résultats de BICA lorsqu'elle est appliquée sur des données simulées et les données Planck. Cette méthode est capable de reconstruire la carte du CMB et son spectre sur une large fraction du ciel. Les principales contributions de cette thèse sont : 1) un spectre de puissance du CMB dont les erreurs prennent en compte la présence d'avant-plans mais sans modèle physique, 2) une carte CMB avec un modèle d'erreur incluant à la fois le bruit et avant-plans. / The main topic of this thesis is the analysis of Cosmic Microwave Background (CMB) data. In particular, I present a method, Bayesian Independent component analysis (BICA), that performs both CMB component separation and CMB power spectrum inference.I begin by presenting the basics of our understanding of the CMB emission and highlight the need for a robust error modelling at the map level. Then I present the main source of errors in the CMB products, namely the foregrounds.Component separation is a crucial and delicate step in CMB data analysis. I review several methods aiming at cleaning the CMB from foregroundsThen I present BICA. The method is formulated in a blind Bayesian framework. The posterior distribution provides an inference of the CMB map and power spectrum from the observation maps. Thus, the errors on the reconstruction include the uncertainties due the presence of foregrounds in the data. By considering particular choices of prior and sampling scheme, I show how the Bayesian formulation of component separation provide a unifying framework of which previous methods are special cases.I present the results of BICA when applied on both simulated data and 2013 Planck data. This method is able to reconstruct the CMB map and power spectrum on a large fraction of the sky. The main contributions of this thesis is to provide: 1) a CMB power spectrum on a large multipole range whose errors take the presence of foregrounds into account but without assuming physical models, 2) a CMB map inference together with an error model including both noise and foregrounds residuals.
29

Epidémiologie de la sclérose en plaques en France / Epidemiology of Multiple Sclerosis en France

Fromont, Agnès 06 November 2012 (has links)
En Europe, la France est située entre des zones à haut et bas risque de Sclérose en Plaques (SEP).Nous avons estimé la prévalence de la SEP en France au 31 octobre 2004 et l’incidence entre 2000 et 2007 à partir des données de la Caisse Nationale d’Assurance Maladie des Travailleurs Salariés (CNAMTS) qui assure 87 % de la population. La SEP, comme d’autres maladies chroniques, fait partie des affections de longue durée (ALD). Les variations géographiques de la prévalence et de l’incidence ont été analysées par un modèle Bayesien.La prévalence standardisée sur l’âge était de 94,7 pour 100 000 ; 130,5 pour les femmes ; 54,8 pour les hommes. Le taux de notification de SEP (2000-2007) standardisé sur la population Européenne était de 6,8 pour 100 000 ; 9,8 parmi les femmes et 3,7 parmi les hommes. Avec le modèle Bayesien, la prévalence était plus forte au nord-est et plus faible dans la région parisienne et sur la Côte d’Azur. L’incidence était également plus forte au nord-est mais plus faible sur la côte atlantique et de part et d’autre du Rhône.A partir des autres ALD, les comorbidités survenant avant l’ALD SEP ont été étudiées. Elles étaient rares et essentiellement représentées par les troubles psychiatriques (40,2%) et le diabète (20,3%). Cette étude a été réalisée parmi une population représentative avec une seule et même méthodologie. Le modèle Bayesien prenant en compte l’hétérogénéité et l’auto-corrélation spatiales ne confirme pas l’existence d’un gradient net mais des zones à sur ou sous risque. La meilleure connaissance de l’épidémiologie de la SEP permettra d’avancer sur ses facteurs étiologiques. / In Europe, France is located between high and low risk areas of Multiple Sclerosis (MS). We estimated the national prevalence of MS in France on 31st October 2004 and the incidence between 2000 and 2007 based on data from the ‘Caisse Nationale d’Assurance Maladie des Travailleurs Salariés’ which insures 87% of the population. MS like other chronic diseases is one of the 30 long-term illnesses (Affections de Longue Durée, ALD). We analysed geographic variations in the prevalence and incidence of MS in France using the Bayesian approach.Total MS prevalence in France standardised for age was 94.7 per 100,000; 130.5 in women; 54.8 in men. The notification rate for MS (2000-2007) after age-standardisation according to the European population was 6.8 per 100,000; 9.8 in women and 3.7 in men. With a Bayesian approach, the prevalence of MS was higher in northeast and lower in the Paris area and on the Mediterranean coast. The notification rate was higher in northeast and lower on the Atlantic coast and in the Alps as well as on both sides of the Rhône River.The study of other chronic diseases for which ALD status was registered before MS revealed that comorbidities were rare, essentially represented by psychiatric diseases (40.2%) and diabetes (20.3%).This study is performed among a representative population using the same method throughout. The Bayesian approach which takes into account spatial heterogeneity and spatial autocorrelation did not confirm the existence of a clear gradient but only higher or lower areas of MS. The better knowledge of MS epidemiology will allow to venture hypothesis its etiological factors.
30

Bayesian dynamic scheduling for service composition testing / Ordonnancement dynamique bayesien pour le test des architectures de service

Maesano, Ariele 30 January 2015 (has links)
Aujourd'hui la connectivité entre les systèmes se standardise. Il supprime l'intervention humaine et permet aux systèmes distribués d'accomplir des tâches longues et complexes. La SOA est une approche fondée sur le modèle qui s'appuie sur des contrats et qui permet aux systèmes existants de collaborer par échange de messages. De multiples organisations peuvent, automatiser des échanges de services sans risquer leur confidentialité. Cette collaboration est à l'origine des difficultés concernant le test, parce que si il a des échanges entre les différents partenaires, le fonctionnement interne de processus résultant dans l'information échangé est limité à certains partenaires/testeurs. Ceci nous place dans un cadre de tests boîte grise où les systèmes sont des boîtes noires et seulement l'échange de message est visible. C'est pourquoi nous proposons une approche probabiliste en utilisant l'inférence bayésienne pour tester les SOA. Le deuxième défi est leur taille. Etant donné que les systèmes sont connectés de manière lâche en les couplant deux par deux selon les spécifications, une SOA peut contenir un nombre très important de participants et donc une grande taille. La taille des SOA se reflète dans la complexité de l'inférence bayésienne. Cette seconde contrainte pousse à chercher de meilleure solution pour l'inférence bayésienne. Afin de faire face à la taille et la densité de la BN, même pour de petits services architectures, les techniques d'inférence par compilation dirigée par les modèles qui permet la génération rapide de circuits arithmétiques directement à partir du modèle de l'architecture des services et de la suite de tests sont en cours d'élaboration. / In present times connectivity between systems becomes more common. It removes human mediation and allows complex distributed systems to autonomously complete long and complex tasks. SOA is a model driven contract based approach that allows legacy systems to collaborate by messages exchange. Collaboration, here, is a key word in the sense that multiple organisation can, with this approach, automate services exchanges between them without putting at risks their confidentiality. This cause to encounter the first difficulty, because if there are exchanges between the different partners, the inner-processes resulting in the exchange information is restricted to some partners and therefor to some of the testers. That put us in a grey-box testing case where the systems are black-boxes and only the message exchange is visible. That is why we propose a probabilistic approach using Bayesian Inference to test the architectures. The second Challenge is the size of the SOA. Since the systems are connected by loosely coupling them two by two according to SOA Specifications, SOA can contain a very important number of participants. In Fact most of the existing SOA are very important in there size. The size of the SOA is reflected in the complexity of the Bayesian inference. This second challenge constraints us to search for better solution for the Bayesian Inference. In order to cope with the size and density of the BN for even small services architectures, techniques of model-driven inference by compilation that allows quick generation of arithmetic circuits directly from the services architecture model and the test suite are being developed.

Page generated in 0.0368 seconds