Spelling suggestions: "subject:"bayesian"" "subject:"bayesienne""
1 |
Inferring the photometric and size evolution of galaxies from image simulations / Inférence de l'évolution photométrique et en taille des galaxies au moyen d'images simuléesCarassou, Sébastien 20 October 2017 (has links)
Les contraintes actuelles sur l'évolution en luminosité et en taille des galaxies dépendent de catalogues multi-bandes extraits de relevés d'imagerie. Mais ces catalogues sont altérés par des effets de sélection difficiles à modéliser et pouvant mener à des résultats contradictoires s'ils ne sont pas bien pris en compte. Dans cette thèse nous avons développé une nouvelle méthode pour inférer des contraintes robustes sur les modèles d'évolution des galaxies. Nous utilisons un modèle empirique générant une distribution de galaxies synthétiques à partir de paramètres physiques. Ces galaxies passent par un simulateur d'image émulant les propriétés instrumentales de n'importe quel relevé et sont extraites de la même façon que les données observées pour une comparaison directe. L'écart entre vraies et fausses données est minimisé via un échantillonnage basé sur des chaînes de Markov adaptatives. A partir de donnée synthétiques émulant les propriétés du Canada-France-Hawaii Telescope Legacy Survey (CFHTLS) Deep, nous démontrons la cohérence interne de notre méthode en inférant les distributions de taille et de luminosité et leur évolution de plusieurs populations de galaxies. Nous comparons nos résultats à ceux obtenus par la méthode classique d'ajustement de la distribution spectrale d'énergie (SED) et trouvons que notre pipeline infère efficacement les paramètres du modèle en utilisant seulement 3 filtres, et ce plus précisément que par ajustement de la SED à partir des mêmes observables. Puis nous utilisons notre pipeline sur une fraction d'un champ du CFHTLS Deep pour contraindre ces mêmes paramètres. Enfin nous soulignons le potentiel et les limites de cette méthode. / Current constraints on the luminosity and size evolution of galaxies rely on catalogs extracted from multi-band surveys. However resulting catalogs are altered by selection effects difficult to model and that can lead to conflicting predictions if not taken into account properly. In this thesis we have developed a new approach to infer robust constraints on model parameters. We use an empirical model to generate a set of mock galaxies from physical parameters. These galaxies are passed through an image simulator emulating the instrumental characteristics of any survey and extracted in the same way as from observed data for direct comparison. The difference between mock and observed data is minimized via a sampling process based on adaptive Monte Carlo Markov Chain methods. Using mock data matching most of the properties of a Canada-France-Hawaii Telescope Legacy Survey Deep (CFHTLS Deep) field, we demonstrate the robustness and internal consistency of our approach by inferring the size and luminosity functions and their evolution parameters for realistic populations of galaxies. We compare our results with those obtained from the classical spectral energy distribution (SED) fitting method, and find that our pipeline infers the model parameters using only 3 filters and more accurately than SED fitting based on the same observables. We then apply our pipeline to a fraction of a real CFHTLS Deep field to constrain the same set of parameters in a way that is free from systematic biases. Finally, we highlight the potential of this technique in the context of future surveys and discuss its drawbacks.
|
2 |
Analyse des données d'expression de gènesPaquet, Éric January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
Reconnaissance automatique des sillons corticauxPerrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
|
4 |
Ajustements Bayésiens, application à physique du quark top au LHCClément, Benoit 22 June 2012 (has links) (PDF)
Le document discute la problematique de la propagation d'incertitudes mutliples dans l'analyse bayesienne d'une combinaison de processus de Poisson. Une méthode originale d'échantillonnage partiel de la densité a posteriori par chaine de Makov est présenté puis appliquée à la recherche de quarks tops célibataire au LHC. Une dernière partie utilise la même méthode pour sonder la sensibilité furure d'ATLAS à certains paramètres de nouvelle physique.
|
5 |
Contributions to Bayesian Network Learning/Contributions à l'apprentissage des réseaux bayesiensAuvray, Vincent 19 September 2007 (has links)
No description available.
|
6 |
Une approche neuro-computationnelle de la prise de décision et de sa régulation contextuelleDomenech, Philippe 23 September 2011 (has links) (PDF)
Décider, c'est sélectionner une alternative parmi l'ensemble des options possibles en accord avec nos buts. Les décisions perceptuelles, correspondant à la sélection d'une action sur la base d'une perception, résultent de l'accumulation progressive d'information sensorielle jusqu'à un seuil de décision. Aux niveaux comportemental et cérébral, ce processus est bien capturé par les modèles de décision par échantillonnage séquentiel. L'étude neurobiologique des processus de décision, guidée par l'usage de modèles computationnels, a permis d'établir un lien clair entre cette accumulation d'information sensorielle et un réseau cortical incluant le sillon intra-pariétal et le cortex dorso-latéral préfrontal. L'architecture des réseaux biologiques impliqués dans la prise de décision, la nature des algorithmes qu'ils implémentent et surtout, l'étude des relations entre structure biologique et computation est au cœur des questionnements actuels en neurosciences cognitives et constitue le fil conducteur de cette thèse. Dans un premier temps, nous nous sommes intéressés aux mécanismes neuraux et computationnels permettant l'ajustement du processus de décision perceptuelle à son contexte. Nous avons montré que l'information a priori disponible pour prédire nos choix diminue la distance au seuil de décision, régulant ainsi dynamiquement la quantité d'information sensorielle nécessaire pour sélectionner une action. Pendant la prise de décision perceptuelle, le cortex cingulaire antérieur ajuste le seuil de décision proportionnellement à la quantité d'information prédictive disponible et le cortex dorso-latéral préfrontal implémente l'accumulation progressive d'information sensorielle. Dans un deuxième temps, nous avons abordé la question de l'unicité, au travers des domaines cognitifs, des mécanismes neuro-computationnels implémentant la prise de décision. Nous avons montré qu'un modèle de décision par échantillonnage séquentiel utilisant la valeur subjective espérée de chaque option prédisait avec précision le comportement de sujets lors de choix économiques risqués. Pendant la décision, la portion médiale du cortex orbito-frontal code la différence entre les valeurs subjectives des options considérées, exprimées sur une échelle de valeur commune. Ce signal orbito-frontal médian sert d'entrée à un processus de décision par échantillonnage séquentiel implémenté dans le cortex dorso-latéral préfrontal. Pris ensemble, nos travaux précisent les contours d'une architecture fonctionnelle de la prise de décision dans le cortex préfrontal humain en établissant une cartographie des modules computationnels qu'il implémente, mais aussi en caractérisant la façon dont l'intégration fonctionnelle de ces régions cérébrales permet l'émergence de la capacité à prendre des décisions
|
7 |
Warping and sampling approaches to non-stationary gaussian process modelling. / Planification adaptative d'expériences et krigeage non stationnaire : application à la prise en compte des incertitudes dans les études mécaniques en sûreté nucléaire.Marmin, Sebastien 12 December 2017 (has links)
Cette thèse traite de l'approximation de fonctions coûteuses à évaluer et présentant un comportement hétérogène selon les régions du domaine d'entrées. Dans beaucoup d’applications industrielles comme celles issues de la sûreté nucléaire et menées à l’IRSN, les codes de calcul de simulation physique ont des coûts numériques importants et leurs réponses sont alors approchées par un modèle. Les modèles par processus gaussien (PG) sont répandus pour construire des plans d'expériences au budget d'évaluations limité. Alors que les méthodes de planifications standard explorent le domaine en partant souvent d'une hypothèse de stationnarité et en utilisant des critères d'échantillonnages basés sur la variance, nous abordons sous deux aspects le problème d'adapter la planification d'expériences par PG aux fonctions à variations hétérogènes : d'une part sur la modélisation, en proposant une nouvelle famille de covariances (WaMI-GP) qui généralise deux noyaux existants (noyaux à indice multiple et noyaux à déformation tensorielle), et d'autre part sur la planification, en définissant et calculant de nouveaux critères d'échantillonnage à partir des dérivées du PG et dédiés à l'exploration de régions à grandes variations. Une analyse théorique de la nouvelle famille de PG ainsi que des expériences numériques montrent à la fois une certaine souplesse de modélisation et un nombre modéré de paramètres de modèle à estimer. Par ailleurs, un travail sur le couplage entre ondelettes et PG a conduit au développement d'un modèle non stationnaire, appelé ici wav-GP, qui utilise l'échelle locale pour approcher la dérivées de la déformation de manière itérative et non paramétrique. Les applications de wav-GP sur deux cas d'étude mécaniques fournissent des résultats prometteurs pour la prédiction de fonctions ayant un comportement hétérogène. D'autres part, nous formulons et calculons de nouveaux critères de variance qui reposent sur le champs de la norme du gradient du PG, et cela quelques soient les propriétés de (non) stationnarité du modèle. Les critères et les modèles sont comparés avec des méthodes de références sur des cas d'étude en ingénierie. Il en résulte que certains des critères par gradient proposés sont plus efficaces que les critères de variance plus conventionnels, mais qu'il est encore mieux de combiner le modèle WaMI-GP avec ces critères de variance. Ce modèle est souvent le plus compétitif dans des situations où les évaluations sont séquentielles et à nombre réduit. D'autres contributions s'inscrivant dans le thème de l'optimisation globale concernent en particulier le critère d'échantillonnage d'amélioration espérée (connu en anglais comme le critère d'expected improvement) et sa version multipoint pour l'évaluation en parallèle par paquet. Des formules analytiques et des approximations rapides sont établies pour une version généralisée du critère et pour son gradient. / This work deals with approximating expensive-to-evaluatefunctions exhibiting heterogeneous sensitivity to input perturbationsdepending on regions of the input space. Motivated by real test caseswith high computational costs coming mainly from IRSN nuclear safetystudies, we resort to surrogate models of the numerical simulatorsusing Gaussian processes (GP). GP models are popular for sequentialevaluation strategies in design of experiments under limited evaluationbudget. While it is common to make stationarity assumptions for theprocesses and use sampling criteria based on its variance forexploration, we tackle the problem of accommodating the GP-based designto the heterogeneous behaviour of the function from two angles: firstvia a novel class of covariances (WaMI-GP) that simultaneouslygeneralises existing kernels of Multiple Index and of tensorised warpedGP and second, by introducing derivative-based sampling criteriadedicated to the exploration of high variation regions. The novel GPclass is investigated both through mathematical analysis and numericalexperiments, and it is shown that it allows encoding muchexpressiveness while remaining with a moderate number of parameters tobe inferred. Moreover, exploiting methodological links between waveletsanalysis and non-stationary GP modelling, we propose a new non-stationary GP (Wav-GP) with non-parametric warping. The key point is aniterated estimation of the so-called local scale that approximates thederivative of the warping. Wav-GP is applied to two mechanical casestudies highlighting promising prediction performance. Independently ofnon-stationarity assumptions, we conduct derivations for new variance-based criteria relying on the norm of the GP gradient field. Criteriaand models are compared with state-of-the-art methods on engineeringtest cases. It is found on these applications that some of the proposedgradient-based criteria outperform usual variance-based criteria in thecase of a stationary GP model, but that it is even better to usevariance-based criteria with WaMI-GP, which dominates mostly for smalldesigns and in sequential set up. Other contributions in samplingcriteria address the problem of global optimisation, focusing on theexpected improvement criterion and its multipoint version for parallelbatch evaluations. Closed form formulas and fast approximations areestablished for a generalised version of the criterion and its gradient. Numerical experiments illustrate that the proposed approachesenable substantial computational savings.
|
8 |
Une étude expérimentale et théorique de l'intégration de mouvement pour la poursuite lente : Un modèle Bayesien récurrent et hiérarchique / An experimental and theoretical study of visual motion integration for smooth pursuit : A hierarchical recurrent Bayesian frameworkBogadhi, Amarender R. 18 April 2012 (has links)
Cette thèse se compose de deux parties, concernant deux études expérimentales sur les mouvements oculaires de poursuite lente d'un stimulus visuel en mouvement (barre inclinée). La première étude aborde l'intégration dynamique de signaux locaux de mouvement visuel provenant de la rétine, tandis que la seconde porte sur l'influence de signaux extra-rétiniens sur l'intégration du mouvement. Un cadre théorique plus général est également proposé, sur la base d'un modèle bayésien récurrent et hiérarchique pour la poursuite lente. Pour la première étude, l'intégration dynamique de mouvement a été analysée en variant le contraste et la vitesse de la barre inclinée. Les résultats montrent que des vitesses plus élevées et des valeurs plus basses de contraste produisent un plus fort biais dans la direction initiale de poursuite et que successivement la dynamique d'intégration de mouvement est plus lente pour les contrastes faibles. Une version en boucle ouverte d'un modèle bayésien est proposée, où un réseau bayésien récurrent est connecté en cascade avec un modèle du système oculomoteur pour générer des réponses de poursuite lente. Les réponses du modèle reproduisent qualitativement les différentes dynamiques observées dans les réponses de poursuite à la barre inclinée en fonction des vitesses et des contrastes différents. La deuxième étude a enquêté sur les interactions dynamiques entre les signaux rétiniens et extra-rétiniens dans l'intégration dynamique de mouvement pour la poursuite lente par le moyen d'une suppression transitoire de la cible à différents moments de la poursuite, et notamment au cours de la phase de boucle ouverte et pendant l'état d'équilibre. / This thesis addresses two studies by studying smooth pursuit eye movements for a translating tilted bar stimulus. First, the dynamic integration of local visual motion signals originating from retina and second, the influence of extra-retinal signals on motion integration. It also proposes a more generalized, hierarchical recurrent bayesian framework for smooth pursuit. The first study involved investigating dynamic motion integration for varying contrasts and speeds using a tilted bar stimuli. Results show that higher speeds and lower contrasts result in higher initial direction bias and subsequent dynamics of motion integration is slower for lower contrasts. It proposes an open-loop version of a recurrent bayesian model where a recurrent bayesian network is cascaded with an oculomotor plant to generate smooth pursuit responses. The model responses qualitatively account for the different dynamics observed in smooth pursuit responses to tilted bar stimulus at different speeds and contrasts. The second study investigated the dynamic interactions between retinal and extra-retinal signals in dynamic motion integration for smooth pursuit by transiently blanking the target at different moments during open-loop and steady-state phases of pursuit. The results suggest that weights to retinal and extra-retinal signals are dynamic in nature and extra-retinal signals dominate retinal signals on target reappearance after a blank introduced during open-loop of pursuit when compared to a blank introduced during steady-state of pursuit. The previous version of the model is updated to a closed-loop version and extended to a hierarchical recurrent bayesian model.
|
9 |
Validation et exploitation d’un registre histologique des cancers : Estimation par capture recapture de l’exhaustivité par modélisation log-linéaire et selon les modèles écologiques Mtbh en Bayesien / Assessing the value of a histopathological cancer registry : Completeness estimation by capture-recapture by log-linear modeling and on ecological models Mtbh in BayesianBailly, Laurent 08 December 2011 (has links)
Introduction: Les études populationnelles sur le cancer nécessitent un recensement de référence fiable et exhaustif, en théorie possible à partir d'un recueil histologique. Méthode: Depuis 2005, toutes les structures d'anatomopathologie des Alpes-Maritimes adressent les codes ADICAP des tumeurs malignes et invasives et identifiants patients. L'exhaustivité pour les cancers du sein et colorectaux des 50-75 ans a été évalué par méthode de capture recapture en modélisation log-linéaire et en Bayesien à partir des cas communs ou non dépistés et vus en Réunion de Concertation Pluridisciplinaire. RésultatUn programme d'assurance qualité a permis de s'assurer de la fiabilité des données recueillies.L'estimation de l'exhaustivité était de plus de 90 % pour les cancers du sein et colorectaux des 50-75 ans. Les taux observés sur le département des Alpes-Maritimes, comparés aux taux estimés en France, se sont révélés cohérents.Enfin, la base a été utilisée pour déterminer l'existant les lésions prénéoplasiques du col de l'utérus avant la vaccination anti-HPV. ConclusionCe travail conclut à l'intérêt d'un recueil histologique des cas de cancers incidents. / Introduction Cancer population studies require reliable and complete baseline data, which should theoretically be available by collecting histopathology records.Method Since 2005, all histopathology laboratories from Alpes-Maritimes address ADICAP codes for invasive cancer and patient identifiers. The completeness of such a collection was evaluated using capture-recapture analysis based on three data sources concerning breast and colorectal cancers with the number of cases which were common or not between sources recording screened, diagnosed and treated cancers in the French Alpes Maritimes districtResult Data quality for the ADICAP code database may be considered satisfactoryThe estimated completeness of cancer records collected from histopathology laboratories was higher than 90%.Rates observed in the Alpes-Maritimes, compared with estimated rates in France have proven consistent. Rates of CIN for the entire female population of the Alpes-Maritimes in 2006 has been established.Conclusion A verified and validated histopathology data collection may be useful for cancer population studies.
|
10 |
Optimisation des plans d'essais accélérés Application à la tenue en fatigue de pièces métalliques de liaison au solBeaumont, Pauline 01 July 2013 (has links) (PDF)
Dans l'industrie, et en particulier dans le domaine automobile, il est crucial de valider la fiabilité des systèmes de manière efficace, rapide et à moindre coût. Les pièces de Liaison Au Sol chez PSA sont soumises au phénomène de fatigue et leur conception est validée à partir de calculs mais aussi et principalement d'essais physiques. Les méthodologies globales de qualification en fatigue sont basées sur un protocole d'essai spécifique et une méthode d'estimation associée. Les travaux présentés ici présentent tout d'abord un état de l'art de méthodologies globales de qualification en fatigue, issues de la littérature et des applications PSA. Ces différents axes d'étude sont comparés par simulation numérique afin d'en définir la robustesse, l'efficacité et le coût. A l'issu de cette étude, une méthodologie globale efficace a été développée, et en partie mise en place. L'ensemble des travaux permet tout d'abord d'avoir un point de vue critique sur les méthodologies d'estimation de la fiabilité par les essais. Ils ont mené à la mise en place d'une amélioration des stratégies actuelles et ouvre la voie à des changements d'envergure chez PSA.
|
Page generated in 0.0277 seconds