Spelling suggestions: "subject:"bayesian"" "subject:"bayesienne""
11 |
Analyse de stratégies bayésiennes et fréquentistes pour l'allocation séquentielle de ressources / Analysis of bayesian and frequentist strategies for sequential resource allocationKaufmann, Emilie 01 October 2014 (has links)
Dans cette thèse, nous étudions des stratégies d’allocation séquentielle de ressources. Le modèle statistique adopté dans ce cadre est celui du bandit stochastique à plusieurs bras. Dans ce modèle, lorsqu’un agent tire un bras du bandit, il reçoit pour récompense une réalisation d’une distribution de probabilité associée au bras. Nous nous intéressons à deux problèmes de bandit différents : la maximisation de la somme des récompenses et l’identification des meilleurs bras (où l’agent cherche à identifier le ou les bras conduisant à la meilleure récompense moyenne, sans subir de perte lorsqu’il tire un «mauvais» bras). Nous nous attachons à proposer pour ces deux objectifs des stratégies de tirage des bras, aussi appelées algorithmes de bandit, que l’on peut qualifier d’optimales. La maximisation des récompenses est équivalente à la minimisation d’une quantité appelée regret. Grâce à une borne inférieure asymptotique sur le regret d’une stratégie uniformément efficace établie par Lai et Robbins, on peut définir la notion d’algorithme asymptotiquement optimal comme un algorithme dont le regret atteint cette borne inférieure. Dans cette thèse, nous proposons pour deux algorithmes d’inspiration bayésienne, Bayes-UCB et Thompson Sampling, une analyse à temps fini dans le cadre des modèles de bandit à récompenses binaires, c’est-à-dire une majoration non asymptotique de leur regret. Cette majoration permetd’établir l’optimalité asymptotique des deux algorithmes. Dans le cadre de l’identification des meilleurs bras, on peut chercher à déterminer le nombre total d’échantillons des bras nécessaires pour identifier, avec forte probabilité, le ou les meilleurs bras, sans la contrainte de maximiser la somme des observations. Nous définissons deux termes de complexité pour l’identification des meilleurs bras dans deux cadres considérés dans la littérature, qui correspondent à un budget fixé ou à un niveau de confiance fixé. Nous proposons de nouvelles bornes inférieures sur ces complexités, et nous analysons de nouveaux algorithmes, dont certains atteignent les bornes inférieures dans des cas particuliers de modèles de bandit à deux bras, et peuvent donc être qualifiés d’optimaux. / In this thesis, we study strategies for sequential resource allocation, under the so-called stochastic multi-armed bandit model. In this model, when an agent draws an arm, he receives as a reward a realization from a probability distribution associated to the arm. In this document, we consider two different bandit problems. In the reward maximization objective, the agent aims at maximizing the sum of rewards obtained during his interaction with the bandit, whereas in the best arm identification objective, his goal is to find the set of m best arms (i.e. arms with highest mean reward), without suffering a loss when drawing ‘bad’ arms. For these two objectives, we propose strategies, also called bandit algorithms, that are optimal (or close to optimal), in a sense precised below. Maximizing the sum of rewards is equivalent to minimizing a quantity called regret. Thanks to an asymptotic lower bound on the regret of any uniformly efficient algorithm given by Lai and Robbins, one can define asymptotically optimal algorithms as algorithms whose regret reaches this lower bound. In this thesis, we propose, for two Bayesian algorithms, Bayes-UCB and Thompson Sampling, a finite-time analysis, that is a non-asymptotic upper bound on their regret, in the particular case of bandits with binary rewards. This upper bound allows to establish the asymptotic optimality of both algorithms. In the best arm identification framework, a possible goal is to determine the number of samples of the armsneeded to identify, with high probability, the set of m best arms. We define a notion of complexity for best arm identification in two different settings considered in the literature: the fixed-budget and fixed-confidence settings. We provide new lower bounds on these complexity terms and we analyse new algorithms, some of which reach the lower bound in particular cases of two-armed bandit models and are therefore optimal
|
12 |
Lambda-Fleming-Viot processes and their spatial extensionsSaadi, Habib January 2011 (has links)
The subject of this thesis is the study of certain stochastic models arising in Population Genetics. The study of biological evolution naturally motivates the construction and use of sometimes sophisticated mathematical models. We contribute to the study of the so-called Lambda models. Our work is divided into two parts. In Part I, we study non-spatial models, introduced in 1999. Although there is a very rich literature concerning the description of genetic diversity thanks to the genealogies arising in these models, we obtain new results by considering the dynamics of the full population. We also contribute by presenting the first Bayesian method that allows us to reconstruct the genealogies generated by these models from data. In Part II, we study a recent extension of these models to the spatial setting. In particular, we prove a non trivial result concerning the geographical dispersal of a new mutant under this model.
|
13 |
Optimisation de l’administration des médicaments chez les enfants transplantés grâce à la pharmacocinétique de populationKassir, Nastya 03 1900 (has links)
Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes.
Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients.
Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation.
Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité.
Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité.
Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements.
En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation. / This thesis deals with the application of population pharmacokinetics in order to optimize the use of certain medications in immunocompromised children undergoing transplantation. Among the various drugs used in immunocompromised children, the use of busulfan, tacrolimus and voriconazole remains problematic, particularly because of high interindividual variability in their pharmacokinetics necessitating individualized doses based on therapeutic drug monitoring. In addition, these drugs have not been studied in children and the doses are adapted from adults. This practice does not take into account the pharmacological characteristics of pediatrics throughout their development and makes illusory the extrapolation of data acquired in adults to children.
The work done in this thesis studied sequentially the pharmacokinetics of busulfan, voriconazole and tacrolimus by a population approach (non-linear mixed effects models). The developed models have identified the main sources of interindividual variability in the pharmacokinetic parameters of these drugs. The identified covariates are body surface area and weight. These results confirm the importance of taking into account the effect of growth in children. These parameters were allometrically included in the models. This approach allows separating the effect of size from other covariates and enables the comparison of pediatric pharmacokinetic parameters with those of adults. The inclusion of these explanatory covariates should improve the management a priori of patients.
The developed models were evaluated to confirm their stability, performance, and their ability to answer the original objectives of modeling.
In the case of busulfan, the validated model was used to simulate dosing regimens that improve reaching the target exposure, reduce treatment failure and toxicity episodes.
The developed population pharmacokinetic model for voriconazole confirmed the large variability in its pharmacokinetics in immunocompromised children. The limited data did not allow identification of covariates explaining this variability.
Based on the population pharmacokinetic model of tacrolimus, a Bayesian estimator was developed, which is the first in this population of pediatric liver transplant recipients. This estimator can predict pharmacokinetic parameters and individual exposure to tacrolimus based on a limited number of samples.
In conclusion, this thesis allowed applying the population pharmacokinetics approach in pediatrics to explore the characteristics of this population and describe the pharmacokinetic variability of drugs used in immunocompromised children, for the individualization of treatment. Pharmacokinetic tools developed are part of efforts to decrease the rate of treatment failure and the incidence of adverse and toxic events in immunocompromised and transplanted pediatrics.
|
14 |
Une approche neuro-computationnelle de la prise de décision et de sa régulation contextuelle / A neuro-computational approach to decision-making and its contextual adjustmentDomenech, Philippe 23 September 2011 (has links)
Décider, c’est sélectionner une alternative parmi l’ensemble des options possibles en accord avec nos buts. Les décisions perceptuelles, correspondant à la sélection d’une action sur la base d’une perception, résultent de l’accumulation progressive d’information sensorielle jusqu’à un seuil de décision. Aux niveaux comportemental et cérébral, ce processus est bien capturé par les modèles de décision par échantillonnage séquentiel. L’étude neurobiologique des processus de décision, guidée par l’usage de modèles computationnels, a permis d’établir un lien clair entre cette accumulation d’information sensorielle et un réseau cortical incluant le sillon intra-pariétal et le cortex dorso-latéral préfrontal. L’architecture des réseaux biologiques impliqués dans la prise de décision, la nature des algorithmes qu’ils implémentent et surtout, l’étude des relations entre structure biologique et computation est au cœur des questionnements actuels en neurosciences cognitives et constitue le fil conducteur de cette thèse. Dans un premier temps, nous nous sommes intéressés aux mécanismes neuraux et computationnels permettant l’ajustement du processus de décision perceptuelle à son contexte. Nous avons montré que l’information a priori disponible pour prédire nos choix diminue la distance au seuil de décision, régulant ainsi dynamiquement la quantité d’information sensorielle nécessaire pour sélectionner une action. Pendant la prise de décision perceptuelle, le cortex cingulaire antérieur ajuste le seuil de décision proportionnellement à la quantité d’information prédictive disponible et le cortex dorso-latéral préfrontal implémente l’accumulation progressive d’information sensorielle. Dans un deuxième temps, nous avons abordé la question de l’unicité, au travers des domaines cognitifs, des mécanismes neuro-computationnels implémentant la prise de décision. Nous avons montré qu’un modèle de décision par échantillonnage séquentiel utilisant la valeur subjective espérée de chaque option prédisait avec précision le comportement de sujets lors de choix économiques risqués. Pendant la décision, la portion médiale du cortex orbito-frontal code la différence entre les valeurs subjectives des options considérées, exprimées sur une échelle de valeur commune. Ce signal orbito-frontal médian sert d’entrée à un processus de décision par échantillonnage séquentiel implémenté dans le cortex dorso-latéral préfrontal. Pris ensemble, nos travaux précisent les contours d’une architecture fonctionnelle de la prise de décision dans le cortex préfrontal humain en établissant une cartographie des modules computationnels qu’il implémente, mais aussi en caractérisant la façon dont l’intégration fonctionnelle de ces régions cérébrales permet l’émergence de la capacité à prendre des décisions / Decision-making is the selection of an alternative according to our inner goals. Perceptual decisions, the selection of an action based on our perceptions, are made when sensory evidence accumulated over time reaches a decision threshold. This cognitive process is well accounted for by sequential sampling models of decision-making. Moreover, the model-driven neurobiological study of the decision-making process has linked the accumulation of sensory information with a parieto-prefrontal cortical network. The architecture of these cortical networks, the algorithms implemented and the mapping of elementary computations onto biological structures are the questions at the core of this thesis. First, we investigated the neural mechanisms underlying the contextual modulation of the decision-making process. We showed that predictive information on the forthcoming stimuli decreased the distance to the decision threshold, adjusting dynamically the amount of sensory information required to commit to a choice. In our study, the anterior cingulate cortex modulated the decision threshold in proportion to the amount of predictive information and the dorso-lateral prefrontal cortex accumulated sensory information. Then, we addressed the question of the unicity across cognitive domains of the neuro-computational mechanisms of decision-making. We showed that a sequential sampling model of decision-making using subjective values as its inputs precisely predicted Human economic decision-making behavior. Moreover, we showed that the medial part of the orbito-frontal cortex coded the difference between the subjective values of the options under scrutiny on a common scale. This orbito-frontal decision-related value signal drove the sequential sampling decision-making process implemented in the dorso-lateral prefrontal cortex. Taken together, our work delineates a functional architecture of Human decision-making by mapping elementary computations onto the human prefrontal cortex and by characterizing how the functional integration between these brain regions subserves the ability to make choices
|
15 |
Structuration automatique en locuteurs par approche acoustiqueZhu, Xuan 15 October 2007 (has links) (PDF)
Cette thèse porte sur la structuration en locuteurs de différents types d'enregistrements audio, en particulier des journaux télévisés ou radiophoniques et des réunions. La structuration en locuteurs a pour objectif de répondre à la question ''qui a parlé quand'' dans un document audio donné. Cette thèse fait l'hypothèse qu'aucune connaissance a priori sur la voix de locuteurs ou sur leur nombre n'est disponible. La principale originalité du système de structuration en locuteurs pour des journaux télévisés ou radiophoniques présenté est de combiner deux étapes de regroupement en locuteurs: la première étape se fonde sur le Critère d'Information Bayesien (BIC) avec des Gaussiennes à matrice de covariance pleine et la deuxième étape de regroupement recombine les classes résultant en utilisant des techniques proposées pour l'identification du locuteur et utilisant des modèle de mélange de Gaussiennes (GMM) adaptés à partir d'un modèle générique. Ce système a été validé dans l'évaluation internationale NIST RT-04F (Rich Transcription 2004 Fall) et l'évaluation française ESTER 2005 du projet Technolangue EVALDA. Il a obtenu les meilleurs résultats dans les deux évaluations. Le système de structuration en locuteurs conçu pour les journaux télévisés a également été adapté aux réunions. Il intègre un nouveau détecteur de parole fondé sur le rapport de log-vraisemblance. Diverses techniques de normalisation des paramètres acoustiques et différentes représentations acoustiques ont été testées au cours de cette adaptation. Dans la dernière évaluation du NIST sur de réunions, le système adapté a eu un taux d'erreur de 26% environ sur les données de conférences et séminaires.
|
16 |
Modèles hiérarchiques de Dirichlet à temps continuFaires, Hafedh 03 October 2008 (has links) (PDF)
Nous étudions les processus de Dirichlet dont le paramètre est une mesure proportionnelle à la loi d'un processus temporel, par exemple un mouvement Brownien ou un processus de saut Markovien. Nous les utilisons pour proposer des modèles hiérarchiques bayésiens basés sur des équations différentielles stochastiques en milieu aléatoire. Nous proposons une méthode pour estimer les paramètres de tels modèles et nous l'illustrons sur l'équation de Black-Scholes en milieu aléatoire.
|
17 |
Optimisation de l’administration des médicaments chez les enfants transplantés grâce à la pharmacocinétique de populationKassir, Nastya 03 1900 (has links)
Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes.
Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients.
Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation.
Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité.
Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité.
Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements.
En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation. / This thesis deals with the application of population pharmacokinetics in order to optimize the use of certain medications in immunocompromised children undergoing transplantation. Among the various drugs used in immunocompromised children, the use of busulfan, tacrolimus and voriconazole remains problematic, particularly because of high interindividual variability in their pharmacokinetics necessitating individualized doses based on therapeutic drug monitoring. In addition, these drugs have not been studied in children and the doses are adapted from adults. This practice does not take into account the pharmacological characteristics of pediatrics throughout their development and makes illusory the extrapolation of data acquired in adults to children.
The work done in this thesis studied sequentially the pharmacokinetics of busulfan, voriconazole and tacrolimus by a population approach (non-linear mixed effects models). The developed models have identified the main sources of interindividual variability in the pharmacokinetic parameters of these drugs. The identified covariates are body surface area and weight. These results confirm the importance of taking into account the effect of growth in children. These parameters were allometrically included in the models. This approach allows separating the effect of size from other covariates and enables the comparison of pediatric pharmacokinetic parameters with those of adults. The inclusion of these explanatory covariates should improve the management a priori of patients.
The developed models were evaluated to confirm their stability, performance, and their ability to answer the original objectives of modeling.
In the case of busulfan, the validated model was used to simulate dosing regimens that improve reaching the target exposure, reduce treatment failure and toxicity episodes.
The developed population pharmacokinetic model for voriconazole confirmed the large variability in its pharmacokinetics in immunocompromised children. The limited data did not allow identification of covariates explaining this variability.
Based on the population pharmacokinetic model of tacrolimus, a Bayesian estimator was developed, which is the first in this population of pediatric liver transplant recipients. This estimator can predict pharmacokinetic parameters and individual exposure to tacrolimus based on a limited number of samples.
In conclusion, this thesis allowed applying the population pharmacokinetics approach in pediatrics to explore the characteristics of this population and describe the pharmacokinetic variability of drugs used in immunocompromised children, for the individualization of treatment. Pharmacokinetic tools developed are part of efforts to decrease the rate of treatment failure and the incidence of adverse and toxic events in immunocompromised and transplanted pediatrics.
|
18 |
Modèles de caméras et algorithmes pour la création de contenu video 3D / Camera Models and algorithms for 3D video content creationPujades Rocamora, Sergi 14 October 2015 (has links)
Des optiques à longue focale ont été souvent utilisées dans le cinéma 2D et la télévision, soit dans le but de se rapprocher de la scène, soit dans le but de produire un effet esthétique grâce à la déformation de la perspective. Toutefois, dans le cinéma ou la télévision 3D, l'utilisation de longues focales crée le plus souvent un "effet carton” ou de la divergence oculaire.Pour résoudre ce problème, les méthodes de l'état de l'art utilisent des techniques de transformation de la disparité, qui sont une généralisation de l'interpolation de points de vue.Elles génèrent de nouvelles paires stéréoscopiques à partir des deux séquences d'images originales. Nous proposons d'utiliser plus de deux caméras pour résoudre les problèmes non résolus par les méthodes de transformation de la disparité.Dans la première partie de la thèse, nous passons en revue les causes de la fatigue visuelle et de l'inconfort visuel lors de la visualisation d'un film stéréoscopique. Nous modélisons alors la perception de la profondeur de la vision stéréoscopique d'une scène filmée en 3D avec deux caméras, et projetée dans une salle de cinéma ou sur un téléviseur 3D. Nous caractérisons mathématiquement cette distorsion 3D, et formulons les contraintes mathématiques associées aux causes de la fatigue visuelle et de l'inconfort. Nous illustrons ces distorsions 3D avec un nouveau logiciel interactif, la “salle de projection virtuelle".Afin de générer les images stéréoscopiques souhaitées, nous proposons d'utiliser le rendu basé image. Ces techniques comportent généralement deux étapes. Tout d'abord, les images d'entrée sont transformées vers la vue cible, puis les images transformées sont mélangées. Les transformations sont généralement calculés à l'aide d'une géométrie intermédiaire (implicite ou explicite). Le mélange d'images a été largement étudié dans la littérature et quelques heuristiques permettent d'obtenir de très bonnes performances.Cependant, la combinaison des heuristiques proposées n'est pas simple et nécessite du réglage manuel de nombreux paramètres.Dans cette thèse, nous proposons une nouvelle approche bayésienne au problème de synthèse de nouveaux points de vue, basé sur un modèle génératif.Le modèle génératif proposé tient compte de l'incertitude sur la transformation d'image. Le formalisme bayésien nous permet de déduire l'énergie du modèle génératif et de calculer les images désirées correspondant au maximum a posteriori. La méthode dépasse en termes de qualité les techniques de l'état de l'art du rendu basé image sur des jeux de données complexes. D'autre part, les équations de l'énergie fournissent une formalisation des heuristiques largement utilisés dans les techniques de rendu basé image.Le modèle génératif proposé aborde également le problème de la super-résolution, permettant de rendre des images à une résolution plus élevée que les images de départ.Dans la dernière partie de cette thèse, nous appliquons la nouvelle technique de rendu au cas du zoom stéréoscopique et nous montrons ses performances. / Optics with long focal length have been extensively used for shooting 2D cinema and television, either to virtually get closer to the scene or to produce an aesthetical effect through the deformation of the perspective. However, in 3D cinema or television, the use of long focal length either creates a “cardboard effect” or causes visual divergence. To overcome this problem, state-of-the-art methods use disparity mapping techniques, which is a generalization of view interpolation, and generate new stereoscopic pairs from the two image sequences. We propose to use more than two cameras to solve for the remaining issues in disparity mapping methods.In the first part of the thesis, we review the causes of visual fatigue and visual discomfort when viewing a stereoscopic film. We then model the depth perception from stereopsis of a 3D scene shot with two cameras, and projected in a movie theater or on a 3DTV. We mathematically characterize this 3D distortion, and derive the mathematical constraints associated with the causes of visual fatigue and discomfort. We illustrate these 3D distortions with a new interactive software, “The Virtual Projection Room”.In order to generate the desired stereoscopic images, we propose to use image-based rendering. Those techniques usually proceed in two stages. First, the input images are warped into the target view, and then the warped images are blended together. The warps are usually computed with the help of a geometric proxy (either implicit or explicit). Image blending has been extensively addressed in the literature and a few heuristics have proven to achieve very good performance. Yet the combination of the heuristics is not straightforward, and requires manual adjustment of many parameters.In this thesis, we propose a new Bayesian approach to the problem of novel view synthesis, based on a generative model taking into account the uncertainty of the image warps in the image formation model. The Bayesian formalism allows us to deduce the energy of the generative model and to compute the desired images as the Maximum a Posteriori estimate. The method outperforms state-of-the-art image-based rendering techniques on challenging datasets. Moreover, the energy equations provide a formalization of the heuristics widely used in image-based rendering techniques. Besides, the proposed generative model also addresses the problem of super-resolution, allowing to render images at a higher resolution than the initial ones.In the last part of this thesis, we apply the new rendering technique to the case of the stereoscopic zoom and show its performance.
|
19 |
Triaxial galaxy clusters / Amas de galaxies triaxiauxBonamigo, Mario 22 September 2016 (has links)
Il est bien établit théoriquement et observationnellement que les amas de galaxies ne sont pas des objets sphèriques, et qu'ils sont beaucoup mieux décrits par la géométrie triaxiale. Malgré cela, les travaux sur la forme tri-dimensionnelle des amas de galaxies sont encore trés rares. L'objet de cette thèse est de contribuer à cette problématique naissante. L'originalité de ce travail est d'aborder ce sujet théoriquement et observationnellement. J'ai mesuré la forme d'amas de galaxies simulés, proposant des prédictions sur la forme des haloes de matière noire. J'ai ensuite développé un algorithme qui se propose de combiner des données en lentilles gravitationnelles et en rayons X afin de contraindre un modèle de haloe triaxial. L'algorithme est testé sur des données simulées. Finalement, je présente l'analyse en rayons X de Abell 1703, qui, combinée avec l'analyse en lentilles gravitationnelles, permettra de déterminer la forme de Abell 1703. / It is well established both theoretically and observationally that galaxy clusters are not spherical objects and that they are much better approximated as triaxial objects. This thesis focusses on the three dimencional shape of galaxy clusters. The originality of my approach is to tackle the problem both theoretically and observationally. First, I have measured the shape of dark matter haloes in the Millenium XXL and Sbarbine simulations, providing predictions for dark matter halo shape over 5 order in magnitude in mass. Then, I have developed an algorithm aimed at fitting simultaneously lensing and X-ray data in order to constrain a triaxial mass distribution. The algorithm is tested and characterized on mock data sets. It is found to be able to recover the input parameters. Finally, I present the X-ray analysis of galaxy cluster Abell 1703, which will be combined with the existing lensing analysis in order to investigate its shape.
|
20 |
Compréhension de situation et estimation de risques pour les aides à la conduite préventives / Situation understanding and risk assessment framework for preventive driver assistanceArmand, Alexandre 31 May 2016 (has links)
Les nouvelles voitures sont pourvues d’aides à la conduite qui améliorent le confort et la sécurité. Bien que ces systèmes contribuent à la réduction des accidents de la route, leur déploiement montre que leurs performances sont encore limitées par leur faible compréhension de situation. Cela est principalement lié aux limites des capteurs de perception, et à la non prise en compte du contexte. Ces limites se traduisent par des détections de risques tardives, et donc en assistances sous forme d’alertes ou de freinages automatiques. Cette thèse se concentre sur l’introduction d’informations contextuelles dans le processus de décision des systèmes d’aides à la conduite. Le but est de détecter des risques plus tôt que les systèmes conventionnels, ainsi que d’améliorer la confiance qu’on peut avoir dans les informations générées.Le comportement d’un véhicule dépend de divers éléments tels que le réseau routier, les règles de la circulation, ainsi que de la cohabitation avec d’autres usagers de la route. Ces interactions se traduisent par une interdépendance forte entre chaque élément. De plus, bien que chaque conducteur doive suivre les mêmes règles de circulation, ils peuvent réagir de façon différente à une même situation. Cela implique qu’un même comportement peut être considéré comme sûr ou risqué, selon le conducteur. Ces informations doivent être prises en compte dans le processus de prise de décision des systèmes. Cette thèse propose un cadre qui combine les informations a priori contenues dans les cartes de navigation numériques avec l’information temps réel fournie par les capteurs de perception et/ou communications sans fil, pour permettre une meilleure compréhension de situation et ainsi mieux anticiper les risques. Ce principe est comparable aux tâches qu’un copilote doit accomplir. Ces travaux se répartissent en deux principales étapes : la compréhension de situation, et l’estimation des risques.L’étape de compréhension de situation consiste à donner du sens aux différentes observations réalisées par les capteurs de perception, en exploitant des informations a priori. Le but est de comprendre comment les entités perçues interagissent, et comment ces interactions contraignent le comportement du véhicule. Cette étape établit les relations spatio-temporelles entre les entités perçues afin d’évaluer leur pertinence par rapport au véhicule, et ainsi extraire les entités les plus contraignantes. Pour cela, une ontologie contenant des informations a priori sur la façon dont différentes entités de la route interagissent est proposée. Cette première étape a été testée en temps réel, utilisant des données enregistrées sur un véhicule évoluant en environnements contraints.L’étape de détection des risques s’appuie sur la situation perçue, et sur les signes annonciateurs de risques. Le cas d’usage choisi pour cette étude se concentre sur les intersections, puisqu’une grande majorité des accidents de la route y ont lieux. La manière de réagir d’un conducteur lorsqu’il se rapproche d’une intersection est apprise par des Processus Gaussiens. Cette connaissance à priori du conducteur est ensuite exploitée, avec les informations contextuelles, par un réseau Bayésien afin d’estimer si le conducteur semble interagir comme attendu avec l’intersection. L’approche probabiliste qui a été choisie permet de prendre en compte les incertitudes dont souffrent chacune des sources d’information. Des tests ont été réalisés à partir de données enregistrées à bord d’un véhicule afin de valider l’approche. Les résultats montrent qu’en prenant en compte les individualités des conducteurs, leurs actions sur le véhicule, ainsi que l’état du véhicule, il est possible de mieux estimer si le conducteur interagit comme attendu avec l’environnement, et donc d’anticiper les risques. Finalement, il est montré qu’il est possible de générer une assistance plus préventive que les systèmes d’aide à la conduite conventionnels. / Modern vehicles include advanced driving assistance systems for comfort and active safety features. Whilst these systems contribute to the reduction of road accidents, their deployment has shown that performance is constrained by their limited situation understanding capabilities. This is mainly due to perception constraints and by ignoring the context within which these vehicles evolve. It results in last minute risk assessment, and thus in curative assistance in the form of warning alerts or automatic braking. This thesis focuses on the introduction of contextual information into the decision processes of driving assistance systems. The overall purpose is to infer risk earlier than conventional driving assistance systems, as well as to enhance the level of trust on the information provided to drivers.Several factors govern the vehicle behaviour. These include the road network and traffic rules, as well as other road users such as vehicles and pedestrians with which the vehicle interacts. This results in strong interdependencies amongst all entities, which govern their behaviour. Further, whilst traffic rules apply equally to all participants, each driver interacts differently with the immediate environment, leading to different risk level for a given behaviour. This information must be incorporated within the decision-making processes of these systems. In this thesis, a framework is proposed that combines a priori information from digital navigation maps with real time information from on board vehicle sensors and/or external sources via wireless communications links, to infer a better situation understanding, which should enable to anticipate risks. This tenet is similar to the task of a co-pilot when using a priori notated road information. The proposed approach is constrained by using only data from close to production sensors. The framework proposed in this thesis consists of two phases, namely situation understanding and risk assessment.The situation understanding phase consists in performing a high level interpretation of all observations by including a priori information within the framework. The purpose is to understand how the perceived road entities interact, and how the interactions constrain the vehicle behaviour. This phase establishes the spatio-temporal relationships between the perceived entities to determine their relevance with respect to the subject vehicle motion, and then to identify which entities to be tracked. For this purpose, an ontology is proposed. It stores a priori information about the manner how different road entities relate and interact. This initial phase was tested in real time using data recorded on a passenger vehicle evolving in constrained environments.The risk assessment phase then looks into the perceived situation and into the manner how it becomes dangerous. To demonstrate the framework applicability, a use case applied to road intersections was chosen. Intersections are complex parts in the road network where different entities converge and most accidents occur. In order to detect risk situations, the manner how the driver reacts in a given situation is learned through Gaussian Processes. This knowledge about the driver is then used within a context aware Bayesian Network to estimate whether the driver is likely to interact as expected with the relevant entities or not. The probabilistic approach taken allows to take into consideration all uncertainties embedded in the observations. Field trials were performed using a passenger vehicle to validate the proposed approach. The results show that by incorporating drivers’ individualities and their actuations with the observation of the vehicle state, it is possible to better estimate whether the driver interacts as expected with the environment, and thus to anticipate risk. Further, it is shown that it is possible to generate assistance earlier than conventional safety systems.
|
Page generated in 0.4462 seconds