• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 57
  • 5
  • Tagged with
  • 162
  • 96
  • 56
  • 38
  • 34
  • 28
  • 24
  • 24
  • 22
  • 20
  • 18
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Bayesian and Quasi-Monte Carlo spherical integration for global illumination / Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale

Marques, Ricardo 22 October 2013 (has links)
La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération. / The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the previous estimate using a new set of samples, and the process is repeated until a satisfying result is achieved.
102

Approche stochastique bayésienne de la composition sémantique pour les modules de compréhension automatique de la parole dans les systèmes de dialogue homme-machine / A Bayesian Approach of Semantic Composition for Spoken Language Understanding Modules in Spoken Dialog Systems

Meurs, Marie-Jean 10 December 2009 (has links)
Les systèmes de dialogue homme-machine ont pour objectif de permettre un échange oral efficace et convivial entre un utilisateur humain et un ordinateur. Leurs domaines d'applications sont variés, depuis la gestion d'échanges commerciaux jusqu'au tutorat ou l'aide à la personne. Cependant, les capacités de communication de ces systèmes sont actuellement limités par leur aptitude à comprendre la parole spontanée. Nos travaux s'intéressent au module de compréhension de la parole et présentent une proposition entièrement basée sur des approches stochastiques, permettant l'élaboration d'une hypothèse sémantique complète. Notre démarche s'appuie sur une représentation hiérarchisée du sens d'une phrase à base de frames sémantiques. La première partie du travail a consisté en l'élaboration d'une base de connaissances sémantiques adaptée au domaine du corpus d'expérimentation MEDIA (information touristique et réservation d'hôtel). Nous avons eu recours au formalisme FrameNet pour assurer une généricité maximale à notre représentation sémantique. Le développement d'un système à base de règles et d'inférences logiques nous a ensuite permis d'annoter automatiquement le corpus. La seconde partie concerne l'étude du module de composition sémantique lui-même. En nous appuyant sur une première étape d'interprétation littérale produisant des unités conceptuelles de base (non reliées), nous proposons de générer des fragments sémantiques (sous-arbres) à l'aide de réseaux bayésiens dynamiques. Les fragments sémantiques générés fournissent une représentation sémantique partielle du message de l'utilisateur. Pour parvenir à la représentation sémantique globale complète, nous proposons et évaluons un algorithme de composition d'arbres décliné selon deux variantes. La première est basée sur une heuristique visant à construire un arbre de taille et de poids minimum. La seconde s'appuie sur une méthode de classification à base de séparateurs à vaste marge pour décider des opérations de composition à réaliser. Le module de compréhension construit au cours de ce travail peut être adapté au traitement de tout type de dialogue. Il repose sur une représentation sémantique riche et les modèles utilisés permettent de fournir des listes d'hypothèses sémantiques scorées. Les résultats obtenus sur les données expérimentales confirment la robustesse de l'approche proposée aux données incertaines et son aptitude à produire une représentation sémantique consistante / Spoken dialog systems enable users to interact with computer systems via natural dialogs, as they would with human beings. These systems are deployed into a wide range of application fields from commercial services to tutorial or information services. However, the communication skills of such systems are bounded by their spoken language understanding abilities. Our work focus on the spoken language understanding module which links the automatic speech recognition module and the dialog manager. From the user’s utterance analysis, the spoken language understanding module derives a representation of its semantic content upon which the dialog manager can decide the next best action to perform. The system we propose introduces a stochastic approach based on Dynamic Bayesian Networks (DBNs) for spoken language understanding. DBN-based models allow to infer and then to compose semantic frame-based tree structures from speech transcriptions. First, we developed a semantic knowledge source covering the domain of our experimental corpus (MEDIA, a French corpus for tourism information and hotel booking). The semantic frames were designed according to the FrameNet paradigm and a hand-craft rule-based approach was used to derive the seed annotated training data.Then, to derive automatically the frame meaning representations, we propose a system based on a two decoding step process using DBNs : first basic concepts are derived from the user’s utterance transcriptions, then inferences are made on sequential semantic frame structures, considering all the available previous annotation levels. The inference process extracts all possible sub-trees according to lower level information and composes the hypothesized branches into a single utterance-span tree. The composition step investigates two different algorithms : a heuristic minimizing the size and the weight of the tree ; a context-sensitive decision process based on support vector machines for detecting the relations between the hypothesized frames. This work investigates a stochastic process for generating and composing semantic frames using DBNs. The proposed approach offers a convenient way to automatically derive semantic annotations of speech utterances based on a complete frame hierarchical structure. Experimental results, obtained on the MEDIA dialog corpus, show that the system is able to supply the dialog manager with a rich and thorough representation of the user’s request semantics
103

Semi-parametric bayesian model, applications in dose finding studies / Modèle bayésien semi-paramétrique, applications en positionnement de dose

Clertant, Matthieu 22 June 2016 (has links)
Les Phases I sont un domaine des essais cliniques dans lequel les statisticiens ont encore beaucoup à apporter. Depuis trente ans, ce secteur bénéficie d'un intérêt croissant et de nombreuses méthodes ont été proposées pour gérer l'allocation séquentielle des doses aux patients intégrés à l'étude. Durant cette Phase, il s'agit d'évaluer la toxicité, et s'adressant à des patients gravement atteints, il s'agit de maximiser les effets curatifs du traitement dont les retours toxiques sont une conséquence. Parmi une gamme de doses, on cherche à déterminer celle dont la probabilité de toxicité est la plus proche d'un seuil souhaité et fixé par les praticiens cliniques. Cette dose est appelée la MTD (maximum tolerated dose). La situation canonique dans laquelle sont introduites la plupart des méthodes consiste en une gamme de doses finie et ordonnée par probabilité de toxicité croissante. Dans cette thèse, on introduit une modélisation très générale du problème, la SPM (semi-parametric methods), qui recouvre une large classe de méthodes. Cela permet d'aborder des questions transversales aux Phases I. Quels sont les différents comportements asymptotiques souhaitables? La MTD peut-elle être localisée? Comment et dans quelles circonstances? Différentes paramétrisations de la SPM sont proposées et testées par simulations. Les performances obtenues sont comparables, voir supérieures à celles des méthodes les plus éprouvées. Les résultats théoriques sont étendus au cas spécifique de l'ordre partiel. La modélisation de la SPM repose sur un traitement hiérarchique inférentiel de modèles satisfaisant des contraintes linéaires de paramètres inconnus. Les aspects théoriques de cette structure sont décrits dans le cas de lois à supports discrets. Dans cette circonstance, de vastes ensembles de lois peuvent aisément être considérés, cela permettant d'éviter les cas de mauvaises spécifications. / Phase I clinical trials is an area in which statisticians have much to contribute. For over 30 years, this field has benefited from increasing interest on the part of statisticians and clinicians alike and several methods have been proposed to manage the sequential inclusion of patients to a study. The main purpose is to evaluate the occurrence of dose limiting toxicities for a selected group of patients with, typically, life threatening disease. The goal is to maximize the potential for therapeutic success in a situation where toxic side effects are inevitable and increase with increasing dose. From a range of given doses, we aim to determine the dose with a rate of toxicity as close as possible to some threshold chosen by the investigators. This dose is called the MTD (maximum tolerated dose). The standard situation is where we have a finite range of doses ordered with respect to the probability of toxicity at each dose. In this thesis we introduce a very general approach to modeling the problem - SPM (semi-parametric methods) - and these include a large class of methods. The viewpoint of SPM allows us to see things in, arguably, more relevant terms and to provide answers to questions such as asymptotic behavior. What kind of behavior should we be aiming for? For instance, can we consistently estimate the MTD? How, and under which conditions? Different parametrizations of SPM are considered and studied theoretically and via simulations. The obtained performances are comparable, and often better, to those of currently established methods. We extend the findings to the case of partial ordering in which more than one drug is under study and we do not necessarily know how all drug pairs are ordered. The SPM model structure leans on a hierarchical set-up whereby certain parameters are linearly constrained. The theoretical aspects of this structure are outlined for the case of distributions with discrete support. In this setting the great majority of laws can be easily considered and this enables us to avoid over restrictive specifications than can results in poor behavior.
104

Credit market imperfections and business cycles / Les imperfections du marché de crédit et le cycle d'affaires

Ben Mohamed, Imen 23 November 2015 (has links)
La crise financière de 2009 a ravivé le débat entre les classiques et les keynésiens concernant le rôle de la finance dans le cycle d’affaire. Cette thèse étudie les conséquences macroéconomiques des imperfections du marché de crédit ainsi que quantifie leur impact sur le marché de travail. L’interaction entre chômage et frictions financière passe par l’hypothèse que les postes vacants sont financés par des fonds externes qui sont plus couteux qu’un financement interne, de par de l’impact de l’asymétrie d’information sur le marché du crédit. Il est alors montré, à l’aide de simulation d’un modèle DSGE calibré sur données US., qu’un choc financier négatif, i.e. un choc qui augmente la prime de risque sur le marché du crédit ou un choc qui détériore le bilan des entrepreneurs, réduit de manière significative les capacités d’emprunt, et, par conséquent, la création d’emplois diminue spécialement. En outre, un choc d'incertitude engendre une augmentation du taux de chômage et rend cette augmentation plus persistante en période de crise. Ce résultat est confirmé par une évidence empirique qui consistait à estimer un modèle VAR bayésien, où des variables de marché de travail réelles et financières. / The crisis of 2009 raised the question whether the financial conditions matter for the business cycles and the propagation of shocks originating in the financial sphere. I tried to drive a fine analysis of this issue using micro-founded general equilibrium models. The modelling choice was backed by empirical motivations. In three essays, i study the impact of monetary and financial shocks on growth and labour market dynamics. First, an expansionary monetary policy eases credit conditions, raises risk tolerance and the quality of borrowers and generates a liquidity effect. The potency of the monetary policy and the size of the credit channel depend considerably on the degree of financial frictions in the credit market. Second, a restrictive monetary policy shock, an positive credit shock and a positive uncertainty shocks have similar effects on the economy: they plunge the economy in a recession, with output, job creations, and hours worked decreasing, while unemployment and job destructions increase. In all cases the interest rate spread increase, therefore indicating that financial conditions deteriorate, which is interpreted as a sign that financial frictions play a critical role in the propagation of these shocks. Third, the interaction between financial and labour market frictions does exist. The interplay between the two indeed plays a role in propagating the shocks. A shock to net worth, a credit shock and an uncertainty shock play a non-trivial role for the dynamics on the labour market.
105

Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU / On-line decomposition of iEMG signals using GPU-implemented Bayesian filtering

Yu, Tianyi 28 January 2019 (has links)
Un algorithme de décomposition des unités motrices constituant un signal électromyographiques intramusculaires (iEMG) a été proposé au laboratoire LS2N. Il s'agit d'un filtrage bayésien estimant l'état d'un modèle de Markov caché. Cet algorithme demande beaucoup de temps d'execution, même pour un signal ne contenant que 4 unités motrices. Dans notre travail, nous avons d'abord validé cet algorithme dans une structure série. Nous avons proposé quelques modifications pour le modèle de recrutement des unités motrices et implémenté deux techniques de pré-traitement pour améliorer la performance de l'algorithme. Le banc de filtres de Kalman a été remplacé par un banc de filtre LMS. Le filtre global consiste en l'examen de divers scénarios arborescents d'activation des unités motrices: on a introduit deux techniques heuristiques pour élaguer les divers scénarios. On a réalisé l'implémentation GPU de cet algorithme à structure parallèle intrinsèque. On a réussi la décomposition de 10 signaux expérimentaux enregistrés sur deux muscules, respectivement avec électrode aiguille et électrode filaire. Le nombre d'unités motrices est de 2 à 8. Le pourcentage de superposition des potentiels d'unité motrice, qui représente la complexité de signal, varie de 6.56 % à 28.84 %. La précision de décomposition de tous les signaux sont plus que 90 %, sauf deux signaux en 30 % MVC , sauf pour deux signaux qui sont à 30 % MVC et dont la précision de décomposition est supérieure à 85%. Nous sommes les premiers à réaliser la décomposition en temps réel pour un signal constitué de 10 unités motrices. / :A sequential decomposition algorithm based on a Hidden Markov Model of the EMG, that used Bayesian filtering to estimate the unknown parameters of discharge series of motor units was previously proposed in the laboratory LS2N. This algorithm has successfully decomposed the experimental iEMG signal with four motor units. However, the proposed algorithm demands a high time consuming. In this work, we firstly validated the proposed algorithm in a serial structure. We proposed some modifications for the activation process of the recruitment model in Hidden Markov Model and implemented two signal pre-processing techniques to improve the performance of the algorithm. Then, we realized a GPU-oriented implementation of this algorithm, as well as the modifications applied to the original model in order to achieve a real-time performance. We have achieved the decomposition of 10 experimental iEMG signals acquired from two different muscles, respectively by fine wire electrodes and needle electrodes. The number of motor units ranges from 2 to 8. The percentage of superposition, representing the complexity of iEMG signal, ranges from 6.56 % to 28.84 %. The accuracies of almost all experimental iEMG signals are more than90 %, except two signals at 30 % MVC (more than 85 %). Moreover, we realized the realtime decomposition for all these experimental signals by the parallel implementation. We are the first one that realizes the real time full decomposition of single channel iEMG signal with number of MUs up to 10, where full decomposition means resolving the superposition problem. For the signals with more than 10 MUs, we can also decompose them quickly, but not reaching the real time level.
106

Study of Egyptian macroeconomic fluctuations (1974-2010) / Analyse des fluctuations macroéconomiques de l'économie égyptienne (1974-2010)

Sahloul, Ahmed 30 April 2015 (has links)
Cette thèse étudie les fluctuations macroéconomiques égyptiennes et compare leurs sources avec celles de certains pays du Moyen-Orient et Afrique du Nord (MENA). Un large éventail de méthodes économétriques sont utilisées pour examiner la synchronisation entre les cycles classiques et de croissance égyptiens et ceux de la région MENA, et de quantifier leurs sources de fluctuations ainsi que leurs réponses à ces sources de chocs. Nous ne trouvons aucune preuve de la synchronisation entre les cycles égyptiens et ceux de la région MENA et des pays développés. Les sources des fluctuations égyptiennes sont presque également réparties entre les chocs internes et étrangers, et les chocs du prix du pétrole semblent être le principal moteur de fluctuations de la production. En outre, la capacité de l'économie à contenir l'impact domestique des chocs externes négatifs à travers les chocs domestiques de l'offre et la demande est positive. / This thesis studies Egyptian macroeconomic fluctuations and compares their sources to those of some Middle East and North African (MENA) countries. A wide range of econometric methods are used to investigate the synchronization among Egyptian and MENA classical and growth cycles, and to quantify their sources of fluctuations along with their responses to these sources of shocks. We find no evidence of synchronization between Egyptian cycles and those of MENA and of developed countries. The sources of Egyptian macroeconomic fluctuations are almost equally divided among domestic and foreign shocks, and oil prices shocks appear to be the main driver behind output fluctuations. Moreover, domestic supply and demand shocks play a positive role in moderating negative foreign shocks affecting the economy.
107

Lois a priori non-informatives et la modélisation par mélange / Non-informative priors and modelization by mixtures

Kamary, Kaniav 15 March 2016 (has links)
L’une des grandes applications de la statistique est la validation et la comparaison de modèles probabilistes au vu des données. Cette branche des statistiques a été développée depuis la formalisation de la fin du 19ième siècle par des pionniers comme Gosset, Pearson et Fisher. Dans le cas particulier de l’approche bayésienne, la solution à la comparaison de modèles est le facteur de Bayes, rapport des vraisemblances marginales, quelque soit le modèle évalué. Cette solution est obtenue par un raisonnement mathématique fondé sur une fonction de coût.Ce facteur de Bayes pose cependant problème et ce pour deux raisons. D’une part, le facteur de Bayes est très peu utilisé du fait d’une forte dépendance à la loi a priori (ou de manière équivalente du fait d’une absence de calibration absolue). Néanmoins la sélection d’une loi a priori a un rôle vital dans la statistique bayésienne et par conséquent l’une des difficultés avec la version traditionnelle de l’approche bayésienne est la discontinuité de l’utilisation des lois a priori impropres car ils ne sont pas justifiées dans la plupart des situations de test. La première partie de cette thèse traite d’un examen général sur les lois a priori non informatives, de leurs caractéristiques et montre la stabilité globale des distributions a posteriori en réévaluant les exemples de [Seaman III 2012]. Le second problème, indépendant, est que le facteur de Bayes est difficile à calculer à l’exception des cas les plus simples (lois conjuguées). Une branche des statistiques computationnelles s’est donc attachée à résoudre ce problème, avec des solutions empruntant à la physique statistique comme la méthode du path sampling de [Gelman 1998] et à la théorie du signal. Les solutions existantes ne sont cependant pas universelles et une réévaluation de ces méthodes suivie du développement de méthodes alternatives constitue une partie de la thèse. Nous considérons donc un nouveau paradigme pour les tests bayésiens d’hypothèses et la comparaison de modèles bayésiens en définissant une alternative à la construction traditionnelle de probabilités a posteriori qu’une hypothèse est vraie ou que les données proviennent d’un modèle spécifique. Cette méthode se fonde sur l’examen des modèles en compétition en tant que composants d’un modèle de mélange. En remplaçant le problème de test original avec une estimation qui se concentre sur le poids de probabilité d’un modèle donné dans un modèle de mélange, nous analysons la sensibilité sur la distribution a posteriori conséquente des poids pour divers modélisation préalables sur les poids et soulignons qu’un intérêt important de l’utilisation de cette perspective est que les lois a priori impropres génériques sont acceptables, tout en ne mettant pas en péril la convergence. Pour cela, les méthodes MCMC comme l’algorithme de Metropolis-Hastings et l’échantillonneur de Gibbs et des approximations de la probabilité par des méthodes empiriques sont utilisées. Une autre caractéristique de cette variante facilement mise en œuvre est que les vitesses de convergence de la partie postérieure de la moyenne du poids et de probabilité a posteriori correspondant sont assez similaires à la solution bayésienne classique / One of the major applications of statistics is the validation and comparing probabilistic models given the data. This branch statistics has been developed since the formalization of the late 19th century by pioneers like Gosset, Pearson and Fisher. In the special case of the Bayesian approach, the comparison solution of models is the Bayes factor, ratio of marginal likelihoods, whatever the estimated model. This solution is obtained by a mathematical reasoning based on a loss function. Despite a frequent use of Bayes factor and its equivalent, the posterior probability of models, by the Bayesian community, it is however problematic in some cases. First, this rule is highly dependent on the prior modeling even with large datasets and as the selection of a prior density has a vital role in Bayesian statistics, one of difficulties with the traditional handling of Bayesian tests is a discontinuity in the use of improper priors since they are not justified in most testing situations. The first part of this thesis deals with a general review on non-informative priors, their features and demonstrating the overall stability of posterior distributions by reassessing examples of [Seaman III 2012].Beside that, Bayes factors are difficult to calculate except in the simplest cases (conjugate distributions). A branch of computational statistics has therefore emerged to resolve this problem with solutions borrowing from statistical physics as the path sampling method of [Gelman 1998] and from signal processing. The existing solutions are not, however, universal and a reassessment of the methods followed by alternative methods is a part of the thesis. We therefore consider a novel paradigm for Bayesian testing of hypotheses and Bayesian model comparison. The idea is to define an alternative to the traditional construction of posterior probabilities that a given hypothesis is true or that the data originates from a specific model which is based on considering the models under comparison as components of a mixture model. By replacing the original testing problem with an estimation version that focus on the probability weight of a given model within a mixture model, we analyze the sensitivity on the resulting posterior distribution of the weights for various prior modelings on the weights and stress that a major appeal in using this novel perspective is that generic improper priors are acceptable, while not putting convergence in jeopardy. MCMC methods like Metropolis-Hastings algorithm and the Gibbs sampler are used. From a computational viewpoint, another feature of this easily implemented alternative to the classical Bayesian solution is that the speeds of convergence of the posterior mean of the weight and of the corresponding posterior probability are quite similar.In the last part of the thesis we construct a reference Bayesian analysis of mixtures of Gaussian distributions by creating a new parameterization centered on the mean and variance of those models itself. This enables us to develop a genuine non-informative prior for Gaussian mixtures with an arbitrary number of components. We demonstrate that the posterior distribution associated with this prior is almost surely proper and provide MCMC implementations that exhibit the expected component exchangeability. The analyses are based on MCMC methods as the Metropolis-within-Gibbs algorithm, adaptive MCMC and the Parallel tempering algorithm. This part of the thesis is followed by the description of R package named Ultimixt which implements a generic reference Bayesian analysis of unidimensional mixtures of Gaussian distributions obtained by a location-scale parameterization of the model. This package can be applied to produce a Bayesian analysis of Gaussian mixtures with an arbitrary number of components, with no need to specify the prior distribution.
108

Ecotoxicological impact and risk assessment of engineered TiO2 nanomaterials on water, sediments and soil by building a combined RALCA (Risk Assessment – Life Cycle Assessment) model / Évaluation des impacts et des risques écotoxicologiques des nanomatériaux manufacturés de Ti02 sur l'eau, les sédiments et les sols par une approche combinée ACV-ER (Analyse du Cycle de Vie - Évaluation du Risque)

Adam, Véronique 25 September 2015 (has links)
L’analyse du cycle de vie et l’évaluation du risque ont été combinées afin d’évaluer les impacts et risques potentiels de NMs de TiO2 dans l’eau, les sols et les sédiments à une échelle site-spécifique. Une approche analytique a permis de caractériser les NMs industriels dans les eaux, sols et sédiments et de déterminer leur comportement dans l’eau. Un modèle bayésien a été réalisé pour évaluer leur devenir dans les eaux et sédiments de la rivière, ainsi que leurs effets et risques associés en mésocosmes. Il a ainsi été montré que le TiO2 est présent en faible concentration dans l’eau de rivière. En mésocosmes, des risques ont été quantifiés sur deux espèces : Dreissena polymorpha et Gammarus roeseli. Il est apparu nécessaire de mieux caractériser la dimension fractale des agrégats de NMs pour comprendre leur sédimentation et de quantifier les effets des nano-TiO2 dans le milieu naturel, en dépassant l’approche par mésocosmes. / In this work, life cycle and risk assessments were combined in order to assess the potential impacts and risks of TiO2 NMs in water, soils and sediments at a site-specific scale. Two approaches were used: (1) An analytical approach allowed the analysis of waters, sediments and soils, the characterization of industrial NMs and the determination of their aggregation behavior in water; (2) A Bayesian modeling approach was used to assess their fate in the river water and sediments, as well as their potential effects and risks in mesocosms. It was thus shown that TiO2 occurs at low concentrations in the river water. Quantifying the TiO2 mass which deposits on the sediment requires characterizing more precisely their fractal dimension. Finally, nano-TiO2 were shown to induce risks to two species in mesocosms: it is consequently necessary to assess the potential effects of the nano-TiO2 produced on the study area in mesocosms, simulating realistic conditions.
109

Compréhension de situation et estimation de risques pour les aides à la conduite préventives / Situation understanding and risk assessment framework for preventive driver assistance

Armand, Alexandre 31 May 2016 (has links)
Les nouvelles voitures sont pourvues d’aides à la conduite qui améliorent le confort et la sécurité. Bien que ces systèmes contribuent à la réduction des accidents de la route, leur déploiement montre que leurs performances sont encore limitées par leur faible compréhension de situation. Cela est principalement lié aux limites des capteurs de perception, et à la non prise en compte du contexte. Ces limites se traduisent par des détections de risques tardives, et donc en assistances sous forme d’alertes ou de freinages automatiques. Cette thèse se concentre sur l’introduction d’informations contextuelles dans le processus de décision des systèmes d’aides à la conduite. Le but est de détecter des risques plus tôt que les systèmes conventionnels, ainsi que d’améliorer la confiance qu’on peut avoir dans les informations générées.Le comportement d’un véhicule dépend de divers éléments tels que le réseau routier, les règles de la circulation, ainsi que de la cohabitation avec d’autres usagers de la route. Ces interactions se traduisent par une interdépendance forte entre chaque élément. De plus, bien que chaque conducteur doive suivre les mêmes règles de circulation, ils peuvent réagir de façon différente à une même situation. Cela implique qu’un même comportement peut être considéré comme sûr ou risqué, selon le conducteur. Ces informations doivent être prises en compte dans le processus de prise de décision des systèmes. Cette thèse propose un cadre qui combine les informations a priori contenues dans les cartes de navigation numériques avec l’information temps réel fournie par les capteurs de perception et/ou communications sans fil, pour permettre une meilleure compréhension de situation et ainsi mieux anticiper les risques. Ce principe est comparable aux tâches qu’un copilote doit accomplir. Ces travaux se répartissent en deux principales étapes : la compréhension de situation, et l’estimation des risques.L’étape de compréhension de situation consiste à donner du sens aux différentes observations réalisées par les capteurs de perception, en exploitant des informations a priori. Le but est de comprendre comment les entités perçues interagissent, et comment ces interactions contraignent le comportement du véhicule. Cette étape établit les relations spatio-temporelles entre les entités perçues afin d’évaluer leur pertinence par rapport au véhicule, et ainsi extraire les entités les plus contraignantes. Pour cela, une ontologie contenant des informations a priori sur la façon dont différentes entités de la route interagissent est proposée. Cette première étape a été testée en temps réel, utilisant des données enregistrées sur un véhicule évoluant en environnements contraints.L’étape de détection des risques s’appuie sur la situation perçue, et sur les signes annonciateurs de risques. Le cas d’usage choisi pour cette étude se concentre sur les intersections, puisqu’une grande majorité des accidents de la route y ont lieux. La manière de réagir d’un conducteur lorsqu’il se rapproche d’une intersection est apprise par des Processus Gaussiens. Cette connaissance à priori du conducteur est ensuite exploitée, avec les informations contextuelles, par un réseau Bayésien afin d’estimer si le conducteur semble interagir comme attendu avec l’intersection. L’approche probabiliste qui a été choisie permet de prendre en compte les incertitudes dont souffrent chacune des sources d’information. Des tests ont été réalisés à partir de données enregistrées à bord d’un véhicule afin de valider l’approche. Les résultats montrent qu’en prenant en compte les individualités des conducteurs, leurs actions sur le véhicule, ainsi que l’état du véhicule, il est possible de mieux estimer si le conducteur interagit comme attendu avec l’environnement, et donc d’anticiper les risques. Finalement, il est montré qu’il est possible de générer une assistance plus préventive que les systèmes d’aide à la conduite conventionnels. / Modern vehicles include advanced driving assistance systems for comfort and active safety features. Whilst these systems contribute to the reduction of road accidents, their deployment has shown that performance is constrained by their limited situation understanding capabilities. This is mainly due to perception constraints and by ignoring the context within which these vehicles evolve. It results in last minute risk assessment, and thus in curative assistance in the form of warning alerts or automatic braking. This thesis focuses on the introduction of contextual information into the decision processes of driving assistance systems. The overall purpose is to infer risk earlier than conventional driving assistance systems, as well as to enhance the level of trust on the information provided to drivers.Several factors govern the vehicle behaviour. These include the road network and traffic rules, as well as other road users such as vehicles and pedestrians with which the vehicle interacts. This results in strong interdependencies amongst all entities, which govern their behaviour. Further, whilst traffic rules apply equally to all participants, each driver interacts differently with the immediate environment, leading to different risk level for a given behaviour. This information must be incorporated within the decision-making processes of these systems. In this thesis, a framework is proposed that combines a priori information from digital navigation maps with real time information from on board vehicle sensors and/or external sources via wireless communications links, to infer a better situation understanding, which should enable to anticipate risks. This tenet is similar to the task of a co-pilot when using a priori notated road information. The proposed approach is constrained by using only data from close to production sensors. The framework proposed in this thesis consists of two phases, namely situation understanding and risk assessment.The situation understanding phase consists in performing a high level interpretation of all observations by including a priori information within the framework. The purpose is to understand how the perceived road entities interact, and how the interactions constrain the vehicle behaviour. This phase establishes the spatio-temporal relationships between the perceived entities to determine their relevance with respect to the subject vehicle motion, and then to identify which entities to be tracked. For this purpose, an ontology is proposed. It stores a priori information about the manner how different road entities relate and interact. This initial phase was tested in real time using data recorded on a passenger vehicle evolving in constrained environments.The risk assessment phase then looks into the perceived situation and into the manner how it becomes dangerous. To demonstrate the framework applicability, a use case applied to road intersections was chosen. Intersections are complex parts in the road network where different entities converge and most accidents occur. In order to detect risk situations, the manner how the driver reacts in a given situation is learned through Gaussian Processes. This knowledge about the driver is then used within a context aware Bayesian Network to estimate whether the driver is likely to interact as expected with the relevant entities or not. The probabilistic approach taken allows to take into consideration all uncertainties embedded in the observations. Field trials were performed using a passenger vehicle to validate the proposed approach. The results show that by incorporating drivers’ individualities and their actuations with the observation of the vehicle state, it is possible to better estimate whether the driver interacts as expected with the environment, and thus to anticipate risk. Further, it is shown that it is possible to generate assistance earlier than conventional safety systems.
110

Reconstruction 3D du bassin humain à partir d'images médicales multimodales incomplètes. Application à l'assistance de la chirurgie de la prothèse totale de la hanche (PTH).

Amavizca Ruiz, Ligia Miriam 20 October 2005 (has links) (PDF)
Cette thèse se situe dans le cadre de la chirurgie de la prothèse totale de la hanche (PTH) assistée par ordinateur. Le but de ce travail est l'obtention d'un modèle 3D du bassin du patient à partir de données incomplètes. <br />Actuellement dans un processus conventionnel, la planification de la PTH se fait avec une radiographie tandis que les systèmes d'assistance chirurgicale de la PTH, utilisent un volume 3D du bassin construit à partir d'images médicales IRM, TDM ou Scanner. Néanmoins la reconstruction du volume 3D s'avère limitée par plusieurs facteurs : (i) le temps d'attente de rendez vous pour l'examen de ce type est trop long, (ii) les appareils sont peu accessibles pour les cliniques, (iii) la difficulté de la segmentation automatique pour l'obtention du volume 3D et (iv) l'impossibilité de l'exposition aux études IRM, Scanner ou TDM pour certains patients. <br />A partir de cette problématique, ce travail de thèse apporte deux contributions principales : <br />– une étude des principales caractéristiques du bassin et du fémur utiles pour la reconstruction d'un modèle 3D, <br />– une méthodologie pour l'obtention d'un volume 3D du bassin à partir d'une radiographie et quelques images échographiques. <br />La méthode proposée est composée de trois étapes : (i) obtention des données radiographiques et échographiques du bassin du patient, (ii) inférence de l'atlas du bassin du patient et (iii) obtention du modèle 3D par la déformation d'un maillage s'adaptant à l'atlas inféré. Dans ce travail un atlas est constitué par un ensemble de points caractéristiques du bassin. Pour résoudre les problèmes liés à la représentation d'un atlas générique, à l'inférence et au traitement de l'information des données radiographiques et échographiques nous avons fait appel aux techniques bayésiennes.

Page generated in 0.0591 seconds