• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 34
  • 13
  • Tagged with
  • 105
  • 45
  • 45
  • 21
  • 19
  • 18
  • 18
  • 17
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Observation du phénomène de blocage anormal de photon dans le domaine micro-onde / Anomalous photon blockade effect observation in the microwave regime

Vaneph, Cyril 30 November 2017 (has links)
Le phénomène de blocage de photon est observé lorsqu'un système à deux niveaux est fortement couplé à une cavité, limitant ainsi le nombre d'occupation des photons dans le mode de la cavité à zéro ou un. Ce phénomène est analogue au blocage de Coulomb en physique mésoscopique et a été observé en optique en couplant un atome unique ou une boîte quantique à une cavité. L'efficacité du blocage, mesurée par la fonction d'autocorrélation du deuxième ordre g2(0) augmente d'autant plus que la non-linéarité du système est grande devant la largeur de la cavité. Ce travail de thèse présente l'étude théorique et expérimentale d'un nouveau phénomène de blocage appelé "phénomène de blocage anormal de photon", dans le régime micro-onde. Ce phénomène apparaît dans un système photonique comprenant deux modes couplés, où au moins un des modes est non-linéaire. Par contraste avec le blocage de photon standard, le blocage anormal permet d'obtenir un blocage parfait (g2(0)=0) pour une non-linéarité arbitrairement faible. Nous présentons les propriétés théoriques du blocage anormal, et notamment sa formulation en termes d'états gaussiens. Afin de mettre en évidence ce phénomène, nous avons réalisé deux résonateurs supraconducteurs couplés, dont l'un est rendu non-linéaire et ajustable en fréquence par l'ajout d'un SQUID. Nous montrons les techniques de fabrication employées et la caractérisation des paramètres de notre échantillon. Enfin, nous présentons les techniques mises en œuvre pour mesurer g2(t). Cette mesure nous a permis de mettre en évidence le phénomène de blocage anormal et d'en étudier les propriétés en fonction des différents paramètres expérimentaux. / Photon blockade is observed when a two level system is strongly coupled to a cavity thus limiting the occupation number of the cavity mode to zero or one photon. This phenomenon is analogous to the Coulomb blockade effect in mesoscopic physics and has been observed in optics by coupling a single atom or a quantum dot to a cavity. The efficiency of the blockade, as measured by the second order auto-correlation function g2(0) increases with the non-linearity of the system in comparison to the cavity width. In this thesis, we present a theoretical and experimental study of a new blockade mechanism, called "anomalous photon blockade effect", in the microwave domain. This effect appears in photonics systems consisting of two coupled modes, where at least one of the mode is non-linear. In contrast to the standard blockade effect, perfect blockade (g2(0)=0) can be achieved with an arbitrary weak non-linearity strength. In the first part, we present a theoretical study of the anomalous blockade, and we use, in particular, a description in terms of gaussian states. To experimentally observe this effect, we have micro-fabricated two coupled superconductive resonators, where one of the resonator is frequency tunable and non-linear thanks to a SQUID. In the second part, we present the fabrication process and the characterization of our sample. Finally, we present the different techniques that we use to measure the auto-correlation function g2(τ). This measurement allowed us to demonstrate the anomalous blockade effect and to study its various properties as a function of the experimental parameters.
62

Estimation de la structure d’indépendance conditionnelle d’un réseau de capteurs : application à l'imagerie médicale / Estimation of conditional independence structure of a sensors network : application to biomedical imaging

Costard, Aude 10 November 2014 (has links)
Cette thèse s'inscrit dans le cadre de l'étude de réseaux de capteurs. L'objectif est de pouvoir comparer des réseaux en utilisant leurs structures d'indépendance conditionnelle. Cette structure représente les relations entre deux capteurs sachant l'information enregistrée par les autres capteurs du réseau. Nous travaillons sous l'hypothèse que les réseaux étudiés sont assimilables à des processus gaussiens multivariés. Sous cette hypothèse, estimer la structure d'indépendance conditionnelle d'un processus multivarié gaussien est équivalent à estimer son modèle graphique gaussien.Dans un premier temps, nous proposons une nouvelle méthode d'estimation de modèle graphique gaussien : elle utilise un score proportionnel à la probabilité d'un graphe de représenter la structure d'indépendance conditionnelle du processus étudié et est initialisée par Graphical lasso. Pour situer notre méthode par rapport aux méthodes existantes, nous avons développé une procédure d'évaluation des performances d'une méthode d'estimation de modèles graphiques gaussiens incluant notamment un algorithme permettant de générer des processus multivariés gaussiens dont la structure d'indépendance conditionnelle est connue.Dans un deuxième temps, nous classifions des processus à partir des estimées des structures d'indépendance conditionnelle de ces processus. Pour ce faire, nous introduisons comme métrique la divergence de Kullback-Leibler symétrisée entre les profils croisés normalisés des processus étudiés. Nous utilisons cette approche pour identifier des ensemble de régions cérébrales pertinentes pour l'étude de patients dans le coma à partir de données d'IRM fonctionnelle. / This thesis is motivated by the study of sensors networks. The goal is to compare networks using their conditional independence structures. This structure illustrates the relations between two sensors according to the information recorded by the others sensors in the network. We made the hypothesis that the studied networks are multivariate Gaussian processes. Under this assumption, estimating the conditional independence structure of a process is equivalent to estimate its Gaussian graphical model.First, we propose a new method for Gaussian graphical model estimation : it uses a score proportional to the probability of a graph to represent the conditional independence structure of the studied process and it is initialized by Graphical lasso. To compare our method to existing ones, we developed a procedure to evaluate the performances of Gaussian graphical models estimation methods. One part of this procedure is an algorithm to simulated multivariate Gaussian processes with known conditional independence structure.Then, we conduct a classification over processes thanks to their conditional independence structure estimates. To do so, we introduce a new metric : the symmetrized Kullback-Leibler divergence over normalized cross-profiles of studied processes. We use this approach to find sets of brain regions that are relevant to study comatose patients from functional MRI data.
63

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire / Survey sampling for functionnal data : building asymptotic confidence bands and considering auxiliary information

Josserand, Etienne 12 October 2011 (has links)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d’échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d’Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d’obtenir des bandes de confiance asymptotiques. Pour un plan d’échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l’estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d’allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d’information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d’échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d’un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d’en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l’estimation de la fonction de covariance. / When collections of functional data are too large to be exhaustively observed, survey sampling techniques provide an effective way to estimate global quantities such as the population mean function, without being obligated to store all the data. In this thesis, we propose a Horvitz–Thompson estimator of the mean trajectory, and with additional assumptions on the sampling design, we state a functional Central Limit Theorem and deduce asymptotic confidence bands. For a fixed sample size, we show that stratified sampling can greatly improve the estimation compared to simple random sampling. In addition, we extend Neyman’s rule of optimal allocation to the functional context. Taking into account auxiliary information has been developed with model-assisted estimators and weighted estimators with unequal probability sampling proportional to size. The case of noisy curves is also studied with the help local polynomial smoothers. To select the bandwidth, we propose a cross-validation criterion that takes into account the sampling weights. The consistency properties of our estimators are established, as well as asymptotic normality of the estimators of the mean curve. Two methods to build confidence bands are proposed. The first uses the asymptotic normality of our estimators by simulating a Gaussian process given estimated the covariance function in order to estimate the law of supremum. The second uses bootstrap techniques in a finite population that does not require to estimate the covariance function.
64

Contributions à la détection et au diagnostic de fautes dans les systèmes par réseaux Bayésiens / Contributions to fault detection and diagnosis in systems by Bayesian networks

Atoui, Mohamed Amine 29 September 2015 (has links)
Les fautes systèmes peuvent conduire à des conséquences sérieuses pour l’humain, l’environnement et le matériel. Or, y remédier peut s’avérer coûteux voire même dangereux. Ainsi, afin d’éviter ces situations, il est devenu essentiel pour les systèmes complexes modernes de détecter et d’identifier tout changement dans leur fonctionnement nominal avant que cela ne devienne critique. De ce fait, plusieurs méthodes de détection et de diagnostic ont été proposées ou améliorées durant les dernières décennies. Parmi ces méthodes, celles présentant un fort intérêt se basent sur un outil statistique et probabiliste nommé réseau Bayésien. Toutefois, la majorité d’entre elles ne tiennent pas compte du risque de fausse alarme dans leur prise de décision. L’intérêt de cette thèse est alors d’introduire sous réseau Bayésien des limites probabilistes permettant le respect d’un niveau de signification considéré. Plus exactement, nous proposons une modélisation des statistiques quadratiques et les limites leurs correspondant sur réseau Bayésien. Ceci nous permet de généraliser sous réseau Bayésien des schémas de détection de fautes comme par exemple ceux basés sur l’analyse en composantes principale. Cette modélisation nous permet également de proposer une famille de réseaux Bayésiens permettant de faire de la détection et du diagnostic de façon simultanée, tout en tenant compte d’un rejet de distance. Enfin, nous proposons un cadre probabiliste permettant d’unifier les différents réseaux Bayésiens pouvant être utilisés pour la détection ou le diagnostic de fautes. / Systems failures can potentially lead to serious consequences forhuman, environment and material, and sometimes fixing them could be expensive and even dangerous. Thus, in order to avoid these undesirable situations, it becomes very important and essential for modern complex systems to detect and identify any changes in their nominal operations before they become critical. To do so, several detection and diagnosis methods have been proposed or enhanced during the last decades. Among these methods, those with a great interest are based on a statistical and probabilistic tool named Bayesian network. However, the majority of these methods do not handle the risk of false alarm in their decision-making. The interest of this thesis is to introduce, under Bayesian network, probabilistic limits able to respect a given significance level. More precisely, we propose to model the quadratic statistics and their limits in Bayesian network. This allows us to generalize under Bayesian network fault detection schemes as those associated to the principal component analysis. This modeling allows us also to propose a family of Bayesian networks that can make detection and diagnosis simultaneously, while taking into account the distance rejection.Finally, we propose a probabilistic framework able to unify different BNs dedicated to the detection or diagnosis of systems faults.
65

Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobile

Binois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
66

Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.

Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
67

Quelques contributions à l'estimation de grandes matrices de précision / Some contributions to large precision matrix estimation

Balmand, Samuel 27 June 2016 (has links)
Sous l'hypothèse gaussienne, la relation entre indépendance conditionnelle et parcimonie permet de justifier la construction d'estimateurs de l'inverse de la matrice de covariance -- également appelée matrice de précision -- à partir d'approches régularisées. Cette thèse, motivée à l'origine par la problématique de classification d'images, vise à développer une méthode d'estimation de la matrice de précision en grande dimension, lorsque le nombre $n$ d'observations est petit devant la dimension $p$ du modèle. Notre approche repose essentiellement sur les liens qu'entretiennent la matrice de précision et le modèle de régression linéaire. Elle consiste à estimer la matrice de précision en deux temps. Les éléments non diagonaux sont tout d'abord estimés en considérant $p$ problèmes de minimisation du type racine carrée des moindres carrés pénalisés par la norme $ell_1$.Les éléments diagonaux sont ensuite obtenus à partir du résultat de l'étape précédente, par analyse résiduelle ou maximum de vraisemblance. Nous comparons ces différents estimateurs des termes diagonaux en fonction de leur risque d'estimation. De plus, nous proposons un nouvel estimateur, conçu de sorte à tenir compte de la possible contamination des données par des {em outliers}, grâce à l'ajout d'un terme de régularisation en norme mixte $ell_2/ell_1$. L'analyse non-asymptotique de la convergence de notre estimateur souligne la pertinence de notre méthode / Under the Gaussian assumption, the relationship between conditional independence and sparsity allows to justify the construction of estimators of the inverse of the covariance matrix -- also called precision matrix -- from regularized approaches. This thesis, originally motivated by the problem of image classification, aims at developing a method to estimate the precision matrix in high dimension, that is when the sample size $n$ is small compared to the dimension $p$ of the model. Our approach relies basically on the connection of the precision matrix to the linear regression model. It consists of estimating the precision matrix in two steps. The off-diagonal elements are first estimated by solving $p$ minimization problems of the type $ell_1$-penalized square-root of least-squares. The diagonal entries are then obtained from the result of the previous step, by residual analysis of likelihood maximization. This various estimators of the diagonal entries are compared in terms of estimation risk. Moreover, we propose a new estimator, designed to consider the possible contamination of data by outliers, thanks to the addition of a $ell_2/ell_1$ mixed norm regularization term. The nonasymptotic analysis of the consistency of our estimator points out the relevance of our method
68

Computing strategies for complex Bayesian models / Stratégies computationnelles pour des modèles Bayésiens complexes

Banterle, Marco 21 July 2016 (has links)
Cette thèse présente des contributions à la littérature des méthodes de Monte Carlo utilisé dans l'analyse des modèles complexes en statistique Bayésienne; l'accent est mis à la fois sur la complexité des modèles et sur les difficultés de calcul.Le premier chapitre élargit Delayed Acceptance, une variante computationellement efficace du Metropolis--Hastings, et agrandit son cadre théorique fournissant une justification adéquate pour la méthode, des limits pour sa variance asymptotique par rapport au Metropolis--Hastings et des idées pour le réglage optimal de sa distribution instrumentale.Nous allons ensuite développer une méthode Bayésienne pour analyser les processus environnementaux non stationnaires, appelées Expansion Dimension, qui considère le processus observé comme une projection depuis une dimension supérieure, où l'hypothèse de stationnarité pourrait etre acceptée. Le dernier chapitre sera finalement consacrée à l'étude des structures de dépendances conditionnelles par une formulation entièrement Bayésienne du modèle de Copule Gaussien graphique. / This thesis presents contributions to the Monte Carlo literature aimed toward the analysis of complex models in Bayesian Statistics; the focus is on both complexity related to complicate models and computational difficulties.We will first expand Delayed Acceptance, a computationally efficient variant ofMetropolis--Hastings, to a multi-step procedure and enlarge its theoretical background, providing proper justification for the method, asymptotic variance bounds relative to its parent MH kernel and optimal tuning for the scale of its proposal.We will then develop a flexible Bayesian method to analyse nonlinear environmentalprocesses, called Dimension Expansion, that essentially consider the observed process as a projection from a higher dimension, where the assumption of stationarity could hold.The last chapter will finally be dedicated to the investigation of conditional (in)dependence structures via a fully Bayesian formulation of the Gaussian Copula graphical model.
69

Modélisation d'antennes et de systèmes focaux par décomposition sur une famille de faisceaux gaussiens / Gaussian window frame analysis applied to antennas

Arias Lopez, Igor Francisco 26 June 2013 (has links)
Dans certains contextes, les méthodes classiques utilisées pour le calcul de champs rayonnés ou diffractés en présence d'obstacles de grande taille par rapport à la longueur d'onde, comme l'Optique Physique ou les méthodes de rayons, ne sont pas valides ou deviennent très lourdes en temps de calcul. La théorie des frames de Gabor fournit un cadre rigoureux permettant de décomposer une distribution de sources électromagnétiques, définie dans une ouverture équivalente plane, en une somme plus ou moins redondante de fenêtres gaussiennes. Cette décomposition peut servir de base à des algorithme de lancer de faisceaux gaussiens.Jusqu'à présent cette théorie était limitée à des décompositions dans un plan (rayonnement dans un demi-espace). L'objet de cette thèse est d'utiliser cette théorie pour décomposer des champs rayonnés ou diffractés dans toutes les directions de l'espace. Ce travail de thèse commence par une étude approfondie de l'influence des paramètres utilisés pour le calcul des coefficients de frame. La mise en oeuvre numérique permet de tester l'efficacité de techniques de troncation et de compression en termes de compromis précision/temps de calcul. Le coeur de la thèse consiste en une méthode originale de partitionnement spectral, utilisant des fonctions de partition de l'unité, qui permet d'utiliser le lancer de faisceaux gaussiens à partir de frames définis dans six plans, pour un rayonnement dans tout l'espace tridimensionnel. La formulation de la méthode est présentée. Elle est appliquée à la décomposition en faisceaux gaussiens du champ rayonné par des antennes théoriques omnidirectionnelles (réseau de dipôles et dipôle demi-onde). Une antenne réaliste sert enfin de cas test pour la mise en œuvre de la décomposition à partir de données expérimentales discrètes / In some contexts, conventional methods used for large problems involving radiated or diffracted field computations in the presence of obstacles, such as Physical Optics and ray based methods, become really inaccurate or prohibitively time-consuming. Gabor frame theory provides a rigorous framework for the initial decomposition of equivalent source distributions into a redundant set of Gaussian windows. Frame decomposition has been introduced as a first discretization step into Gaussian Beam Shooting (GBS) algorithms. Until now, frame decomposition has essentially been restricted to planar source distributions, radiating into one half space. The main goal of this thesis is to extend the application range of this theory to radiated or diffracted field decomposition into Gaussian beams propagating into the whole space. The thesis begins with a thorough study of influence of the parameters used for frame coefficient calculation. Numerical implementation is used to test the efficiency of truncation and compression techniques in terms of accuracy / computation time balance optimization. The core of the thesis consists of an original spectral domain partitioning method involving partition of unity functions, which allows to use Gaussian beam shooting from frames defined in six planes, for radiation into the whole three-dimensional space. The formulation of the method is presented and applied to the decomposition of fields radiated by theoretical omnidirectional antennas (dipole array and half-wave dipole) into Gaussian beams. A realistic antenna is used as a test case for the implementation of decompositions based on experimental discrete initial data
70

Compréhension de situation et estimation de risques pour les aides à la conduite préventives / Situation understanding and risk assessment framework for preventive driver assistance

Armand, Alexandre 31 May 2016 (has links)
Les nouvelles voitures sont pourvues d’aides à la conduite qui améliorent le confort et la sécurité. Bien que ces systèmes contribuent à la réduction des accidents de la route, leur déploiement montre que leurs performances sont encore limitées par leur faible compréhension de situation. Cela est principalement lié aux limites des capteurs de perception, et à la non prise en compte du contexte. Ces limites se traduisent par des détections de risques tardives, et donc en assistances sous forme d’alertes ou de freinages automatiques. Cette thèse se concentre sur l’introduction d’informations contextuelles dans le processus de décision des systèmes d’aides à la conduite. Le but est de détecter des risques plus tôt que les systèmes conventionnels, ainsi que d’améliorer la confiance qu’on peut avoir dans les informations générées.Le comportement d’un véhicule dépend de divers éléments tels que le réseau routier, les règles de la circulation, ainsi que de la cohabitation avec d’autres usagers de la route. Ces interactions se traduisent par une interdépendance forte entre chaque élément. De plus, bien que chaque conducteur doive suivre les mêmes règles de circulation, ils peuvent réagir de façon différente à une même situation. Cela implique qu’un même comportement peut être considéré comme sûr ou risqué, selon le conducteur. Ces informations doivent être prises en compte dans le processus de prise de décision des systèmes. Cette thèse propose un cadre qui combine les informations a priori contenues dans les cartes de navigation numériques avec l’information temps réel fournie par les capteurs de perception et/ou communications sans fil, pour permettre une meilleure compréhension de situation et ainsi mieux anticiper les risques. Ce principe est comparable aux tâches qu’un copilote doit accomplir. Ces travaux se répartissent en deux principales étapes : la compréhension de situation, et l’estimation des risques.L’étape de compréhension de situation consiste à donner du sens aux différentes observations réalisées par les capteurs de perception, en exploitant des informations a priori. Le but est de comprendre comment les entités perçues interagissent, et comment ces interactions contraignent le comportement du véhicule. Cette étape établit les relations spatio-temporelles entre les entités perçues afin d’évaluer leur pertinence par rapport au véhicule, et ainsi extraire les entités les plus contraignantes. Pour cela, une ontologie contenant des informations a priori sur la façon dont différentes entités de la route interagissent est proposée. Cette première étape a été testée en temps réel, utilisant des données enregistrées sur un véhicule évoluant en environnements contraints.L’étape de détection des risques s’appuie sur la situation perçue, et sur les signes annonciateurs de risques. Le cas d’usage choisi pour cette étude se concentre sur les intersections, puisqu’une grande majorité des accidents de la route y ont lieux. La manière de réagir d’un conducteur lorsqu’il se rapproche d’une intersection est apprise par des Processus Gaussiens. Cette connaissance à priori du conducteur est ensuite exploitée, avec les informations contextuelles, par un réseau Bayésien afin d’estimer si le conducteur semble interagir comme attendu avec l’intersection. L’approche probabiliste qui a été choisie permet de prendre en compte les incertitudes dont souffrent chacune des sources d’information. Des tests ont été réalisés à partir de données enregistrées à bord d’un véhicule afin de valider l’approche. Les résultats montrent qu’en prenant en compte les individualités des conducteurs, leurs actions sur le véhicule, ainsi que l’état du véhicule, il est possible de mieux estimer si le conducteur interagit comme attendu avec l’environnement, et donc d’anticiper les risques. Finalement, il est montré qu’il est possible de générer une assistance plus préventive que les systèmes d’aide à la conduite conventionnels. / Modern vehicles include advanced driving assistance systems for comfort and active safety features. Whilst these systems contribute to the reduction of road accidents, their deployment has shown that performance is constrained by their limited situation understanding capabilities. This is mainly due to perception constraints and by ignoring the context within which these vehicles evolve. It results in last minute risk assessment, and thus in curative assistance in the form of warning alerts or automatic braking. This thesis focuses on the introduction of contextual information into the decision processes of driving assistance systems. The overall purpose is to infer risk earlier than conventional driving assistance systems, as well as to enhance the level of trust on the information provided to drivers.Several factors govern the vehicle behaviour. These include the road network and traffic rules, as well as other road users such as vehicles and pedestrians with which the vehicle interacts. This results in strong interdependencies amongst all entities, which govern their behaviour. Further, whilst traffic rules apply equally to all participants, each driver interacts differently with the immediate environment, leading to different risk level for a given behaviour. This information must be incorporated within the decision-making processes of these systems. In this thesis, a framework is proposed that combines a priori information from digital navigation maps with real time information from on board vehicle sensors and/or external sources via wireless communications links, to infer a better situation understanding, which should enable to anticipate risks. This tenet is similar to the task of a co-pilot when using a priori notated road information. The proposed approach is constrained by using only data from close to production sensors. The framework proposed in this thesis consists of two phases, namely situation understanding and risk assessment.The situation understanding phase consists in performing a high level interpretation of all observations by including a priori information within the framework. The purpose is to understand how the perceived road entities interact, and how the interactions constrain the vehicle behaviour. This phase establishes the spatio-temporal relationships between the perceived entities to determine their relevance with respect to the subject vehicle motion, and then to identify which entities to be tracked. For this purpose, an ontology is proposed. It stores a priori information about the manner how different road entities relate and interact. This initial phase was tested in real time using data recorded on a passenger vehicle evolving in constrained environments.The risk assessment phase then looks into the perceived situation and into the manner how it becomes dangerous. To demonstrate the framework applicability, a use case applied to road intersections was chosen. Intersections are complex parts in the road network where different entities converge and most accidents occur. In order to detect risk situations, the manner how the driver reacts in a given situation is learned through Gaussian Processes. This knowledge about the driver is then used within a context aware Bayesian Network to estimate whether the driver is likely to interact as expected with the relevant entities or not. The probabilistic approach taken allows to take into consideration all uncertainties embedded in the observations. Field trials were performed using a passenger vehicle to validate the proposed approach. The results show that by incorporating drivers’ individualities and their actuations with the observation of the vehicle state, it is possible to better estimate whether the driver interacts as expected with the environment, and thus to anticipate risk. Further, it is shown that it is possible to generate assistance earlier than conventional safety systems.

Page generated in 0.0575 seconds