• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 267
  • 88
  • 54
  • 39
  • 10
  • 7
  • 6
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 560
  • 134
  • 100
  • 98
  • 76
  • 70
  • 69
  • 59
  • 53
  • 48
  • 46
  • 44
  • 41
  • 37
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Who Carries the Burden of Strength? The Impact of Colorism on Perceptions of Strong Black Women

Jean-Ceide, Cassandre Jennie 05 1900 (has links)
Using intersectionality as a guiding framework, the current study examined how gendered and racialized perceptions of Black women as "strong Black women" may be shaped by colorism. This experimental study sampled 314 Black and White participants from the community. Participants were presented with a vignette that described a Black woman coping with workplace stress in one of two ways, one congruent with strong Black womanhood (emotional restriction) and one incongruent with strong Black womanhood (emotional vulnerability), alongside the image of a light skin or dark skin Black woman. Then, participants were asked to rate how "strong" they perceived the woman in the vignette to be. A factorial ANCOVA was conducted to test how perceptions of the woman in the vignette varied based on her emotional response to workplace stress and skin tone, while controlling for perceptions of likability and competence. As hypothesized, we observed that participants perceived the woman responding to workplace stress with emotional restriction as stronger than the women who responded with emotional vulnerability. However, skin tone, nor the interaction between emotional response and skin tone had a bearing on participants' perceptions. There were also no differences in perceptions based on participant race. Through its intersectional framing, this study challenges scholars and practitioners to consider how the interplay between racism, sexism, and colorism shapes how Black women are seen by others and, in turn, how they may see themselves as strong Black women. Implications of the findings, limitations, and future directions are discussed.
292

Data-driven covariance estimation for the iterative closest point algorithm

Landry, David 06 May 2019 (has links)
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article. / Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
293

Essays on multivariate volatility and dependence models for financial time series

Noureldin, Diaa January 2011 (has links)
This thesis investigates the modelling and forecasting of multivariate volatility and dependence in financial time series. The first paper proposes a new model for forecasting changes in the term structure (TS) of interest rates. Using the level, slope and curvature factors of the dynamic Nelson-Siegel model, we build a time-varying copula model for the factor dynamics allowing for departure from the normality assumption typically adopted in TS models. To induce relative immunity to structural breaks, we model and forecast the factor changes and not the factor levels. Using US Treasury yields for the period 1986:3-2010:12, our in-sample analysis indicates model stability and we show statistically significant gains due to allowing for a time-varying dependence structure which permits joint extreme factor movements. Our out-of-sample analysis indicates the model's superior ability to forecast the conditional mean in terms of root mean square error reductions and directional forecast accuracy. The forecast gains are stronger during the recent financial crisis. We also conduct out-of-sample model evaluation based on conditional density forecasts. The second paper introduces a new class of multivariate volatility models that utilizes high-frequency data. We discuss the models' dynamics and highlight their differences from multivariate GARCH models. We also discuss their covariance targeting specification and provide closed-form formulas for multi-step forecasts. Estimation and inference strategies are outlined. Empirical results suggest that the HEAVY model outperforms the multivariate GARCH model out-of-sample, with the gains being particularly significant at short forecast horizons. Forecast gains are obtained for both forecast variances and correlations. The third paper introduces a new class of multivariate volatility models which is easy to estimate using covariance targeting. The key idea is to rotate the returns and then fit them using a BEKK model for the conditional covariance with the identity matrix as the covariance target. The extension to DCC type models is given, enriching this class. We focus primarily on diagonal BEKK and DCC models, and a related parameterisation which imposes common persistence on all elements of the conditional covariance matrix. Inference for these models is computationally attractive, and the asymptotics is standard. The techniques are illustrated using recent data on the S&P 500 ETF and some DJIA stocks, including comparisons to the related orthogonal GARCH models.
294

La relation entre le climat scolaire, le contexte scolaire et l'adoption des différents rôles lors d’une situation de violence scolaire

Pena Ibarra, Luis Patricio 04 1900 (has links)
Le sujet de la présente étude est la violence scolaire, phénomène complexe et polysémique qui préoccupe légitimement le monde de l’éducation depuis plus de trente ans. À partir des analyses factorielles exploratoires, analyses de variance factorielle et finalement analyses multivariées de covariance, cette recherche vise plus précisément à dégager la relation entre le climat scolaire, le contexte scolaire et les différents rôles adoptés par les élèves du niveau secondaire lors d’une situation de violence scolaire. Les données de la présente étude ont été collectées par Michel Janosz et son équipe pendant l’année 2010, dans quatre établissements éducatifs provenant d’une commission scolaire de la grande région de Montréal. L’échantillon de départ est composé de 1750 élèves qui fréquentent des classes ordinaires et spéciales du premier et deuxième cycle du secondaire âgés entre 10 et 18 ans. Pour fins d’analyse, deux petites écoles ainsi que les classes spéciales ont été retirées. Il demeure donc 1551 élèves dans l’échantillon initial analysé. Les résultats des analyses permettent de constater d’une part, la relation significative existante entre les dimensions du climat scolaire et l’adoption des différents rôles lors d’une situation de violence scolaire, les climats d’appartenance et de sécurité étant les plus importants, et d’autre part d’observer des différences dans les perceptions que les élèves ont de la violence scolaire selon le niveau et selon l’école. / The present study pertains to a complex and polysemic phenomenon that has preoccupied people working in the field of education since at least thirty years, that is, school violence. Using factor analysis, analysis of variance and multivariate analysis of covariance, this research aims at exploring specifically the relationship between school climate, school context and the various roles adopted by students at the high school level when they face a situation in which school violence in present. Data for this study were collected by Michel Janosz and his team in 2010, within four schools, all in the same school board of the Montreal region. The original sample comprises 1750 students who attend both standard special classes, between 10 and 18 years of age. The analyses presented are based on a reduced sample where the special classes and the two small schools have been withdrawn. Therefore, the answers from 1551 student s are used. The results show that first, there is a significant relationship between the various dimensions of school climate and the different roles adopted by students facing a situation in which violence is present, perceptions of belonging and of security being the most important. Second, all things being equal, there are significant difference between schools, and school levels.
295

Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension / DCA based algorithms for learning with sparsity in high dimensional setting and stochastical learning

Phan, Duy Nhat 15 December 2016 (has links)
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes / These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
296

Real-time multi-target tracking : a study on color-texture covariance matrices and descriptor/operator switching / Suivi temps-réel : matrices de covariance couleur-texture et commutation automatique de descripteur/opérateur

Romero Mier y Teran, Andrés 03 December 2013 (has links)
Ces technologies ont poussé les chercheurs à imaginer la possibilité d'automatiser et émuler les capacités de perception visuels des animaux et de l'homme lui-même. Depuis quelques décennies le domaine de la vision par ordinateur a essayé plusieurs approches et une vaste gamma d'applications a été développée avec un succès partielle: la recherche des images basé sur leur contenu, la exploration de donnés à partir des séquences vidéo, la ré-identification des objets par des robots, etc. Quelques applications sont déjà sur le marché et jouissent déjà d'un certain succès commercial.La reconnaissance visuelle c'est un problème étroitement lié à l'apprentissage de catégories visuelles à partir d'un ensemble limité d'instances. Typiquement deux approches sont utilisées pour résoudre ce problème: l'apprentissage des catégories génériques et la ré-identification d'instances d'un objet un particulière. Dans le dernier cas il s'agit de reconnaître un objet ou personne en particulière. D'autre part, la reconnaissance générique s'agit de retrouver tous les instances d'objets qui appartiennent à la même catégorie conceptuel: tous les voitures, les piétons, oiseaux, etc.Cette thèse propose un système de vision par ordinateur capable de détecter et suivre plusieurs objets dans les séquences vidéo. L'algorithme pour la recherche de correspondances proposé se base sur les matrices de covariance obtenues à partir d'un ensemble de propriétés des images (couleur et texture principalement). Son principal avantage c'est qu'il utilise un descripteur qui permet l'introduction des sources d'information très hétérogènes pour représenter les cibles. Cette représentation est efficace pour le suivi d'objets et son ré-identification.Quatre contributions sont introduites dans cette thèse.Tout d'abord cette thèse s'intéresse à l'invariance des algorithmes de suivi face aux changements du contexte. Nous proposons ici une méthodologie pour mesurer l’importance de l'information couleur en fonction de ses niveaux d’illumination et saturation. Puis, une deuxième partie se consacre à l'étude de différentes méthodes de suivi, ses avantages et limitations en fonction du type d'objet à suivre (rigide ou non rigide par exemple) et du contexte (caméra statique ou mobile). Le méthode que nous proposons s'adapte automatiquement et utilise un mécanisme de commutation entre différents méthodes de suivi qui considère ses qualités complémentaires. Notre algorithme se base sur un modèle de covariance qui fusionne les informations couleur-texture et le flot optique (KLT) modifié pour le rendre plus robuste et adaptable face aux changements d’illumination. Une deuxième approche se appuie sur l'analyse des différents espaces et invariants couleur à fin d'obtenir un descripteur qui garde un bon équilibre entre pouvoir discriminant et robustesse face aux changements d'illumination.Une troisième contribution porte sur le problème de suivi multi-cibles ou plusieurs difficultés apparaissent : la confusion d'identités, les occultations, la fusion et division des trajectoires-détections, etc.La dernière partie se consacre à la vitesse des algorithmes à fin de fournir une solution rapide et utilisable dans les applications embarquées. Cette thèse propose une série d'optimisations pour accélérer la mise en correspondance à l'aide de matrices de covariance. Transformations de mise en page de données, la vectorisation des calculs (à l'aide d'instructions SIMD) et certaines transformations de boucle permettent l'exécution en temps réel de l'algorithme non seulement sur les grands processeurs classiques de Intel, mais aussi sur les plateformes embarquées (ARM Cortex A9 et Intel U9300). / Visual recognition is the problem of learning visual categories from a limited set of samples and identifying new instances of those categories, the problem is often separated into two types: the specific case and the generic category case. In the specific case the objective is to identify instances of a particular object, place or person. Whereas in the generic category case we seek to recognize different instances that belong to the same conceptual class: cars, pedestrians, road signs and mugs. Specific object recognition works by matching and geometric verification. In contrast, generic object categorization often includes a statistical model of their appearance and/or shape.This thesis proposes a computer vision system for detecting and tracking multiple targets in videos. A preliminary work of this thesis consists on the adaptation of color according to lighting variations and relevance of the color. Then, literature shows a wide variety of tracking methods, which have both advantages and limitations, depending on the object to track and the context. Here, a deterministic method is developed to automatically adapt the tracking method to the context through the cooperation of two complementary techniques. A first proposition combines covariance matching for modeling characteristics texture-color information with optical flow (KLT) of a set of points uniformly distributed on the object . A second technique associates covariance and Mean-Shift. In both cases, the cooperation allows a good robustness of the tracking whatever the nature of the target, while reducing the global execution times .The second contribution is the definition of descriptors both discriminative and compact to be included in the target representation. To improve the ability of visual recognition of descriptors two approaches are proposed. The first is an adaptation operators (LBP to Local Binary Patterns ) for inclusion in the covariance matrices . This method is called ELBCM for Enhanced Local Binary Covariance Matrices . The second approach is based on the analysis of different spaces and color invariants to obtain a descriptor which is discriminating and robust to illumination changes.The third contribution addresses the problem of multi-target tracking, the difficulties of which are the matching ambiguities, the occlusions, the merging and division of trajectories.Finally to speed algorithms and provide a usable quick solution in embedded applications this thesis proposes a series of optimizations to accelerate the matching using covariance matrices. Data layout transformations, vectorizing the calculations (using SIMD instructions) and some loop transformations had made possible the real-time execution of the algorithm not only on Intel classic but also on embedded platforms (ARM Cortex A9 and Intel U9300).
297

Etude de la méthode de substitution à partir de la mesure simultanée des probabilités de fission et d'émission gamma des actinides 236U, 238U, 237Np et 238Np / Study of the surrogate method through the simultaneous measurement of the gamma-decay and fission-decay probabilities for the actinides 236U, 238U, 237Np and 238Np

Ducasse, Quentin 26 October 2015 (has links)
Les sections efficaces induites par neutrons des noyaux de courte durée de vie jouent un rôle important dans des domaines variés parmi la physique fondamentale, l'astrophysique ou l'énergie nucléaire. Malheureusement de nombreuses contraintes liées à la radiotoxicité des cibles rendent la mesure de ces sections efficaces souvent très difficiles. La méthode de substitution est une technique de mesure indirecte de sections efficaces neutroniques de noyaux radioactifs qui à l'avantage de s'affranchir de ces contraintes. Pour la première fois dans ce type d'expérience,les probabilités de fission et d'émission gamma sont mesurées simultanément, pour les actinides236U, 238U, 237Np et 238Np dans le but d'étudier la validité de la méthode. Une des difficultés provient de la soustraction des gammas des fragments de fission et cette mesure constitue en cela un véritable défi. Cette expérience de mesure simultanée a été effectuée au cyclotron d'Oslo.A une énergie d'excitation fixée du noyau formé, les résultats montrent que les probabilités de fission de substitution sont en bon accord avec celles induites par neutron alors que les probabilités d'émission gamma mesurées sont plusieurs fois plus élevées. Ces écarts sont liés à la différence distribution spin peuplée par le noyau entre les deux méthodes. Des calculs de modèles statistiques avec des paramètres standards n'ont pas permis de reproduire cette insensibilité de la probabilité de fission vis à vis du spin du noyau. La reproduction des observations expérimentales devient possible en considérant un moment d'inertie du noyau fissionnant qui augmente plus rapidement avec la déformation du noyau que ne le préconisent les paramètres standards. De nouveaux efforts théoriques sont à fournir pour améliorer la compréhension de nos résultats. / Neutron-induced cross sections of short-lived nuclei are important in various fields such as fundamental physics, astrophysics or nuclear energy. However, these cross sections are often extremely difficult to measure due to high radioactivity of the targets involved. The surrogate-reaction method is an indirect way to determine neutron-induced cross sections of short-lived nuclei. In order to study the validity of the method, we have measured for the very first time in a surrogate-reaction experiment simultaneously fission and gamma-decay probabilities for the actinides 236U, 238U, 237Np and 238Np. This is challenging because one has to remove the gamma rays emitted by the fission fragments. The measurement was performed at the Oslocyclotron.Our results show that for a given excitation energy, our gamma-decay probabilities are several times higher than neutron-induced probabilities, which can be attributed to differences in spin distribution between the two types of reactions. On the other hand, our fission probabilities are in good agreement with neutron-induced data. Statistical-model calculations applied with standardparameters cannot reproduce the weak spin sensibility to variations of the angular momentum observed for the fission probabilities. However, it is possible to reproduce the experimental observations by considering a stronger increase of the moment of inertia of the fissionning nucleus with deformation. Further theoretical efforts are needed to improve the understanding of our results
298

Marches quantiques et mécanique quantique relativiste / Quantum walks and relativistic quantum mechanics

Forets Irurtia, Marcelo Alejandro 10 December 2015 (has links)
Cette thèse étudie deux modèles de calcul: les marches quantiques (QW) et les automates cellulaires quantiques (QCA), en vue de les appliquer en simulation quantique. Ces modèles ont deux avantages stratégiques pour aborder ce problème: d'une part, ils constituent un cadre mathématique privilégié pour coder la description du système physique à simuler; d'autre part, ils correspondent à des architectures expérimentalement réalisables.Nous effectuons d'abord une analyse des QWs en tant que schéma numérique pour l'équation de Dirac, en établissant leur borne d'erreur globale et leur taux de convergence. Puis nous proposons une notion de transformée de Lorentz discrète pour les deux modèles, QW et QCA, qui admet une représentation diagrammatique s'exprimant par des règles locales et d'équivalence de circuits. Par ailleurs, nous avons caractérisé la limite continue d'une grande classe de QWs, et démontré qu'elle correspond à une classe d'équations aux dérivées partielles incluant l'équation de Dirac massive en espace-temps courbe de $(1+1)$-dimensions.Finalement, nous étudions le secteur à deux particules des automates cellulaires quantiques. Nous avons trouvé les conditions d'existence du spectre discret (interprétable comme une liaison moléculaire) pour des interactions à courte et longue portée, à travers des techniques perturbatives et d'analyse spectrale des opérateurs unitaires. / This thesis is devoted to the development of two well-known models of computation for their application in quantum computer simulations. These models are the quantum walk (QW) and quantum cellular automata (QCA) models, and they constitute doubly strategic topics in this respect. First, they are privileged mathematical settings in which to encode the description of the actual physical system to be simulated. Second, they offer an experimentally viable architecture for actual physical devices performing the simulation.For QWs, we prove precise error bounds and convergence rates of the discrete scheme towards the Dirac equation, thus validating the QW as a quantum simulation scheme. Furthermore, for both models we formulate a notion of discrete Lorentz covariance, which admits a diagrammatic representation in terms of local, circuit equivalence rules. We also study the continuum limit of a wide class of QWs, and show that it leads to a class of PDEs which includes the Hamiltonian form of the massive Dirac equation in (1+1)-dimensional curved spacetime.Finally, we study the two particle sector of a QCA. We find the conditions for the existence of discrete spectrum (interpretable as molecular binding) for short-range and for long-range interactions. This is achieved using perturbation techniques of trace class operators and spectral analysis of unitary operators.
299

Agrégation d'information pour la localisation d'un robot mobile sur une carte imparfaite / Information aggregation for the localization of a mobile robot using a non-perfect map

Delobel, Laurent 04 May 2018 (has links)
La plupart des grandes villes modernes mondiales souffrent des conséquences de la pollution et des bouchons. Une solution à ce problème serait de réglementer l'accès aux centres-villes pour les voitures personnelles en faveur d'un système de transports publics constitués de navettes autonomes propulsées par une énergie n'engendrant pas de pollution gazeuse. Celles-ci pourraient desservir les usagers à la demande, en étant déroutées en fonction des appels de ceux-ci. Ces véhicules pourraient également être utilisés afin de desservir de grands sites industriels, ou bien des sites sensibles dont l'accès, restreint, doit être contrôlé. Afin de parvenir à réaliser cet objectif, un véhicule devra être capable de se localiser dans sa zone de travail. Une bonne partie des méthodes de localisation reprises par la communauté scientifique se basent sur des méthodes de type "Simultaneous Localization and Mapping" (SLAM). Ces méthodes sont capables de construire dynamiquement une carte de l'environnement ainsi que de localiser un véhicule dans une telle carte. Bien que celles-ci aient démontré leur robustesse, dans la plupart des implémentations, le partage d'une carte commune entre plusieurs robots peut s'avérer problématique. En outre, ces méthodes n'utilisent fréquemment aucune information existant au préalable et construisent la carte de leur environnement à partir de zéro.Nous souhaitons lever ces limitations, et proposons d'utiliser des cartes de type sémantique, qui existent au-préalable, par exemple comme OpenStreetMap, comme carte de base afin de se localiser. Ce type de carte contient la position de panneaux de signalisation, de feux tricolores, de murs de bâtiments etc... De telles cartes viennent presque à-coup-sûr avec des imprécisions de position, des erreurs au niveau des éléments qu'elles contiennent, par exemple des éléments réels peuvent manquer dans les données de la carte, ou bien des éléments stockés dans celles-ci peuvent ne plus exister. Afin de gérer de telles erreurs dans les données de la carte, et de permettre à un véhicule autonome de s'y localiser, nous proposons un nouveau paradigme. Tout d'abord, afin de gérer le problème de sur-convergence classique dans les techniques de fusion de données (filtre de Kalman), ainsi que le problème de mise à l'échelle, nous proposons de gérer l'intégralité de la carte par un filtre à Intersection de Covariance Partitionnée. Nous proposons également d'effacer des éléments inexistant des données de la carte en estimant leur probabilité d'existence, calculée en se basant sur les détections de ceux-ci par les capteurs du véhicule, et supprimant ceux doté d'une probabilité trop faible. Enfin, nous proposons de scanner périodiquement la totalité des données capteur pour y chercher de nouveaux amers potentiels que la carte n'intègre pas encore dans ses données, et de les y ajouter. Des expérimentations montrent la faisabilité d'un tel concept de carte dynamique de haut niveau qui serait mise à jour au-vol. / Most large modern cities in the world nowadays suffer from pollution and traffic jams. A possible solution to this problem could be to regulate personnal car access into center downtown, and possibly replace public transportations by pollution-free autonomous vehicles, that could dynamically change their planned trajectory to transport people in a fully on-demand scenario. These vehicles could be used also to transport employees in a large industrial facility or in a regulated access critical infrastructure area. In order to perform such a task, a vehicle should be able to localize itself in its area of operation. Most current popular localization methods in such an environment are based on so-called "Simultaneous Localization and Maping" (SLAM) methods. They are able to dynamically construct a map of the environment, and to locate such a vehicle inside this map. Although these methods demonstrated their robustness, most of the implementations lack to use a map that would allow sharing over vehicles (map size, structure, etc...). On top of that, these methods frequently do not take into account already existing information such as an existing city map and rather construct it from scratch. In order to go beyond these limitations, we propose to use in the end semantic high-level maps, such as OpenStreetMap as a-priori map, and to allow the vehicle to localize based on such a map. They can contain the location of roads, traffic signs and traffic lights, buildings etc... Such kind of maps almost always come with some degree of imprecision (mostly in position), they also can be wrong, lacking existing but undescribed elements (landmarks), or containing in their data elements that do not exist anymore. In order to manage such imperfections in the collected data, and to allow a vehicle to localize based on such data, we propose a new strategy. Firstly, to manage the classical problem of data incest in data fusion in the presence of strong correlations, together with the map scalability problem, we propose to manage the whole map using a Split Covariance Intersection filter. We also propose to remove possibly absent landmarks still present in map data by estimating their probability of being there based on vehicle sensor detections, and to remove those with a low score. Finally, we propose to periodically scan sensor data to detect possible new landmarks that the map does not include yet, and proceed to their integration into map data. Experiments show the feasibility of such a concept of dynamic high level map that could be updated on-the-fly.
300

Estimation d'une matrice d'échelle. / Scale matrix estimation

Haddouche, Mohamed Anis 31 October 2019 (has links)
Beaucoup de résultats sur l’estimation d’une matrice d’échelle en analyse multidimensionnelle sont obtenus sous l’hypothèse de normalité (condition sous laquelle il s’agit de la matrice de covariance). Or il s’avère que, dans des domaines tels que la gestion de portefeuille en finance, cette hypothèse n’est pas très appropriée. Dans ce cas, la famille des distributions à symétrie elliptique, qui contient la distribution gaussienne, est une alternative intéressante. Nous considérons dans cette thèse le problème d’estimation de la matrice d’échelle Σ du modèle additif Yp_m = M + E, d’un point de vue de la théorie de la décision. Ici, p représente le nombre de variables, m le nombre d’observations, M une matrice de paramètres inconnus de rang q < p et E un bruit aléatoire de distribution à symétrie elliptique, avec une matrice de covariance proportionnelle à Im x Σ. Ce problème d’estimation est abordé sous la représentation canonique de ce modèle où la matrice d’observation Y est décomposée en deux matrices, à savoir, Zq x p qui résume l’information contenue dans M et une matrice Un x p, où n = m - q, qui résume l’information suffisante pour l’estimation de Σ. Comme les estimateurs naturels de la forme Σa = a S (où S = UT U et a est une constante positive) ne sont pas de bons estimateurs lorsque le nombre de variables p et le rapport p=n sont grands, nous proposons des estimateurs alternatifs de la forme ^Σa;G = a(S + S S+G(Z; S)) où S+ est l’inverse de Moore-Penrose de S (qui coïncide avec l’inverse S-1 lorsque S est inversible). Nous fournissons des conditions sur la matrice de correction SS+G(Z; S) telles que ^Σa;G améliore^Σa sous le coût quadratique L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² et sous une modification de ce dernier, à savoir le coût basé sur les données LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²). Nous adoptons une approche unifiée des deux cas où S est inversible et S est non inversible. À cette fin, une nouvelle identité de type Stein-Haff et un nouveau calcul sur la décomposition en valeurs propres de S sont développés. Notre théorie est illustrée par une grande classe d’estimateurs orthogonalement invariants et par un ensemble de simulations. / Numerous results on the estimation of a scale matrix in multivariate analysis are obtained under Gaussian assumption (condition under which it is the covariance matrix). However in such areas as Portfolio management in finance, this assumption is not well adapted. Thus, the family of elliptical symmetric distribution, which contains the Gaussian distribution, is an interesting alternative. In this thesis, we consider the problem of estimating the scale matrix _ of the additif model Yp_m = M + E, under theoretical decision point of view. Here, p is the number of variables, m is the number of observations, M is a matrix of unknown parameters with rank q < p and E is a random noise, whose distribution is elliptically symmetric with covariance matrix proportional to Im x Σ. It is more convenient to deal with the canonical forme of this model where Y is decomposed in two matrices, namely, Zq_p which summarizes the information contained in M, and Un_p, where n = m - q which summarizes the information sufficient to estimate Σ. As the natural estimators of the form ^Σ a = a S (where S = UT U and a is a positive constant) perform poorly when the dimension of variables p and the ratio p=n are large, we propose estimators of the form ^Σa;G = a(S + S S+G(Z; S)) where S+ is the Moore-Penrose inverse of S (which coincides with S-1 when S is invertible). We provide conditions on the correction matrix SS+G(Z; S) such that ^Σa;G improves over ^Σa under the quadratic loss L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² and under the data based loss LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²).. We adopt a unified approach of the two cases where S is invertible and S is non-invertible. To this end, a new Stein-Haff type identity and calculus on eigenstructure for S are developed. Our theory is illustrated with the large class of orthogonally invariant estimators and with simulations.

Page generated in 0.0828 seconds