• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • 1
  • Tagged with
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection de données aberrantes appliquée à la localisation GPS / Outliers detection applied to GPS localization

Zair, Salim 07 October 2016 (has links)
Dans cette thèse, nous nous intéressons au problème de détection de mesures GPS erronées. En effet, en zones urbaines, les acquisitions sont fortement dégradées par des phénomènes de multi-trajets ou de multiples réflexions des signaux avant d’arriver à l’antenne réceptrice. En forêt, de multiples obstacles bloquent les signaux satellites, ce qui diminue la redondance des mesures. Alors que les algorithmes présents dans les récepteurs GPS détectent au maximum une mesure erronée par pas de temps, avec une combinaison de différents systèmes de navigation, l’hypothèse d’une seule erreur à la fois n’est plus tenable et la détection et gestion des données erronées (défaillantes, aberrantes ou outliers selon les différentes terminologies) représente un enjeu majeur dans les applications de navigation autonome et de localisation robuste et devient un nouveau défi technologique.La contribution principale de cette thèse est un algorithme de détection de mesures de pseudo-distances aberrantes exploitant la modélisation a contrario. Deux critères fondés sur l’espérance du nombre de fausses alarmes (NFA) sont utilisés pour mesurer la cohérence d’un ensemble de mesures sous l’hypothèse d’un modèle de bruit.Notre seconde contribution concerne l’introduction des mesures Doppler dans le processus de localisation. Nous étendons la détection d’outliers conjointement dans les mesures de pseudo-distance aux mesures Doppler et proposons une localisation par couplage avec le filtre particulaire soit SIR soit de Rao-Blackwell qui permet d’estimer analytiquement la vitesse.Notre troisième contribution est une approche crédibiliste pour la détection des mesures aberrantes dans les pseudo-distances. S’inspirant du RANSAC, nous choisissons, parmi les combinaisons d’observations possibles, la plus compatible selon une mesure de cohérence ou d’incohérence. Une étape de filtrage évidentiel permet de tenir compte de la solution précédente. Les approches proposées donnent de meilleures performances que les méthodes usuelles et démontrent l’intérêt de retirer les données aberrantes du processus de localisation. / In this work, we focus on the problem of detection of erroneous GPS measurements. Indeed, in urban areas, acquisitions are highly degraded by multipath phenomena or signal multiple reflections before reaching the receiver antenna. In forest areas, the satellite occlusion reduces the measurements redundancy. While the algorithms embedded in GPS receivers detect at most one erroneous measurement per epoch, the hypothesis of a single error at a time is no longer realistic when we combine data from different navigation systems. The detection and management of erroneous data (faulty, aberrant or outliers depending on the different terminologies) has become a major issue in the autonomous navigation applications and robust localization and raises a new technological challenge.The main contribution of this work is an outlier detection algorithm for GNSS localization with an a contrario modeling. Two criteria based on number of false alarms (NFA) are used to measure the consistency of a set of measurements under the noise model assumption.Our second contribution is the introduction of Doppler measurements in the localization process. We extend the outlier detection to both pseudo-ranges and Doppler measurements, and we propose a coupling with either the particle filter SIR or the Rao-Blackwellized particle filter that allows us to estimate analytically the velocity.Our third contribution is an evidential approach for the detection of outliers in the pseudo-ranges. Inspired by the RANSAC, we choose among possible combinations of observations, the most compatible one according to a measure of consistency or inconsistency. An evidential filtering step is performed that takes into account the previous solution. The proposed approaches achieve better performance than standard methods and demonstrate the interest of removing the outliers from the localization process.
2

Les oubliés de la recommandation sociale / The forgotten users of social recommendation

Gras, Benjamin 18 January 2018 (has links)
Un système de recommandation a pour objectif de recommander à un utilisateur, appelé utilisateur actif, des ressources pertinentes pour lui. Le filtrage collaboratif (FC) est une approche de recommandation très répandue qui exploite les préférences exprimées par des utilisateurs sur des ressources. Le FC repose sur l'hypothèse que les préférences des utilisateurs sont cohérentes entre elles, ce qui permet d'inférer les préférences d'un utilisateur à partir des préférences des autres utilisateurs. Définissons une préférence spécifique comme une préférence qui ne serait partagée pour aucun groupe d'utilisateurs. Un utilisateur possédant plusieurs préférences spécifiques qu'il ne partage avec aucun autre utilisateur sera probablement mal servi par une approche de FC classique. Il s'agit du problème des Grey Sheep Users (GSU). Dans cette thèse, je réponds à trois questions distinctes. 1) Qu'est-ce qu'une préférence spécifique ? J'apporte une réponse en proposant des hypothèses associées que je valide expérimentalement. 2) Comment identifier les GSU dans les données ? Cette identification est importante afin d'anticiper les mauvaises recommandations qui seront fournies à ces utilisateurs. Je propose des mesures numériques permettant d'identifier les GSU dans un jeu de données de recommandation sociale. Ces mesures sont significativement plus performantes que celles de l'état de l'art. Enfin, comment modéliser ces GSU pour améliorer la qualité des recommandations qui leurs sont fournies ? Je propose des méthodes inspirées du domaine de l'apprentissage automatique et dédiées à la modélisation des GSU permettant d'améliorer la qualité des recommandations qui leurs sont fournies / A recommender system aims at providing relevant resources to a user, named the active user. To allow this recommendation, the system exploits the information it has collected about the active user or about resources. The collaborative filtering (CF) is a widely used recommandation approach. The data exploited by CF are the preferences expressed by users on resources. CF is based on the assumption that preferences are consistent between users, allowing a user's preferences to be inferred from the preferences of other users. In a CF-based recommender system, at least one user community has to share the preferences of the active user to provide him with high quality recommendations. Let us define a specific preference as a preference that is not shared by any group of user. A user with several specific preferences will likely be poorly served by a classic CF approach. This is the problem of Grey Sheep Users (GSU). In this thesis, I focus on three separate questions. 1) What is a specific preference? I give an answer by proposing associated hypotheses that I validate experimentally. 2) How to identify GSU in preference data? This identification is important to anticipate the low quality recommendations that will be provided to these users. I propose numerical indicators to identify GSU in a social recommendation dataset. These indicators outperform those of the state of the art and allow to isolate users whose quality of recommendations is very low. 3) How can I model GSU to improve the quality of the recommendations they receive? I propose new recommendation approaches to allow GSU to benefit from the opinions of other users
3

Des techniques neuronales dans l'alternatif

Merlin, Paul 22 June 2009 (has links) (PDF)
Cette thèse s'attache à redéfinir des modèles financiers traditionnels en considérant un cadre d'analyse moins restrictif, s'accordant mieux avec les caractéristiques empiriques des fonds alternatifs. Ce cadre élargi, certes plus réaliste, a néanmoins pour principal effet de complexifier les modèles étudiés ; nous choisissons alors d'employer des procédés de calcul naturel pour les simplifier. Dans le premier chapitre de la thèse, nous répondons à une problématique générale qui concerne l'étape essentielle du traitement des données. Nous proposons ainsi une nouvelle approche de la complétion des valeurs manquantes, autorisant une meilleure prise en compte des dépendances inter-actifs. Nous montrons dans le deuxième chapitre comment intégrer des moments d'ordre supérieur dans les modèles d'allocation. Une technique d'optimisation définie à partir des fonctions dites de pénurie nous permet de résoudre les problèmes d'optimisation dans l'espace non-convexe des quatre premiers moments de la distribution de rendements des portefeuilles optimisés. Le troisième chapitre s'attache à évaluer l'impact des données aberrantes sur les modèles d'allocation d'actifs intégrant les moments d'ordre supérieur. Un réseau de neurones modélisant la volatilité nous permet d'étendre les travaux de Chen et Liu (1993). Nous terminons cette thèse avec le quatrième chapitre en proposant un modèle d'analyse de style défini à partir de cartes de Kohonen. Le lien entre les facteurs de style traditionnels et les neurones de la carte est effectué au moyen d'une analyse conditionnelle. Une projection dynamique des fonds autorise ainsi l'étude de la stabilité des styles des gérants d'actifs.
4

Méthodes ensemblistes pour une localisation robuste de robots sous-marins

Sliwka, Jan 06 December 2011 (has links) (PDF)
Pour qu'un robot autonome puisse interagir proprement avec son milieu, ce dernier doit connaitre d'une part l'environnement dans lequel il évolue et d'autre part son état dans cet environnement. En particulier, un robot doit savoir où il est pour savoir où il doit aller. Depuis l'apparition du GPS, le problème de la localisation a été pratiquement résolu pour les robots terrestres. Le GPS ne fonctionne pas sous l'eau. Toutefois, le nombre d'opérations sous-marines augmente de manière significative chaque année. Dans notre école, nous développons un robot sous-marin pour tester des systèmes de localisation sous-marins. Le capteur principal que nous utilisons est un sonar sectoriel. Un sonar est un capteur acoustique qui positionne les objets acoustiquement réfléchissant. Par exemple, le sonar peut être utilisé pour détecter les parois d'un port. Ce capteur donne souvent des mesures aberrantes. Une telle mesure peut être due à une défaillance électrique du capteur ou d'un phénomène non pris en compte lors de la modélisation de l'environnement. Le nombre de mesures aberrantes est souvent inconnu et varie avec le temps. Le but de la thèse est de résoudre le problème de localisation avec de telles données. Un problème de localisation peut être formulé en tant que problème de satisfaction de contraintes (CSP en anglais). Un CSP est en gros un système d'équations (contraintes). Ici, l'inconnu est la pose du robot. Pour chaque mesure on obtient une contrainte reliant la pose, la mesure et l'environnement. La solution classique d'un CSP est l'ensemble des points (poses) qui satisfont toutes les contraintes. Toutefois, a cause des données aberrantes de tels points peuvent ne pas exister. Le nouveau problème consiste à trouver une solution d'un CSP lorsque une partie seulement de contraintes est satisfaite. Nous appelons ce problème un CSP relaxé. Une des contributions majeures à la thèse était de trouver plusieurs représentations de la solution d'un CSP relaxé ainsi que les algorithmes qui permettent de calculer ces solutions. La première représentation est sous la forme d'un polynôme dont les coefficients sont des ensembles que nous appelons polynômes ensemblistes. Chaque coefficient correspond à l'ensemble des points qui satisfont le nombre de contraintes égal au degré du coefficient dans le polynôme. Une telle représentation permet d'utiliser l'arithmétique des polynômes pour calculer le polynôme solution. Une deuxième représentation est sous la forme d'une fonction, qu'on appelle accumulateur, qui pour chaque élément de l'espace de recherche retourne le nombre de contraintes satisfaites. Un des obstacles à surmonter pour résoudre les problèmes de localisation est la représentation de la carte. En cas d'environnements structurés, il est possible de représenter la carte par un ensemble d'objets paramétrés tels que des segments, polygones ou des courbes. En cas d'environnements non structurées où en partie structurées tels que des cartes marines ou des cartes routières, l'idée est de représenter la carte (qui est en fait un ensemble de points) sous la forme d'une image binaire où les pixels d'intérêt (noir par exemple) représentent l'ensemble des points de la carte. Une des contributions majeures de la thèse était d'incorporer une telle représentation de la carte dans le formalisme d'un CSP ou d'un CSP relaxé sous la forme d'un contracteur appelé le contracteur sur l'image. L'utilité de ces deux contributions est montrée par un exemple de localisation d'un vrai robot dans une marina abandonnée. La thèse contient plusieurs autres contributions aux méthodes ensemblistes et la théorie des contracteurs.
5

Parcimonie, diversité morphologique et séparation robuste de sources / Sparse modeling, morphological diversity and robust source separation

Chenot, Cécile 29 September 2017 (has links)
Cette thèse porte sur le problème de Séparation Aveugle de Sources (SAS) en présence de données aberrantes. La plupart des méthodes de SAS sont faussées par la présence de déviations structurées par rapport au modèle de mélange linéaire classique: des évènements physiques inattendus ou des dysfonctionnements de capteurs en sont des exemples fréquents.Nous proposons un nouveau modèle prenant en compte explicitement les données aberrantes. Le problème de séparation en résultant, mal posé, est adressé grâce à la parcimonie. L'utilisation de cette dernière est particulièrement intéressante en SAS robuste car elle permet simultanément de démélanger les sources et de séparer les différentes contributions. Ces travaux sont étendus pour l'estimation de variabilité spectrale pour l'imagerie hyperspectrale terrestre.Des comparaisons avec des méthodes de l'état-de-l'art montrent la robustesse et la fiabilité des algorithmes associés pour un large éventail de configurations, incluant le cas déterminé. / This manuscript addresses the Blind Source Separation (BSS) problem in the presence of outliers. Most BSS techniques are hampered by the presence of structured deviations from the standard linear mixing model, such as unexpected physical events or malfunctions of sensors. We propose a new data model taking explicitly into account the deviations. The resulting joint estimation of the components is an ill-posed problem, tackled using sparse modeling. The latter is particularly efficient for solving robust BSS since it allows for a robust unmixing of the sources jointly with a precise separation of the components. These works are then extended for the estimation of spectral variability in the framework of terrestrial hyperspectral imaging. Numerical experiments highlight the robustness and reliability of the proposed algorithms in a wide range of settings, including the full-rank regime.

Page generated in 0.0525 seconds