• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 45
  • 10
  • 1
  • Tagged with
  • 161
  • 161
  • 74
  • 49
  • 35
  • 35
  • 34
  • 24
  • 21
  • 20
  • 20
  • 19
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contrôle de l'épaisseur de gelée dans les réacteurs métallurgiques à haute température à l'aide d'un capteur virtuel

Lebreux, Marc January 2011 (has links)
Au Québec, les producteurs d'aluminium consomment 12% de la puissance totale installée d'Hydro-Québec. Dans un contexte où le prix de l'énergie est en constante progression, les alumineries font donc face à des défis énergétiques de taille ; de plus, la production d'émissions de gaz à effet de serre étant directement reliée à la consommation d'énergie, des défis environnementaux importants s'annoncent pour le futur. Pour répondre à ces défis, une des avenues envisagées concerne la couche de gelée qui est présente dans chacune des cuves d'électrolyse d'aluminium. La couche de gelée a une importance capitale dans le procédé de fabrication d'aluminium, car elle sert de barrière protectrice aux parois réfractaires contre le bain électrolytique très corrosif à haute température. Elle permet également de minimiser les courants horizontaux à l'intérieur de la cuve, ce qui assure sa stabilité magnéto-hydrodynamique et permet d'optimiser l'efficacité de courant du procédé. La méthode traditionnelle pour mesurer le profil de gelée dans une cuve se fait manuellement à l'aide d'une sonde mécanique, mais cette opération nécessite beaucoup de temps ainsi que du personnel qualifié. De plus, ces mesures sont réalisées à une faible fréquence, et nécessitent l'ouverture du capot, ce qui libère beaucoup de chaleur et d'émissions chimiques dans l'atmosphère. Pour pallier aux désavantages de la méthode traditionnelle, ce travail présente le développement d'une méthode inverse (capteur virtuel) qui permet d'estimer en continu, et de manière non-instrusive [i.e. non-intrusive], l'épaisseur de gelée à partir de mesures thermiques (température et/ou flux de chaleur) provenant de capteurs situés dans les parois latérales de la cuve d'électrolyse. Le capteur virtuel est composé d'un filtre de Kalman et d'un estimateur récursif aux moindres-carrés, et il est combiné à une procédure d'identification du procédé en modèles d'état. Cette approche est appliquée pour la première fois dans la résolution d'un problème inverse avec changement de phase et en utilisant des capteurs de flux de chaleur. Parce que pour les alumineries, l'intérêt et le réel défi consistent plutôt à contrôler l'épaisseur de gelée, le capteur virtuel est ensuite combiné à un algorithme de contrôle qui régule le système de refroidissement des parois latérales de la cuve d'électrolyse. Ceci permet alors de contrôler à sa guise l'épaisseur de gelée malgré les perturbations thermiques inhérentes au procédé. La stratégie de contrôle retenue consiste en un contrôleur classique proportionnel-intégral-dérivatif, largement utilisé en industrie. Le capteur virtuel et l'algorithme de contrôle sont ensuite validés pour des conditions d'opérations typiques présentes dans les réacteurs métallurgiques à haute température. Les résultats montrent que la différence entre l'épaisseur réelle de gelée et celle prédite avec le capteur virtuel demeure dans tous les cas inférieure à 5%, tandis que la stratégie de contrôle demeure stable pour chacune des conditions d'opération, assure une erreur nulle en régime permanent ainsi qu'aucun dépassement de consigne, et procure une erreur maximale de 1 x 10[indice supérieur -3] m sur le suivi de la consigne de l'épaisseur de gelée. Pour répondre simultanément à la problématique d'estimation et de contrôle de l'épaisseur de gelée, le présent travail nécessite donc la combinaison de plusieurs domaines traditionnellement séparés (modélisation, transfert de chaleur, identification, méthodes inverses, contrôle) et cette procédure est appliquée pour la première fois dans le procédé d'électrolyse d'aluminium.
12

MODÉLISATION SPATIO-TEMPORELLE D'UNE VARIABLE QUANTITATIVE À PARTIR DE DONNÉES MULTI-SOURCES APPLICATION À LA TEMPÉRATURE DE SURFACE DES OCÉANS

Tandeo, Pierre 15 October 2010 (has links) (PDF)
Ce travail de thèse porte sur une variable océanographique importante dans le suivi du climat : la température de surface des océans. Au niveau global, les observations de cette température sont fournies principalement par des radiomètres embarqués sur des satellites. Afin de traiter ce flux important de données, un traitement statistique s'impose dans le but de synthétiser l'information en des cartes globales et quotidiennes de notre variable d'intérêt. Pour ce faire, nous proposons un modèle linéaire de type espace-d'état avec des erreurs Gaussiennes. Nous commençons par présenter ce modèle sur des données issues de séries temporelles ayant un échantillonnage irrégulier. Suit un travail d'inférence avec la mise en place d'un schéma d'estimation des paramètres, basé sur la combinaison d'une méthode des moments et du maximum de vraisemblance au travers de l'algorithme EM et des probabilités de filtrage et lissage de Kalman. Nous appliquons enfin cette méthodologie pour estimer les variances d'erreurs et le paramètre de corrélation temporelle à tout l'océan Atlantique. Nous ajoutons ensuite la composante spatiale et proposons une structure d'ordre deux, séparable, basée sur le produit d'une covariance temporelle et d'une covariance spatiale ani- sotrope. Les paramètres de cette dernière sont estimés sur l'océan Atlantique à partir de techniques géostatistiques usuelles et forment un atlas pertinent pour les océanographes. Fi- nalement, nous montrons que l'apport de l'information spatiale augmente le pouvoir prédictif du modèle.
13

Suivi visuel d'objets et détection de comportements anormaux par inférence contextuelle Bayesienne

Bouttefroy, Philippe 08 July 2010 (has links) (PDF)
Le suivi d'objets visuel a été un domaine de recherche intense durant ces deux dernières décennies pour son attrait scientifique et sa rentabilité. Il reste un sujet de recherche ouvert de par le manque de système de suivi holistique satisfaisant, prenant en compte les distorsions intrinsèques et extrinsèques. Variations d'éclairement, occlusions, bruits et erreurs dans la correspondance et la classification d'objets ne sont qu'une partie des problèmes actuellement rencontrés en suivi d'objets. Le travail développé dans la thèse intègre l'information contextuelle dans le cadre Bayesien pour le suivi d'objets et la détection de comportements anormaux. Plus précisément, la recherche porte sur les caractéristiques intrinsèques du signal vidéo en conjonction avec le comportement d'objets dans le but d'améliorer les résultats du suivi. La représentation de fonctions de densité de probabilité est cruciale pour modéliser les variables aléatoires. En particulier, les modèles paramétriques sont pratiques puisqu'ils permettent un stockage compact de la représentation ainsi que la simulation du processus aléatoire sous-jacent. La mixture de Gaussiennes est utilisée dans la thèse pour représenter la distribution de couleur d'un pixel dans le but de séparer l'avant-plan de l'arrière-plan. Contrairement aux approches traditionnelles, ce modèle s'adapte aux changements rapides d'éclairements et résout le problème de “saturation de pixels” rencontré avec certains algorithmes de soustraction d'arrière-plan. Il résulte de cette technique une meilleure précision lors de l'extraction de l'avant-plan pour des tâches de plus haut niveau telles que l'estimation du mouvement. La solution au problème d'inférence Bayesienne pour les chaines de Markov, et en particulier, les filtres de Kalman et particulaire, a également été étudiée. L'intégration d'une inférence contextuelle dans ces estimateurs est primordiale pour améliorer le suivi d'objet. Il en découle des solutions propres à un contexte spécifique. Le problème de suivi de véhicules est exploré en détails dans la thèse. La transformation projective, imposée par la configuration de l'environnement, est intégrée dans les filtres de Kalman et particulaire, engendrant le “filtre de Kalman projectif” et le “filtre particulaire projectif”. Des résultats expérimentaux exhaustifs sont présentés pour démontrer l'amélioration de la robustesse au suivi par les filtres de Kalman et particulaire projectifs. L'amélioration est caractérisée par la réduction de la dérive du suiveur et la réduction de l'erreur dans l'estimée de la trajectoire. La contrainte sur le caractère connu de l'environnement est ensuite supprimée pour permettre le suivi de piétons. Une mixture de champs aléatoires de Markov Gaussiens est introduite dans l'objectif d'apprendre les motifs de mouvements et de modéliser l'information contextuelle pour le filtrage particulaire. Une augmentation de la robustesse du suivi sous occlusion résulte d'une telle inférence. La modélisation locale avec les champs aléatoires de Markov fournit également une inférence pour la détection de comportements anormaux. Puisque les motifs locaux sont révélés par la mixture de champs aléatoires de Markov, la détection de comportements anormaux est réduite à l'étude de la correspondance entre le vecteur de caractéristiques et la distribution locale sous-jacente. L'approche globale, quant à elle, introduit des erreurs de généralisation et implique des décisions complexes, peu élégantes et imprécises. L'évaluation expérimentale de la méthode proposée sur des données synthétiques et réelles présente des résultats supérieurs pour la détection des comportements anormaux de conducteurs en état d'ébriété et de piétons traversant les autoroutes.
14

Localisation et cartographie simultanées de l'environnement à bord de véhicules autonomes : analyse de solutions fondées sur le filtrage de Kalman

Chanier, François 12 March 2010 (has links) (PDF)
Pour être autonome, un robot mobile doit être capable de décrire l'environnement dans lequel il évolue. Pour ce faire, le robot doit pouvoir se localiser et construire une carte de l'environnement si celle-ci n'existe pas. Grâce à ces informations, il pourra par exemple éviter les obstacles et donc naviguer en toute sécurité. Cette capacité correspond à une étape obligatoire sur la route de son autonomie totale. Le sujet traité dans ce manuscrit répond à cette problématique. Il concerne la localisation d'un véhicule et la cartographie d'un environnement en simultané, SLAM pour simultaneous localization and mapping. Après un etat de l'art des approches proposées durant la dernière décennie, deux points importants ont été constatés lors de l'emploi d'un filtre EKF-SLAM : les estimations obtenues avec ce filtre ne sont pas consistantes et cette approche, telle qu'elle a été introduite, ne répond pas aux critères d'observabilité d'un système. Pour chacun de ces problèmes, une solution est proposée et critiquée à l'aide de résultats de simulation et d'expérimentation
15

Exploration intégrée probabiliste pour robots mobiles évoluant en environnements complexes / Probabilistic Integrated Exploration for Mobile Robots in Complex Environments

Toriz Palacios, Alfredo 20 March 2012 (has links)
L'un des défis fondamentaux de la robotique d'aujourd'hui est d'obtenir des cartes robustes en utilisant des mécanismes efficaces pour l'exploration et la modélisation des environnements toujours plus complexes. Ce problème est connu comme celui de la planification, de la localisation et de la cartographie simultanée (SPLAM).Dans cette thèse nous avons développé des outils pour obtenir une stratégie de SPLAM. D'abord, l'exploration est faite par le graphe d'exploration aléatoire (REG) basé sur la création d'une structure de graphe et sur un contrôle de frontières. Ensuite, le problème de localisation et de cartographie simultanée (SLAM) est résolu avec une stratégie topologique basée sur des B-Splines. Pour valider notre stratégie, nous avons créé une autre approche de SPLAM basée sur des outils connus comme le Filtre de Kalman étendu pour le SLAM et sur l'arbre aléatoire (SRT) pour l'exploration. Ces résultats sont comparés avec les résultats de notre stratégie. / One of the fundamental challenges of today's robotics is to obtain robust maps using efficient mechanisms for exploring and modeling increasingly complex environments. This is known as simultaneous planning, localization and mapping (SPLAM) problem.Considering this problem, in this thesis we have developed some tools to obtain a SPLAM strategy. First, the exploration is made by the Random Exploration Graph approach (REG) which is based on the creation of a graph structure and on a frontier control. Next, the simultaneous localization and mapping (SLAM) problem is solved using a B-Spline based topologic strategy. To validate our strategy, we have created another SPLAM approach based on well known tools as the Extended Kalman Filter for SLAM and on the Sensor based Random tree (SRT) for the exploration problem. Its results are confronted with the results obtained by our strategy.
16

Sur les stratégies de commande pour l'optimisation et la régulation de puissance des éoliennes à vitesse variable

Boukhezzar, Boubekeur 23 February 2006 (has links) (PDF)
Le travail présenté dans cette thèse porte sur la modélisation et la commande des éoliennes à vitesse et calage variables afin d'atteindre les deux objectifs principaux: à vents faibles, maximiser la capture de l'énergie du vent d'une part et à vents forts, réguler la puissance électrique produite d'autre part. Dans les deux cas, il s'agira également de réduire les charges mécaniques transitoires.<br />A l'heure actuelle, les commandes des systèmes éoliens sont réalisées à l'aide de régulateurs classiques PI ou PID. Leurs performances sont satisfaisantes lorsque le vent n'est pas trop turbulent mais cependant celles-ci se dégradent notablement lors des variations rapides de la vitesse du vent. Par conséquent, il est nécessaire de disposer de systèmes de commande plus performants afin de prendre en compte la forte non-linéarité de l'aérodynamique de l'éolienne, son aspect dynamique et la nature turbulente du vent.<br />Pour cela, nous avons étudié différentes stratégies de commande, en soulignant leurs avantages et inconvénients par rapport aux performances attendues. Parmi les contrôleurs que nous avons développés, si certains sont une adaptation de techniques bien connues pour les modèles de l'éolienne, en revanche les autres apparaissent pour la première fois dans ce domaine. <br />A vents faibles, nous avons élaboré des commandes non linéaires, avec estimateur de la vitesse du vent, qui permet d'obtenir la vitesse du vent fictif qui ne peut pas être mesurée, vu la variabilité spatiotemporelle du profil du vent autour du rotor.<br />Pour la commande à vents forts, il est montré qu'une commande monovariable en calage ou en couple du générateur ne permet pas d'atteindre le double objectif de réguler à la fois la puissance électrique et la vitesse du rotor. Par conséquent, notre idée est de combiner une commande non linéaire par retour d'état dynamique en couple et une commande linéaire en pitch. Cette stratégie s'avère être la meilleure.<br />La validation des performances des contrôleurs a été réalisée avec des simulateurs aéroélastiques d'éoliennes, développés par NREL (National Renewable Energy Laboratory, Golden, CO) en utilisant des profils de vent de forte turbulence. Les résultats sont satisfaisants aussi bien en termes d'optimisation de la capture de l'énergie du vent qu'en régulation de puissance.
17

Contribution à l'étude du problème de synchronisation de porteuse dans le contexte de la Radio Intelligente

Metref, Adel 12 March 2010 (has links) (PDF)
Bien que de nombreux travaux de recherche aient été menés au cours des deux dernières décennies pour résoudre le problème de la synchronisation de la porteuse, il constitue aujourd'hui une thématique de recherche d'une grande importance pour divers systèmes récents de la radiocommunication comme les technologies émergentes de la Radio Logicielle Restreinte (RLR) et de la Radio Intelligente (RI). En effet, les systèmes de la RLR sont multi-fonctionnels et flexibles, dans le sens où ils peuvent traiter une variété de standards et de services tout en offrant des solutions à faible coût. Quant à la technologie RI, c'est une vision futuriste d'une radio visant la conception de dispositifs sans fil dotés de capacités d'apprentissage, d'adaptation, et de reconfiguration. Dans ce contexte, les solutions existantes du problème de synchronisation doivent être adaptées à ces nouvelles générations de technologies radio en vu d'obtenir les meilleures performances. De nombreuses contributions au problème de la synchronisation de phase de la porteuse sont présentées dans cette thèse. Dans la première partie du travail, nous avons effectué une analyse théorique rigoureuse et complète du détecteur de phase DD. En se basant sur les résultats de cette étude, nous avons proposé une boucle de synchronisation optimisée pour la modulation 16-QAM ainsi qu'un nouveau détecteur de verrouillage de phase pour les modulations de type QAM. Par ailleurs, nous avons proposé une structure de synchronisation de phase adaptée aux applications de la RI, qui est capable de récupérer la phase de façon aveugle vis à vis du type de modulation du signal reçu. L'idée consiste à utiliser une mesure dite "fiabilité", extraite du détecteur de phase de la boucle de synchronisation et qui fournit une information sur la modulation du signal entrant. Enfin, nous avons discuté d'une vision SIMO du problème de synchronisation de phase, exploitant les possibilités offertes par une architecture de réception RLR.
18

Les états initiaux pour la prévision numérique en météorologie: incertitude des données et méthode de correction

Fischer, Claude 26 February 2009 (has links) (PDF)
Le mémoire fait la synthèse de mes travaux de recherche autour de la question de la production du ''meilleur`` état initial possible pour démarrer une prévision numérique de l'évolution de l'atmosphère. Cette thématique va nous amener à considérer la problématique de l'assimilation des données. En particulier, mes travaux ont abordé cette question en relation avec les modèles numériques de prévision météorologique régionaux, à aire limitée. Le mémoire peut se lire pour l'essentiel sous deux angles: * des considérations assez amont sur la recherche de l'état optimal d'un système dynamique connu imparfaitement, mais sur lequel un contrôle par des observations indépendantes est possible: observations ciblées dans un modèle idéalisé, scénarii de mesures, croissance des erreurs et analyse par vecteurs singuliers. * études poursuivies dans le cadre de l'implémentation d'une analyse variationnelle dans le modèle régional Aladin de Météo-France: croissance des erreurs dans ce modèle, réglage des variances d'erreur de prévision, prise en compte du système coupleur (plus précisément, de son analyse) dans un système couplé, propriétés de la solution adjointe Des perspectives de recherche et de développement sont abordées en conclusion.
19

Sample Covariance Based Parameter Estimation For Digital Communications

Villares Piera, Javier 01 October 2005 (has links)
En aquesta tesi s'estudia el problema d'estimació cega de segon ordre en comunicacions digitals. En aquest camp, els símbols transmesos esdevenen paràmetres no desitjats (nuisance parameters) d'estadística no gaussiana que degraden les prestacions de l'estimador. En aquest context, l'estimador de màxima versemblança (ML) és normalment desconegut excepte si la relació senyal-soroll (SNR) és prou baixa. En aquest cas particular, l'estimador ML és una funció quadràtica del vector de dades rebudes o, equivalentment, una transformació lineal de la matriu de covariància mostral. Aquesta característica es compartida per altres estimadors importants basats en el principi de màxima versemblança com ara l'estimador ML gaussià (GML) i l'estimador ML condicional (CML). Així mateix, l'estimador MUSIC, i altres mètodes de subespai relacionats amb ell, es basen en la diagonalització de la matriu de covariància mostral. En aquest marc, l'aportació principal d'aquesta tesi és la deducció i avaluació de l'estimador òptim de segon ordre per qualsevol SNR i qualsevol distribució dels nuisance parameters.El disseny d'estimadors quadràtics en llaç obert i llaç tancat s'ha plantejat de forma unificada. Pel que fa als estimadors en llaç obert, s'han derivat els estimadors de mínim error quadràtic mig i mínima variància considerant que els paràmetres d'interès són variables aleatòries amb una distribució estadística coneguda a priori però, altrament, arbitrària. A partir d'aquest plantejament Bayesià, els estimadors en llaç tancat es poden obtenir suposant que la distribució a priori dels paràmetres és altament informativa. En aquest model de petit error, el millor estimador quadràtic no esbiaixat, anomenat BQUE, s'ha formulat sense convenir cap estadística particular pels nuisance parameters. Afegit a això, l'anàlisi de l'estimador BQUE ha permès calcular quina és la fita inferior que no pot millorar cap estimador cec que utilitzi la matriu de covariància mostral. Probablement, el resultat principal de la tesi és la demostració de què els estimadors quadràtics són capaços d'utilitzar la informació estadística de quart ordre dels nuisance parameters. Més en concret, s'ha demostrat que tota la informació no gaussiana de les dades que els mètodes de segon ordre són capaços d'aprofitar apareix reflectida en els cumulants de quart ordre dels nuisance parameters. De fet, aquesta informació de quart ordre esdevé rellevant si el mòdul dels nuisance parameters és constant i la SNR és moderada o alta. En aquestes condicions, es demostra que la suposició gaussiana dels nuisance parameters dóna lloc a estimadors quadràtics no eficients. Un altre resultat original que es presenta en aquesta memòria és la deducció del filtre de Kalman estès de segon ordre, anomenat QEKF. L'estudi del QEKF assenyala que els algoritmes de seguiment (trackers) de segon ordre poden millorar simultàniament les seves prestacions d'adquisició i seguiment si la informació estadística de quart ordre dels nuisance parameters es té en compte. Una vegada més, aquesta millora és significativa si els nuisance parameters tenen mòdul constant i la SNR és prou alta. Finalment, la teoria dels estimadors quadràtics plantejada s'ha aplicat en alguns problemes d'estimació clàssics en l'àmbit de les comunicacions digitals com ara la sincronització digital no assistida per dades, el problema de l'estimació del temps d'arribada en entorns amb propagació multicamí, la identificació cega de la resposta impulsional del canal i, per últim, l'estimació de l'angle d'arribada en sistemes de comunicacions mòbils amb múltiples antenes. Per cadascuna d'aquestes aplicacions, s'ha realitzat un anàlisi intensiu, tant numèric com asimptòtic, de les prestacions que es poden aconseguir amb mètodes d'estimació de segon ordre. / This thesis deals with the problem of blind second-order estimation in digital communications. In this field, the transmitted symbols appear as non-Gaussian nuisance parameters degrading the estimator performance. In this context, the Maximum Likelihood (ML) estimator is generally unknown unless the signal-to-noise (SNR) is very low. In this particular case, if the SNR is asymptotically low, the ML solution is quadratic in the received data or, equivalently, linear in the sample covariance matrix. This significant feature is shared by other important ML-based estimators such as, for example, the Gaussian and Conditional ML estimators. Likewise, MUSIC and other related subspace methods are based on the eigendecomposition of the sample covariance matrix. From this background, the main contribution of this thesis is the deduction and evaluation of the optimal second-order parameter estimator for any SNR and any distribution of the nuisance parameters.A unified framework is provided for the design of open- and closed-loop second-order estimators. In the first case, the minimum mean square error and minimum variance second-order estimators are deduced considering that the wanted parameters are random variables of known but arbitrary prior distribution. From this Bayesian approach, closed-loop estimators are derived by imposing an asymptotically informative prior. In this small-error scenario, the best quadratic unbiased estimator (BQUE) is obtained without adopting any assumption about the statistics of the nuisance parameters. In addition, the BQUE analysis yields the lower bound on the performance of any blind estimator based on the sample covariance matrix.Probably, the main result in this thesis is the proof that quadratic estimators are able to exploit the fourth-order statistical information about the nuisance parameters. Specifically, the nuisance parameters fourth-order cumulants are shown to provide all the non-Gaussian information that is utilizable for second-order estimation. This fourth-order information becomes relevant in case of constant modulus nuisance parameters and medium-to-high SNRs. In this situation, the Gaussian assumption is proved to yield inefficient second-order estimates.Another original result in this thesis is the deduction of the quadratic extended Kalman filter (QEKF). The QEKF study concludes that second-order trackers can improve simultaneously the acquisition and steady-state performance if the fourth-order statistical information about the nuisance parameters is taken into account. Once again, this improvement is significant in case of constant modulus nuisance parameters and medium-to-high SNRs.Finally, the proposed second-order estimation theory is applied to some classical estimation problems in the field of digital communications such as non-data-aided digital synchronization, the related problem of time-of-arrival estimation in multipath channels, blind channel impulse response identification, and direction-of-arrival estimation in mobile multi-antenna communication systems. In these applications, an intensive asymptotic and numerical analysis is carried out in order to evaluate the ultimate limits of second-order estimation.
20

Low-cost GPS/GLONASS Precise Positioning algorithm in Constrained Environment / Algorithme de positionnement précis en environnement contraint basé sur un récepteur bas-coût GPS/GLONASS

Carcanague, Sébastien 26 February 2013 (has links)
Le GNSS (Global Navigation Satellite System), et en particulier sa composante actuelle le système américain GPS et le système russe GLONASS, sont aujourd'hui utilisés pour des applications géodésiques afin d'obtenir un positionnement précis, de l'ordre du centimètre. Cela nécessite un certain nombre de traitements complexes, des équipements coûteux et éventuellement des compléments au sol des systèmes GPS et GLONASS. Ces applications sont aujourd'hui principalement réalisées en environnement « ouvert » et ne peuvent fonctionner en environnement plus contraint. L'augmentation croissante de l'utilisation du GNSS dans des domaines variés va voir émerger de nombreuses applications où le positionnement précis sera requis (par exemple des applications de transport/guidage automatique ou d'aide à la conduite nécessitant des performances importantes en terme de précision mais aussi en terme de confiance dans la position –l'intégrité- et de robustesse et disponibilité). D'autre part, l'arrivée sur le marché de récepteurs bas-coûts (inférieur à 100 euros) capables de poursuivre les signaux provenant de plusieurs constellations et d'en délivrer les mesures brutes laisse entrevoir des avancées importantes en termes de performance et de démocratisation de ces techniques de positionnement précis. Dans le cadre d'un utilisateur routier, l'un des enjeux du positionnement précis pour les années à venir est ainsi d'assurer sa disponibilité en tout terrain, c'est-à-dire dans le plus grand nombre d'environnements possibles, dont les environnements dégradés (végétation dense, environnement urbain, etc.) Dans ce contexte, l'objectif de la thèse a été d'élaborer et d'optimiser des algorithmes de positionnement précis (typiquement basés sur la poursuite de la phase de porteuse des signaux GNSS) afin de prendre en compte les contraintes liées à l'utilisation d'un récepteur bas coût et à l'environnement. En particulier, un logiciel de positionnement précis (RTK) capable de résoudre les ambiguïtés des mesures de phase GPS et GLONASS a été développé. La structure particulière des signaux GLONASS (FDMA) requiert notamment un traitement spécifiques des mesures de phase décrit dans la thèse afin de pouvoir isoler les ambiguïtés de phase en tant qu'entiers. Ce traitement est compliqué par l'utilisation de mesures provenant d'un récepteur bas coût dont les canaux GLONASS ne sont pas calibrés. L'utilisation d'une méthode de calibration des mesures de code et de phase décrite dans la thèse permet de réduire les biais affectant les différentes mesures GLONASS. Il est ainsi démontré que la résolution entière des ambiguïtés de phase GLONASS est possible avec un récepteur bas coût après calibration de celui-ci. La faible qualité des mesures, du fait de l'utilisation d'un récepteur bas coût en milieu dégradé est prise en compte dans le logiciel de positionnement précis en adoptant une pondération des mesures spécifique et des paramètres de validation de l'ambiguïté dépendant de l'environnement. Enfin, une méthode de résolution des sauts de cycle innovante est présentée dans la thèse, afin d'améliorer la continuité de l'estimation des ambiguïtés de phase. Les résultats de 2 campagnes de mesures effectuées sur le périphérique Toulousain et dans le centre-ville de Toulouse ont montré une précision de 1.5m 68% du temps et de 3.5m 95% du temps dans un environnement de type urbain. En milieu semi-urbain type périphérique, cette précision atteint 10cm 68% du temps et 75cm 95% du temps. Finalement, cette thèse démontre la faisabilité d'un système de positionnement précis bas-coût pour un utilisateur routier. / GNSS and particularly GPS and GLONASS systems are currently used in some geodetic applications to obtain a centimeter-level precise position. Such a level of accuracy is obtained by performing complex processing on expensive high-end receivers and antennas, and by using precise corrections. Moreover, these applications are typically performed in clear-sky environments and cannot be applied in constrained environments. The constant improvement in GNSS availability and accuracy should allow the development of various applications in which precise positioning is required, such as automatic people transportation or advanced driver assistance systems. Moreover, the recent release on the market of low-cost receivers capable of delivering raw data from multiple constellations gives a glimpse of the potential improvement and the collapse in prices of precise positioning techniques. However, one of the challenge of road user precise positioning techniques is their availability in all types of environments potentially encountered, notably constrained environments (dense tree canopy, urban environments…). This difficulty is amplified by the use of low-cost receivers and antennas, which potentially deliver lower quality measurements. In this context the goal of this PhD study was to develop a precise positioning algorithm based on code, Doppler and carrier phase measurements from a low-cost receiver, potentially in a constrained environment. In particular, a precise positioning software based on RTK algorithm is described in this PhD study. It is demonstrated that GPS and GLONASS measurements from a low-cost receivers can be used to estimate carrier phase ambiguities as integers. The lower quality of measurements is handled by appropriately weighting and masking measurements, as well as performing an efficient outlier exclusion technique. Finally, an innovative cycle slip resolution technique is proposed. Two measurements campaigns were performed to assess the performance of the proposed algorithm. A horizontal position error 95th percentile of less than 70 centimeters is reached in a beltway environment in both campaigns, whereas a 95th percentile of less than 3.5 meters is reached in urban environment. Therefore, this study demonstrates the possibility of precisely estimating the position of a road user using low-cost hardware.

Page generated in 0.059 seconds