• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Étude de l'évaporation d'aérosols liquides semi-volatils collectés sur médias fibreux / Study of the evaporation of liquid semi-volatil aerosols collected on fibrous filters

Sutter, Benjamin 03 November 2009 (has links)
Cette étude s’inscrit dans le cadre de l’amélioration des connaissances liées à l’évaporation d’aérosols liquides semi-volatils collectés sur des filtres à fibres. Le phénomène d’évaporation d’aérosols collectés sur médias fibreux induit des problèmes de sécurité avec notamment une surexposition des salariés aux vapeurs, à l’aval des systèmes généraux de filtration de l’air. De plus, lors des contrôles des concentrations atmosphériques des aérosols, l’évaporation induit une sous-estimation de la phase particulaire de l’aérosol prélevé qui est problématique en termes de prévention de l’exposition. L’objectif de ces travaux a donc été de produire de nombreux résultats expérimentaux afin, d’une part, de compléter les rares présents dans la littérature et, d’autre part, d’améliorer les modèles théoriques développés précédemment. Deux approches expérimentales ont été menées afin d’identifier le processus d’évaporation d’un aérosol collecté. La première, nommée approche globale, permet de suivre l’évaporation de l’aérosol par la quantification des vapeurs à l’aval du filtre, au cours du temps. La seconde, nommée approche microscopique, étudie l’évaporation de gouttes collectées sur les fibres d’une fibre à l’échelle microscopique. Les deux approches réalisées lors de ces travaux s’accordent sur le fait que l’évaporation d’un aérosol liquide semi-volatil ne peut être modélisée par les modèles proposés par la littérature. Des hypothèses ont été avancées afin d’expliquer la divergence de cinétique d’évaporation entre la théorie et les expérimentations / This study falls within the scope of improving knowledge concerning evaporation of semi-volatile liquid aerosols collected on fibrous filters. Under these conditions, the aerosol evaporation phenomenon causes problems of safety, in particular over-exposure of employees to vapours downstream of general air filtering systems. Furthermore, when controlling aerosol atmospheric concentrations, evaporation results in under-estimation of the sampled aerosol particle phase and this is clearly problematic in exposure prevention terms. The aim of this work was therefore to record a large number of experimental data, both to make up for their scarcity in the literature and to improve previously developed theoretical models. Two experimental approaches were implemented to identify the evaporation process for a collected aerosol. The first, termed the global approach, allowed us to monitor aerosol evaporation by measuring vapour quantity downstream of the filter with respect to time. The second, microscopic, approach considers evaporation of droplets collected on the filter fibres on a microscopic scale. The two approaches implemented during this research lead to agreement on the fact that evaporation of a liquid semi-volatile aerosol cannot be satisfactorily represented by the theoretical models proposed in the literature. Hypotheses are advanced to explain the divergence in evaporation kinetics between theoretical and experimental work
102

Contribution à la modélisation des interactions fluides-structures

Belakroum, Rassim 14 April 2011 (has links)
Les buts principaux recherchés de la présente thèse visent au développement et à l’expertise d’une méthodologie de simulation numérique des problèmes d’interactions fluides-structures. Afin de cerner progressivement le problème étudié, nous nous sommes intéressés en premier lieu à la simulation numérique des écoulements autour d’obstacles solides, plus particulièrement au phénomène d’éclatements tourbillonnaires dans la zone de sillage d’obstacles de différentes formes. Nous avons utilisé la méthode des éléments finis en adoptant la technique de stabilisation GLS (Galerkin Least-Square). Pour le traitement de la turbulence, nous avons opté pour la méthode LES (Large-Eddy Simulation) en utilisant le filtre de Smagorinsky. En deuxième phase, nous nous sommes intéressés aux écoulements en milieux déformables. Nous avons entrepris la formulation ALE (Arbitrairement Lagrangienne Eulérienne) en considérant un maillage déformable. Pour la mise à jour de la grille du maillage dynamique, nous avons utilisé une approche pseudo-élastique. Afin d’expertiser la méthodologie mise en oeuvre, nous avons choisi d’aborder le problème des ballottements à la surface libre de réservoirs partiellement remplis de liquide. En dernière partie, nous nous sommes intéressés au comportement vibratoire d’un corps solide sous l’effet d’un écoulement de fluide. Par l’utilisation d’un algorithme de couplage totalement implicite basé sur la méthode de Gauss-Seidel par Bloc, nous avons abordé le phénomène des instabilités aéroélastiques des ponts à haubans. Pour la validation du modèle numérique traitant les interactions fluides-structures par les données expérimentales, nous nous sommes intéressés au comportement vibratoire d’une maquette sectionnelle d’un tablier de pont réel sous l’effet d’un vent soufflant uniforme. / The main goals sought by this thesis target the development and expertise of a methodology for numerical simulation of fluid-structure interactions problems. In order to identify the studied problem progressively, we are interested primarily in numerical simulation of flows around bluff bodies, especially the phenomenon of vortex shedding in the wake zone of a bluff body of different shapes. We used the finite element method by adopting the stabilized GLS (Galerkin Least-Square) technique. For the treatment of turbulence, we opted the LES (Large-Eddy Simulation) method using the Smagorinsky filter. In the second phase, we were interested in flows in deformable media. We undertook the ALE (Arbitrary Lagrangian Eulerian) formulation by considering a deformable mesh. To update the grid of the dynamic mesh, we used a pseudo-elastic approach. To appraise the implemented methodology, we decided to approach the problem of sloshing at the free surface of a tank partially filled with liquid. In the final part, we were interested in vibration behavior of a solid body under the effect of fluid flow. By using a fully implicit coupling algorithm based on a relaxed Bloc Gauss-Seidel method, we studied the phenomenon of aeroelastic instability of cable-stayed bridges. To validate the numerical model treating fluid-structure interactions by experimental data, we investigated the vibration behavior of a real deck sectional model under the effect of a uniform wind.
103

Příprava a využití nanočástic a nanovláken s přírodními UV filtry / Preparation and application of nanoparticles and nanofibres with natural UV filters

Plachá, Monika January 2018 (has links)
The presented diploma thesis is focused on preparation of nanoparticles and nanofibres with natural UV filters. Liposomes with encapsulated aqueous, ethanol and lipid extracts were prepared. Nanofibers from PHB containing lipid extract were prepared too. As a part of this work, an overview of natural sources with potential effects as UV filters were introduced. Moreover, nanoparticles and nanofibers and methods of their characterization were described. Size, polydisperse index and colloid stability of prepared nanoparticles were characterized via DLS. In experimental part aqueous, ethanol and lipid extracts were prepared from roasted coffee, green coffee and cascara. These extracts were spectrophotometrically characterized for the content of polyphenols, flavonoids, antioxidant activity, tannins and their SPF. Liposomes and liposomes containing PHB with these extracts were prepared and the encapsulation effectivity, short–term and long–term stability as well as SPF of nanoparticles were determined. Nanofibers from PHB containing lipid extracts were prepared via electrospinning and forcespinning methods. Prepared nanofibers were examined via FTIR–ATR. Antioxidant activity, short–term and long–term stability were determined spectrophotometrically. From selected nanoparticles, emulsions and gels were prepared and their SPF was also determined. Three types of emulsions with the best SPF were selected and tested on volunteers. Sedimentation stability of emulsions was tested by analytical centrifuge. Finally, cytotoxicity of selected nanoparticles and nanofibers was tested via MTT assay using human keratinocytes.
104

Lithographie par nanoimpression pour la fabrication de filtres à réseaux résonants en cavité / Nanoimprint lithography for cavity resonator integrated grating filters

Augé, Sylvain 01 December 2017 (has links)
Les filtres CRIGFs sont une nouvelle génération de filtres optiques réflectifs nanostructurés qui présentent un très fort intérêt pour de nombreuses applications. Cependant, leur fabrication est relativement complexe : il s'agit de composants structurés à des échelles petites devant la longueur d'onde d'utilisation, mais de surface totale relativement grande. Ils sont usuellement fabriqués en utilisant des procédés de lithographie de type lithographie électronique, qui présente une résolution suffisante mais qui est séquentielle et donc lente pour de telles surfaces de composant. En outre, les CRIGFs sont souvent réalisés sur des substrats isolants, ce qui complexifie encore plus l'utilisation de cette lithographie. Lors de cette thèse, un procédé de fabrication des CRIGFs a été développé à partir de la lithographie par nanoimpression via moule souple (SNIL). Cette technologie collective et à haut rendement contourne les inconvénients et garde les avantages de la traditionnelle lithographie électronique. Elle permet de fabriquer des motifs nanométriques par simple pressage d'un moule souple sur une couche de résine de polymères sous insolation d'ultraviolets. Après avoir stabilisé le procédé et établi les limites de la technologie, de nombreux filtres CRIGFs ont ainsi été créés. Ils présentent des résultats optiques équivalents dans le proche infrarouge (NIR) à ceux fabriqués par lithographie électronique. Dans un deuxième temps, le caractère générique du procédé mis en place a été démontré de plusieurs façons. Premièrement, nous avons montré qu'il était possible à l'aide de celui-ci de dépasser les compromis usuels de conception en structurant directement le guide d'onde, qui sera ensuite ré-encapsulé. Deuxièmement, nous avons montré que ce même procédé pouvait être directement transféré pour réaliser des filtres CRIGF dans la gamme du moyen infrarouge, bien que les filtres soient alors réalisés sur un matériau cristallin III-V et présentent des dimensions micrométriques plutôt que nanométriques. Enfin, nous avons démontré la grande souplesse et stabilité du procédé en l'utilisant pour explorer différentes géométries potentiellement intéressantes de cette nouvelle famille de filtres optiques nanostructurés. Nous avons notamment étudié des CRIGFs comportant un gradient de période qui ont permis pour la première fois d'obtenir un filtre CRIGF accordable. Pour finir, nous nous sommes attachés à étudier le potentiel de réalisation de filtres CRIGFs plus complexes et présentant plusieurs niveaux de corrugation. / Cavity resonator integrated grating filters (CRIGFs) are a new generation of nanostructured reflective filters. They present a strong interest for many applications. However, their manufacturing is relatively complex: CRIGFs are components structured at small scales compared to the wavelength of interest but on a relatively large area. They are usually made by electron beam lithography technique which presents a sufficient resolution but does not allow parallel patterning and is thereby time consuming for large area components. Furthermore, CRIGFs are often fabricated on insulating wafers which make the e-beam lithography process more complicated. In this PhD, a CRIGF process manufacturing has been implemented through soft mold nanoimprint lithography (SNIL). This high throughput collective technology keeps the benefits of the traditional electron beam lithography while overcoming its limits. Nano-scale patterns can be made by a simple stamping under UV exposure of a soft mold on a polymer resist layer. After stabilizing the process and assessing the technique limits, plenty of CRIGFs have been manufactured. They exhibit optical performances in the near- infrared range equivalent to those manufactured by e-beam lithography. Secondly, it has been demonstrated that the implemented process is generic. We have shown the possibility to overcome the usual design trade-offs by structuring directly the waveguide, before embedding. Moreover, this same process has been shown to be applied in a straightforward way to fabricate CRIGFS in the mid-infrared range using a III-V crystalline material and micrometric sized patterns. Finally, we have demonstrated the great flexibility and sustainability of the process by testing different potential geometries of CRIGFs. Notably, we have designed a CRIGF with a period gradient leading to the first tunable CRIGF ever demonstrated. Lastly, we have evaluated the potential manufacturing of complex CRIGFs with several corrugation levels.
105

Estimation d'états pour le pistage par lidar à faible résolution angulaire

Blanchard-Lapierre, Alexia 07 May 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Ce mémoire présente des estimateurs d'états dans le but de pister des cibles devant un lidar dont la résolution angulaire est faible. D'abord, la transformée de Hough est adaptée à la configuration polaire du lidar et au bruit de mesure qui est gaussien en distance radiale et uniforme en position angulaire. La transformée de Hough développée permet d'estimer la trajectoire de la cible en évaluant la meilleure droite passant par les détections les plus récentes et cette estimation s'approche du maximum de vraisemblance. Ensuite, le résultat de la transformée de Hough est intégré à un filtre de Kalman, classique, étendu ou non parfumé. Deux stratégies sont employées : transformer le bruit uniforme en bruit gaussien en projetant les mesures de position angulaire sur la droite ou ajouter la droite comme une contrainte relaxée dans les observations du filtre de Kalman. Des simulations montrent que le filtre de Kalman non parfumé avec contrainte relaxée est celui qui offre les meilleures performances d'estimation en moyenne. Particulièrement, le gain de l'utilisation de cette méthode par rapport au filtre non parfumé ordinaire augmente dans les situations suivantes : lorsque la cible s'éloigne, plus elle est loin du lidar, plus la cible est petite par rapport à la largeur d'un élément lidar. Les simulations sont analysées pour difiérentes trajectoires linéaires et courbes, pour des cibles de deux tailles (piéton ou voiture) et trois configurations lidars (16 éléments de 2:8° chaque, 8 éléments de 5° chaque et 9 éléments de 10° chaque). Des résultats expérimentaux pour des piétons et une configuration de 16 éléments sont aussi illustrés. / In this master's thesis, state estimators are designed to track targets seen by a lidar with very low angular resolution. The Hough transform is modified in order to consider the polar configuration of the lidar detections, the gaussian noise on their distance measurements and the uniform noise on their angular position measurements. The designed Hough transform estimates the trajectory of a target by evaluating the best line passing on the most recent detections. This estimation approaches the maximum likelihood. Some methods to reduce the computational complexity are also shown. The results of the Hough transform are then combined with Kalman filters (classic, extended and unscented). Two main strategies are developed : transforming the uniform noise into gaussian noise by projecting the angular position on the estimated line, or adding the line as soft constraints in the observation vector of the Kalman filter. Simulations show that the unscented Kalman filter with soft constraints has the lowest mean square error on the state estimation on average. Moreover, this method's improvement in accuracy, in comparaison to a regular unscented Kalman filter, is significant in the following cases : when the target moves away, when the target is far away or when the target is smaller than the width of a lidar element. Simulations are done for different linear and curved trajectories, for two sizes of targets (pedestrian and car) and for three lidar configurations (16 elements of 2:8° each, 8 elements of 5° each et 9 elements of 10° each). Experimental results for pedestrians and a 16 elements lidar are also discussed.
106

Towards real-time diffusion imaging : noise correction and inference of the human brain connectivity / Imagerie de diffusion en temps-réel : correction du bruit et inférence de la connectivité cérébrale

Brion, Véronique 30 April 2013 (has links)
La plupart des constructeurs de systèmes d'imagerie par résonance magnétique (IRM) proposent un large choix d'applications de post-traitement sur les données IRM reconstruites a posteriori, mais très peu de ces applications peuvent être exécutées en temps réel pendant l'examen. Mises à part certaines solutions dédiées à l'IRM fonctionnelle permettant des expériences relativement simples ainsi que d'autres solutions pour l'IRM interventionnelle produisant des scans anatomiques pendant un acte de chirurgie, aucun outil n'a été développé pour l'IRM pondérée en diffusion (IRMd). Cependant, comme les examens d'IRMd sont extrêmement sensibles à des perturbations du système hardware ou à des perturbations provoquées par le sujet et qui induisent des données corrompues, il peut être intéressant d'investiguer la possibilité de reconstruire les données d'IRMd directement lors de l'examen. Cette thèse est dédiée à ce projet innovant. La contribution majeure de cette thèse a consisté en des solutions de débruitage des données d'IRMd en temps réel. En effet, le signal pondéré en diffusion peut être corrompu par un niveau élevé de bruit qui n'est plus gaussien, mais ricien ou chi non centré. Après avoir réalisé un état de l'art détaillé de la littérature sur le bruit en IRM, nous avons étendu l'estimateur linéaire qui minimise l'erreur quadratique moyenne (LMMSE) et nous l'avons adapté à notre cadre de temps réel réalisé avec un filtre de Kalman. Nous avons comparé les performances de cette solution à celles d'un filtrage gaussien standard, difficile à implémenter car il nécessite une modification de la chaîne de reconstruction pour y être inséré immédiatement après la démodulation du signal acquis dans l'espace de Fourier. Nous avons aussi développé un filtre de Kalman parallèle qui permet d'appréhender toute distribution de bruit et nous avons montré que ses performances étaient comparables à celles de notre méthode précédente utilisant un filtre de Kalman non parallèle. Enfin, nous avons investigué la faisabilité de réaliser une tractographie en temps-réel pour déterminer la connectivité structurelle en direct, pendant l'examen. Nous espérons que ce panel de développements méthodologiques permettra d'améliorer et d'accélérer le diagnostic en cas d'urgence pour vérifier l'état des faisceaux de fibres de la substance blanche. / Most magnetic resonance imaging (MRI) system manufacturers propose a huge set of software applications to post-process the reconstructed MRI data a posteriori, but few of them can run in real-time during the ongoing scan. To our knowledge, apart from solutions dedicated to functional MRI allowing relatively simple experiments or for interventional MRI to perform anatomical scans during surgery, no tool has been developed in the field of diffusion-weighted MRI (dMRI). However, because dMRI scans are extremely sensitive to lots of hardware or subject-based perturbations inducing corrupted data, it can be interesting to investigate the possibility of processing dMRI data directly during the ongoing scan and this thesis is dedicated to this challenging topic. The major contribution of this thesis aimed at providing solutions to denoise dMRI data in real-time. Indeed, the diffusion-weighted signal may be corrupted by a significant level of noise which is not Gaussian anymore, but Rician or noncentral chi. After making a detailed review of the literature, we extended the linear minimum mean square error (LMMSE) estimator and adapted it to our real-time framework with a Kalman filter. We compared its efficiency to the standard Gaussian filtering, difficult to implement, as it requires a modification of the reconstruction pipeline to insert the filter immediately after the demodulation of the acquired signal in the Fourier space. We also developed a parallel Kalman filter to deal with any noise distribution and we showed that its efficiency was quite comparable to the non parallel Kalman filter approach. Last, we addressed the feasibility of performing tractography in real-time in order to infer the structural connectivity online. We hope that this set of methodological developments will help improving and accelerating a diagnosis in case of emergency to check the integrity of white matter fiber bundles.
107

Application des outils du traitement du signal a la commande des machines tournantes

Hilairet, Mickaël 09 November 2001 (has links) (PDF)
Notre travail a porté sur l'application des filtres de Kalman et des estimateurs fréquentiels pour l'estimation de la vitesse des machines électriques. La finalité de cette approche est la maîtrise du coût algorithmique des algorithmes de commande avec ou sans capteur mécanique.<br /><br />La mise en œuvre d'un filtre de Kalman estimant le flux et la vitesse des machines asynchrones est généralement effectuée dans sa formulation matricielle, excessivement gourmande en temps de calcul. Pour cette raison, nous avons modifié la méthode de conception de ce filtre étendu, que nous avons nommé filtre de Kalman à état virtuel. La réduction très importante du coût algorithmique de ce nouveau filtre justifie son application dans les variateurs de vitesse de faible puissance où le coût de revient des cartes électroniques est conséquent. Il est également possible de conserver les équations traditionnelles du filtrage de Kalman tout en réduisant la complexité algorithmique. Pour cela, nous avons appliqué le filtrage de Kalman à deux niveaux et à deux périodes d'échantillonnage pour l'estimation de la vitesse mécanique.<br /><br />Nous avons également optimisé le réglage des paramètres du filtre de Kalman. La dynamique de l'estimateur est réglée en fonction de la dynamique des grandeurs régulées, des bruits de mesure et des incertitudes paramétriques. Ce réglage permet de rendre l'estimateur robuste aux variations paramétriques et d'éviter des instabilités lorsque les estimations sont incluses dans les boucles de régulation (pour les systèmes non-linéaires).<br /><br />Pour ne pas être soumis aux incertitudes paramétriques du moteur, le contenu spectral des courants statoriques consommés peut être analysé grâce à des estimateurs de vitesse à faible coût algorithmique. Les résultats expérimentaux obtenus avec une machine à courant continu et une machine asynchrone montrent que l'estimation de la vitesse est excellente en régime permanent. Cependant, les fonctionnements à basse vitesse et la capacité de poursuite ne sont pas aussi performants que ceux d'estimateurs construits à partir du modèle dynamique de la machine. L'interconnexion de deux estimateurs complémentaires, un estimateur fréquentiel et un estimateur basé sur le modèle dynamique, a été mise en œuvre pour palier aux inconvénients de chacun. Cette stratégie de pilotage a été testée expérimentalement avec succès pour une commande sans capteur mécanique d'une machine à courant continu.
108

Estimation du mouvement bi-dimensionnel de la paroi artérielle en imagerie ultrasonore par une approche conjointe de segmentation et de speckle tracking

Zahnd, Guillaume 10 December 2012 (has links) (PDF)
Ce travail de thèse est axé sur le domaine du traitement d'images biomédicales. L'objectif de notre étude est l'estimation des paramètres traduisant les propriétés mécaniques de l'artère carotide in vivo en imagerie échographique, dans une optique de détection précoce de la pathologie cardiovasculaire. L'analyse du mouvement longitudinal des tissus de la paroi artérielle, i.e. dans la même direction que le flux sanguin, représente la motivation majeure de ce travail. Les trois contributions principales proposées dans ce travail sont i) le développement d'un cadre méthodologique original et semi-automatique, dédié à la segmentation et à l'estimation du mouvement de la paroi artérielle dans des séquences in vivo d'images ultrasonores mode-B, ii) la description d'un protocole de génération d'une référence, faisant intervenir les opérations manuelles de plusieurs experts, dans le but de quantifier la précision des résultats de notre méthode malgré l'absence de vérité terrain inhérente à la modalité échographique, et iii) l'évaluation clinique de l'association entre les paramètres mécaniques et dynamiques de la paroi carotidienne et les facteurs de risque cardiovasculaire dans le cadre de la détection précoce de l'athérosclérose. Nous proposons une méthode semi-automatique, basée sur une approche conjointe de segmentation des contours de la paroi et d'estimation du mouvement des tissus. L'extraction de la position des interfaces est réalisée via une approche spécifique à la structure morphologique de la carotide, basée sur une stratégie de programmation dynamique exploitant un filtrage adapté. L'estimation du mouvement est réalisée via une méthode robuste de mise en correspondance de blocs (block matching), basée sur la connaissance du déplacement a priori ainsi que sur la mise à jour temporelle du bloc de référence par un filtre de Kalman spécifique. La précision de notre méthode, évaluée in vivo, correspond au même ordre de grandeur que celle résultant des opérations manuelles réalisées par des experts, et reste sensiblement meilleure que celle obtenue avec deux autres méthodes traditionnelles (i.e. une implémentation classique de la technique de block matching et le logiciel commercial Velocity Vector Imaging). Nous présentons également quatre études cliniques réalisées en milieu hospitalier, où nous évaluons l'association entre le mouvement longitudinal et les facteurs de risque cardiovasculaire. Nous suggérons que le mouvement longitudinal, qui représente un marqueur de risque émergent et encore peu étudié, constitue un indice pertinent et complémentaire aux marqueurs traditionnels dans la caractérisation de la physiopathologie artérielle, reflète le niveau de risque cardiovasculaire global, et pourrait être bien adapté à la détection précoce de l'athérosclérose.
109

La perception d'attributs visuels de premier et deuxième ordres

Allard, Rémy January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
110

Agrégation d'information pour la localisation d'un robot mobile sur une carte imparfaite / Information aggregation for the localization of a mobile robot using a non-perfect map

Delobel, Laurent 04 May 2018 (has links)
La plupart des grandes villes modernes mondiales souffrent des conséquences de la pollution et des bouchons. Une solution à ce problème serait de réglementer l'accès aux centres-villes pour les voitures personnelles en faveur d'un système de transports publics constitués de navettes autonomes propulsées par une énergie n'engendrant pas de pollution gazeuse. Celles-ci pourraient desservir les usagers à la demande, en étant déroutées en fonction des appels de ceux-ci. Ces véhicules pourraient également être utilisés afin de desservir de grands sites industriels, ou bien des sites sensibles dont l'accès, restreint, doit être contrôlé. Afin de parvenir à réaliser cet objectif, un véhicule devra être capable de se localiser dans sa zone de travail. Une bonne partie des méthodes de localisation reprises par la communauté scientifique se basent sur des méthodes de type "Simultaneous Localization and Mapping" (SLAM). Ces méthodes sont capables de construire dynamiquement une carte de l'environnement ainsi que de localiser un véhicule dans une telle carte. Bien que celles-ci aient démontré leur robustesse, dans la plupart des implémentations, le partage d'une carte commune entre plusieurs robots peut s'avérer problématique. En outre, ces méthodes n'utilisent fréquemment aucune information existant au préalable et construisent la carte de leur environnement à partir de zéro.Nous souhaitons lever ces limitations, et proposons d'utiliser des cartes de type sémantique, qui existent au-préalable, par exemple comme OpenStreetMap, comme carte de base afin de se localiser. Ce type de carte contient la position de panneaux de signalisation, de feux tricolores, de murs de bâtiments etc... De telles cartes viennent presque à-coup-sûr avec des imprécisions de position, des erreurs au niveau des éléments qu'elles contiennent, par exemple des éléments réels peuvent manquer dans les données de la carte, ou bien des éléments stockés dans celles-ci peuvent ne plus exister. Afin de gérer de telles erreurs dans les données de la carte, et de permettre à un véhicule autonome de s'y localiser, nous proposons un nouveau paradigme. Tout d'abord, afin de gérer le problème de sur-convergence classique dans les techniques de fusion de données (filtre de Kalman), ainsi que le problème de mise à l'échelle, nous proposons de gérer l'intégralité de la carte par un filtre à Intersection de Covariance Partitionnée. Nous proposons également d'effacer des éléments inexistant des données de la carte en estimant leur probabilité d'existence, calculée en se basant sur les détections de ceux-ci par les capteurs du véhicule, et supprimant ceux doté d'une probabilité trop faible. Enfin, nous proposons de scanner périodiquement la totalité des données capteur pour y chercher de nouveaux amers potentiels que la carte n'intègre pas encore dans ses données, et de les y ajouter. Des expérimentations montrent la faisabilité d'un tel concept de carte dynamique de haut niveau qui serait mise à jour au-vol. / Most large modern cities in the world nowadays suffer from pollution and traffic jams. A possible solution to this problem could be to regulate personnal car access into center downtown, and possibly replace public transportations by pollution-free autonomous vehicles, that could dynamically change their planned trajectory to transport people in a fully on-demand scenario. These vehicles could be used also to transport employees in a large industrial facility or in a regulated access critical infrastructure area. In order to perform such a task, a vehicle should be able to localize itself in its area of operation. Most current popular localization methods in such an environment are based on so-called "Simultaneous Localization and Maping" (SLAM) methods. They are able to dynamically construct a map of the environment, and to locate such a vehicle inside this map. Although these methods demonstrated their robustness, most of the implementations lack to use a map that would allow sharing over vehicles (map size, structure, etc...). On top of that, these methods frequently do not take into account already existing information such as an existing city map and rather construct it from scratch. In order to go beyond these limitations, we propose to use in the end semantic high-level maps, such as OpenStreetMap as a-priori map, and to allow the vehicle to localize based on such a map. They can contain the location of roads, traffic signs and traffic lights, buildings etc... Such kind of maps almost always come with some degree of imprecision (mostly in position), they also can be wrong, lacking existing but undescribed elements (landmarks), or containing in their data elements that do not exist anymore. In order to manage such imperfections in the collected data, and to allow a vehicle to localize based on such data, we propose a new strategy. Firstly, to manage the classical problem of data incest in data fusion in the presence of strong correlations, together with the map scalability problem, we propose to manage the whole map using a Split Covariance Intersection filter. We also propose to remove possibly absent landmarks still present in map data by estimating their probability of being there based on vehicle sensor detections, and to remove those with a low score. Finally, we propose to periodically scan sensor data to detect possible new landmarks that the map does not include yet, and proceed to their integration into map data. Experiments show the feasibility of such a concept of dynamic high level map that could be updated on-the-fly.

Page generated in 0.0801 seconds