• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 8
  • 2
  • Tagged with
  • 27
  • 27
  • 10
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algorithme non intrusif de localisation et de correction de distorsions dans les signaux sonores compressés à bas débits

Desrochers, Simon. January 2016 (has links)
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
2

Développement d'une stratégie de post-traitement pour l'analyse de la combustion prémélangée : application à une flamme turbulente swirlée. / Post-processing Strategy Development for Premixed Combustion Analysis : Application to Turbulent Swirled Flames

Bossard, Pierre-Edouard 14 June 2017 (has links)
Une des pistes majeures pour obtenir des turbines à gaz moins polluantes est l'utilisation de chambres de combustion fonctionnant en régime prémélangé pauvre. Cependant, dans de tels régimes de fonctionnement, la flamme obtenue est cependant plus facilement sujette aux instabilités thermo-acoustiques.Dans cette thèse, un brûleur étagé swirlé fonctionnant au propane a été employé pour illustrer une méthode d'analyse de la combustion prémélangée. Cette installation a été étudiée à l'aide de diagnostics classiques (micros, PLIF, film à haute cadence de la flamme).La stratégie de post-traitement développée dans cette thèse utilise par contre des outils eux aussi classiques (PSD, moyenne de phase) mais aussi une méthode d'analyse avancée, la Décomposition en Modes Dynamiques. Celle-ci est notamment étudiée em détail afin d'en cerner les avantages et les limitations dans le cadre de l'analye des instabilités de combustion. / One of the major ways of reducing pollutant emissions in gas turbines is using combustion chambers with lean premixed mixtures. However, in such operating conditions the flame is more susceptible to thermo-acoustic instabilities. In the present work, a propane-fed swirled burner using two injection stages is used to illustrate a post-processing strategy for premixed combustion analysis. This model burner has been studied using classic diagnostics (microphones, PLIF, highspeed imaging).The strategy developed in the present work uses both classic postprocessing tools (PSD, phase averaging) and an advanced method, the Dynamic Mode Decomposition. In particular, this method is studied in detail and compared to more lassic ones in order to clearly point its advantages as well as its shortcomings when used to study combustion instabilities.
3

Estimation rapide en surface de la triaxialité des contraintes et de la plasticité : application aux disques et aux aubes de turbine de turboréacteurs / Fast estimation of plasticity and stress triaxiality at free edges : application to gas turbine disks and gas turbine blades

Darlet, Adrien 21 January 2014 (has links)
Le présent travail de doctorat vise à proposer une méthode de post-traitement de la plasticité, à partir de deux calculs éléments finis en élasticité, afin de déterminer la durée de vie de structures avec concentration de contraintes, comme les disques ou les aubes de turbines. Leur dimensionnement en fatigue avec des calculs éléments finis en plasticité conduit à des temps de calcul longs, voir prohibitifs. Les méthodes de types Neuber et l’analyse par changement d’échelles sont des alternatives beaucoup moins couteuses en temps de calcul. En effet, ces méthodes permettent d’estimer la plasticité localisée uniquement à l’aide de calculs éléments finis en élasticité. Néanmoins, lorsque l’état de contrainte est multiaxial, le post-traitement de la plasticité est très imprécis. Cette imprécision provient d’une mauvaise estimation de la triaxialité des contraintes. Les méthodes de type Neuber ont été d’abord enrichies par une description plus précise de la triaxialité des contraintes. Elles ont ensuite été validées sur des structures soumises à des chargements monotones. Cependant, cette méthodologie n’est pas adaptée pour les chargements multiaxiaux alternés. Pour remédier à ce problème, une approche fondée sur les lois de changement d’échelles a été développée. Les zones de plasticité confinée sont considérées comme des inclusions. Cette approche est également enrichie par une meilleure description de la triaxialité des contraintes. Le post-traitement de la plasticité obtenue sur les bords libres de structures soumises à des chargements alternés est précis. Cette méthode a finalement été appliquée sur les cas d’un disque et d’une aube de turbine. / This work aims to propose a method to estimate plasticity from two structural analyses in elasticity in order to determine the lifetime of structures with stress concentration, such as turbine discs or turbine blades. Fatigue analyses computed by the finite element method in plasticity leads to costly computations not always suitable. Energetic methods such as Neuber’s and the scale transition approach are much less expensive alternatives. Indeed, these methods are able to estimate localized plasticity at free edges only from both computations in elasticity. However, when the stress state is multiaxial, the estimation of the plasticity is inaccurate. This inaccuracy comes from a wrong estimation of the stress triaxiality. Expressions for the stress triaxiality at free edges of elastoplastic structures are established. These expressions are derived thanks to a new heuristic that unify uniaxial tension (plane stress condition) and plane deformation in a single case. The proposed expressions for the stress triaxiality are then used to enhance energetic methods (as Neuber and Glinka rules). Notched specimens subjected to monotonic loadings are studied. However, this methodology is not able to handle alternating loadings. To deal with this problem, a new scale transition approach is developed. Localized plastic areas are considered as inclusions. This approach is enhanced by the new heuristic of multiaxiality. The elastoplastic notch tip strains and stresses of structure subjected to complex alternating loadings are accurately estimated from both elastic analyses. This method is finally applied to the case of a turbine disk and a turbine blade of a jet engine.
4

Etude et optimisation de capteurs de gaz a base de dioxyde d’etain en conditions d’une ligne d’echappement automobile / Study and optimization of gas sensors based on tin dioxide (SnO2) in automotive exhaust conditions

Valleron, Arthur 06 July 2011 (has links)
Cette étude est dédiée à l’optimisation de capteurs chimiques de gaz de type résistifs à base de dioxyde d’étain (SnO2) pour l’application en ligne d’échappement automobile. Les capteurs sont élaborés par la technique de sérigraphie qui permet la production en masse de capteurs robustes sur substrat alumine. En vue de l’application automobile visée, les capteurs ont été optimisés par l’ajout d’une couche protectrice poreuse déposée sur l’élément sensible de SnO2. Le comportement de ces capteurs a été étudié en fonction de différents paramètres, comme la température et la vitesse des gaz, représentatifs de conditions d’échappement automobile. De plus, une modélisation « simple » de la réponse électrique des capteurs en fonction de la concentration d’un ou plusieurs gaz polluants cibles a été proposée. / This study is dedicated to the optimization of chemical gas sensors based on resistive type tin dioxide (SnO2) for automotive exhaust application. The sensors were produced by screen-printing technique which allows mass production of robust sensors on alumina substrate. In regards of the automotive application, the sensors were optimized by adding a porous protective layer deposited on the sensing element SnO2. The behaviour of this type of gas sensors was studied depending on gas parameters such as gas temperature and velocity, representative of real operation conditions. In addition, a “simple” modelisation of the electrical response of sensors depending on the concentration of one or more gaseous targets is proposed.
5

Etude et optimisation de capteurs de gaz a base de dioxyde d'etain en conditions d'une ligne d'echappement automobile

Valleron, Arthur, Valleron, Arthur 06 July 2011 (has links) (PDF)
Cette étude est dédiée à l'optimisation de capteurs chimiques de gaz de type résistifs à base de dioxyde d'étain (SnO2) pour l'application en ligne d'échappement automobile. Les capteurs sont élaborés par la technique de sérigraphie qui permet la production en masse de capteurs robustes sur substrat alumine. En vue de l'application automobile visée, les capteurs ont été optimisés par l'ajout d'une couche protectrice poreuse déposée sur l'élément sensible de SnO2. Le comportement de ces capteurs a été étudié en fonction de différents paramètres, comme la température et la vitesse des gaz, représentatifs de conditions d'échappement automobile. De plus, une modélisation " simple " de la réponse électrique des capteurs en fonction de la concentration d'un ou plusieurs gaz polluants cibles a été proposée.
6

Estimation rapide en surface de la triaxialité des contraintes et de la plasticité : application aux disques et aux aubes de turbine de turboréacteurs

Darlet, Adrien 21 January 2014 (has links) (PDF)
Le présent travail de doctorat vise à proposer une méthode de post-traitement de la plasticité, à partir de deux calculs éléments finis en élasticité, afin de déterminer la durée de vie de structures avec concentration de contraintes, comme les disques ou les aubes de turbines. Leur dimensionnement en fatigue avec des calculs éléments finis en plasticité conduit à des temps de calcul longs, voir prohibitifs. Les méthodes de types Neuber et l'analyse par changement d'échelles sont des alternatives beaucoup moins couteuses en temps de calcul. En effet, ces méthodes permettent d'estimer la plasticité localisée uniquement à l'aide de calculs éléments finis en élasticité. Néanmoins, lorsque l'état de contrainte est multiaxial, le post-traitement de la plasticité est très imprécis. Cette imprécision provient d'une mauvaise estimation de la triaxialité des contraintes. Les méthodes de type Neuber ont été d'abord enrichies par une description plus précise de la triaxialité des contraintes. Elles ont ensuite été validées sur des structures soumises à des chargements monotones. Cependant, cette méthodologie n'est pas adaptée pour les chargements multiaxiaux alternés. Pour remédier à ce problème, une approche fondée sur les lois de changement d'échelles a été développée. Les zones de plasticité confinée sont considérées comme des inclusions. Cette approche est également enrichie par une meilleure description de la triaxialité des contraintes. Le post-traitement de la plasticité obtenue sur les bords libres de structures soumises à des chargements alternés est précis. Cette méthode a finalement été appliquée sur les cas d'un disque et d'une aube de turbine.
7

Contribution à l’amélioration des performances de décodage des turbo codes : algorithmes et architecture / Contribution to the improvement of the decoding performance of turbo codes : algorithms and architecture

Tonnellier, Thibaud 05 July 2017 (has links)
Les turbo codes sont une classe de codes correcteurs d’erreurs approchant la limite théorique de capacité formulée par Claude Shannon. Conjointement à leurs excellentes performances de décodage, la complexité calculatoire modérée des turbo décodeurs a permis leur inclusion dans de nombreux standards de communications numériques. Une des métriques permettant la caractérisation de codes correcteurs d’erreurs est l’évolution du taux d’erreurs binaires en fonction du rapport signal sur bruit. Dans le cadre des turbo codes, une courbe de performance de décodage comprend deux zones principales.Dans la première zone, une faible amélioration de la qualité du canal de transmission entraîne de grandes améliorations au niveau des performances de décodage. En revanche dans la seconde, une amélioration de cette qualité ne résulte qu’en une amélioration marginale des performances de décodage. Cette seconde région est nommée zone du plancher d’erreurs. Elle peut empêcher l’utilisation de turbo codes dans des contextes nécessitant de très faibles taux d’erreurs. C’est pourquoi la communauté scientifique a proposé différentes optimisations favorisant la construction de turbo codes atténuant ce plancher d’erreurs. Cependant, ces approches ne peuvent être considérées pour des turbocodes déjà standardisés. Dans ce contexte, cette thèse adresse le problème de la réduction du plancher d’erreurs en s’interdisant de modifier la chaîne de communications numériques du côté de l’émetteur.Pour ce faire, un état de l’art de méthodes de post-traitement de décodage est dressé pour les turbo codes. Il apparaît que les solutions efficaces sont coûteuses à mettre en oeuvre car elles nécessitent une multiplication des ressources calculatoires ou impactent fortement la latence globale de décodage.Dans un premier temps, deux algorithmes basés sur une supervision de l’évolution de métriques internes aux décodeurs, sont proposés. L’un deux permet d’augmenter la convergence du turbo décodeur. L’autre ne permet qu’une réduction marginale du plancher d’erreurs. Dans un second temps, il est observé que dans la zone du plancher d’erreurs, les trames décodées par le turbo décodeur sont très proches du mot de code originellement transmis. Ceci est démontré par une proposition de prédiction analytique de la distribution du nombre d’erreurs binaires par trame erronée. Cette dernière est réalisée grâce au spectre de distance du turbo code. Puisque ces erreurs binaires responsables du plancher d’erreurs sont peu nombreuses, une métrique permettant de les identifier est mise en oeuvre. Ceci mène alors à l’établissement d’un algorithme de décodage permettant de corriger des erreurs résiduelles. Cet algorithme, appelé algorithme Flip-and-Check se base sur un principe de création de mots candidats et de vérifications successives parun code détecteur d’erreurs. Grâce à cet algorithme de décodage, un abaissement du plancher d’erreurs d’un ordre de grandeur est obtenu pour les turbo codes de différents standards (LTE, CCSDS, DVB-RCS et DVB-RCS2), ce, tout en conservant une complexité calculatoire raisonnable.Finalement, une architecture matérielle de décodage implémentant l’algorithme Flipand-Check est présentée. Une étude préalable de l’impact des différents paramètres de l’algorithme est menée. Elle aboutit à la définition de valeurs optimales pour certains de ces paramètres. D’autres sont à adapter en fonction des gains visés en terme de performances de décodage. Cette architecture démontre alors la possible intégration de cet algorithme aux turbo décodeurs existants ; permettant alors d’abaisser le plancher d’erreurs des différents turbo codes présents dans les différents standards de télécommunication. / Since their introduction in the 90’s, turbo codes are considered as one of the most powerful error-correcting code. Thanks to their excellent trade-off between computational complexity and decoding performance, they were chosen in many communication standards. One way to characterize error-correcting codes is the evolution of the bit error rate as a function of signal-to-noise ratio (SNR). The turbo code error rate performance is divided in two different regions : the waterfall region and the error floor region. In the waterfall region, a slight increase in SNR results in a significant drop in error rate. In the error floor region, the error rate performance is only slightly improved as the SNR grows. This error floor can prevent turbo codes from being used in applications with low error rates requirements. Therefore various constructions optimizations that lower the error floor of turbo codes has been proposed in recent years by scientific community. However, these approaches can not be considered for already standardized turbo codes.This thesis addresses the problem of lowering the error floor of turbo codes without allowing any modification of the digital communication chain at the transmitter side. For this purpose, the state-of-the-art post-processing decoding method for turbo codes is detailed. It appears that efficient solutions are expensive to implement due to the required multiplication of computational resources or can strongly impact the overall decoding latency. Firstly, two decoding algorithms based on the monitoring of decoder’s internal metrics are proposed. The waterfall region is enhanced by the first algorithm. However, the second one marginally lowers the error floor. Then, the study shows that in the error floor region, frames decoded by the turbo decoder are really close to the word originally transmitted. This is demonstrated by a proposition of an analytical prediction of the distribution of the number of bits in errors per erroneous frame. This prediction rests on the distance spectrum of turbo codes. Since the appearance of error floor region is due to only few bits in errors, an identification metric is proposed. This lead to the proposal of an algorithm that can correct residual errors. This algorithm, called Flip-and-Check, rests on the generation of candidate words, followed by verification according to an error-detecting code. Thanks to this decoding algorithm, the error floor of turbo codes encountered in different standards (LTE, CCSDS, DVB-RCS and DVB-RCS2) is lowered by one order of magnitude. This performance improvement is obtained without considering an important computational complexity overhead. Finally, a hardware decoding architecture implementing the Flip-and-Check algorithm is presented. A preliminary study of the impact of the different parameters of this algorithm is carried out. It leads to the definition of optimal values for some of these parameters. Others has to be adapted according to the gains targeted in terms of decoding performance. The possible integration of this algorithm along with existing turbo decoders is demonstrated thanks to this hardware architecture. This therefore enables the lowering of the error floors of standardized turbo codes.
8

Diversité par clustering pour la recherche d'images : étude expérimentale / Diversity by clustering in image retrieval : experimental study

Kuoman Mamani, Christian Antonio 31 August 2015 (has links)
Les moteurs traditionnels offrent à l'utilisateur des résultats de plus en plus pertinents, mais, dans la plupart des cas, les résultats similaires ont tendance à se regrouper. L'utilisateur peut être intéressé pour retrouver des documents qui soient certes tous pertinents par rapport à sa requête, mais aussi qui soient différents les uns des autres. Dans cette thèse, nous considérons le problème de la diversité pour la recherche d'images. Nous avons focalisé notre attention sur la diversité par l'exploitation du clustering, plus spécialement par une approche hiérarchique (AHC), car sa hiérarchie de clusters peut bien correspondre à la nature hiérarchique de la diversité. De plus, nous proposons une nouvelle approche pour exploiter des ressources plus riches, telle qu'une « arborescence de concepts », pour augmenter la diversité. Différentes approches sont comparées sur trois benchmarks : un qui a été annoté manuellement et qui possède une haute pertinence; et deux publics assez différents et plus généraux. Les résultats montrent que l'exploitation hiérarchique des résultats de l'AHC augmente la diversité en comparaison avec des méthodes de clustering plat standard et avec une méthode de diversité par optimisation. Les résultats montrent aussi l'intérêt d'utiliser une arborescence de concepts comme descripteur pour augmenter la diversité. Enfin, nous avons développé un prototype complet avec la prise en compte des contraintes fortes de temps de calcul ce qui le rend adapté pour être utilisable dans le moteur de recherche de l'entreprise. / Conventional search engines return relevant results but often the retrieved items are similar. Moreover, the similar results tend to appear together. The user may be interested to find documents that are relevant and diverse at the same time.In this thesis, we consider the problem of the diversity in image retrieval. We have focused our attention on diversity by clustering, especially in an approach based on an agglomerative hierarchical clustering (AHC) to address the hierarchical nature of the diversity. Furthermore, we propose a novel approach for exploiting richer description resources, such as a «tree of concepts», to increase the diversity.The different approaches are compared on a highly relevant and manually annotated benchmark: the XiloDiv benchmark; and on the most general: ImageClef2008 and MediaEval2013 benchmarks. The experimental results show that a hierarchical exploitation of the results of the AHC increases the diversity in comparison with two flat clustering methods and a method of diversity by optimization. The results also show that it is better to use concept features than visual features from a diversity point of view. In addition, on the Mediaeval2013 benchmark, we show that an interesting strategy to improve diversity is to increase the relevance using the text, and then to exploit visual based clustering to diversify the results.Finally, we developed a complete prototype in particular taking into account the strong constraints of response time which makes it suitable to be used in the company's search engine.
9

Fiber post-processing and atomic spectroscopy for the development of atomic-vapour photonic microcell / Post traitement de fibres creuses et spectroscopie atomique pour le développement de microcapsule photonique et atomique

Zheng, Ximeng 18 July 2017 (has links)
Cette thèse concerne la spectroscopie atomique pour le développement de microcellules photoniques à base de vapeur atomique alcaline (PMC). Le travail est motivé par reproduire les performances remarquables obtenues dans les domaines des références de fréquences et de l’optique cohérente en environnement laboratoire et à les transférer dans des dispositifs très compacts et autonomes accessibles à une communauté scientifique plus large ou à un marché commercial. Dans notre cas, ces futurs composants seront basés sur une fibre à cristal photonique à coeur creux (HC-PCF) remplie d'un matériau en phase gazeuse pour former la PMC et se distingue par une longueur d'interaction ultra longue associée à des dimensions modales transverses micrométriques. Cependant, cette échelle micrométrique du coeur creux de la fibre contenant les atomes soulève plusieurs défis techniques et scientifiques. Parmi les défis techniques, nous énumérons le développement d'un processus efficace pour le chargement d'atomes dans une telle fibre optique, la suppression ou l'atténuation de la réactivité physio-chimique des atomes (c'est-à-dire le rubidium) avec la surface interne silice entourant le coeur de la fibre, etc... En parallèle, le rapport large surface / volume du coeur de la fibre soulève des questions comme la dynamique de relaxation de la cohérence et la nature et l'effet de l'interaction atome-surface. Ainsi, les travaux de thèse reposent sur l’utilisation de revêtements spécifiques de la surface interne du coeur de la fibre avec différents matériaux pour atténuer ces réactions physico-chimiques, sur l'amincissement des larges coeurs creux des HC-PCF Kagomé à couplage inhibé et sur une technique de soudure qui garantit de faibles pertes d’insertion et l’absence de réactivité avec les atomes. Parallèlement, la thèse rapporte un ensemble d'expériences de spectroscopie pour évaluer la dynamique de relaxation des atomes à l'intérieur des HC-PCF et l’observation de nouvelles transparences sous-Doppler. / This thesis reported on atomic spectroscopy for the development of alkaline atomic vapor photonic microcell (PMC). The work is motivated by reproducing the outstanding laboratory environment based performances achieved in the fields of frequency standard and coherent optics in highly compact and stand-alone devices that can be accessible to a wider scientific community or to a commercial market. In our case these future devices will be based a Hollow-core photonic crystal fiber (HC-PCF) filled with a gas phase material to form a PMC, and outstands with an ultra-long long interaction length and micrometric modal area. However, the micrometric scale of the fiber core harboring the atoms raises several technical and scientific challenges. Among the technical challenges, we list the development of efficient process for atom loading inside long hollow fiber with small core diameter, the suppression or mitigation of physio-chemical reactivity of the atoms (i.e. Rubidium) with the fiber core inner-surface silica etc. In parallel, the large surface-to-volume ratio of the fiber-core raises questions like the coherence relaxation dynamics and the nature and effect of the atom-surface interaction. The thesis reports on fiber-core inner surface coating with different materials to mitigate the physio-chemical reactions of the confined atoms with the surface, on tapering large core inhibited coupling Kagome HC-PCF, and splicing technique that ensures low splice loss and no atomic reactivity during the splicing process. In parallel, the thesis reports on a set of spectroscopy experiments to assess the relaxation dynamics of atoms inside HC-PCF and to report on novel sub-Doppler transparencies.
10

Apports et difficultés d’une collecte de données à l’aide de récepteurs GPS pour réaliser une enquête sur la mobilité / Contributions and difficulties of data collection using GPS receivers to conduct a survey on mobility

Pham, Thi Huong Thao 02 May 2016 (has links)
Les méthodes de collecte de données sur la mobilité basée sur les nouvelles technologies ont évolué au cours des dernières décennies. Le suivi de la mobilité par GPS pour la recherche sur les comportements de déplacement se diffuse, principalement en raison de la couverture mondiale et de la précision du système GPS. Le sous-échantillon d’environ 957 volontaires qui ont accepté de porter un GPS pendant au moins une semaine dans le cadre de l'Enquête Nationale Transport et Déplacements (ENTD) 2007-08 est la première expérience nationale de ce type dans le monde.Cette thèse présente l'intérêt des nouvelles technologies pour les enquêtes de mobilité, leurs avantages et leurs biais. D'abord, en étudiant l'acceptabilité et les biais des enquêtes de mobilité à l'aide de GPS, les résultats confirment que les enquêtés volontaires pour une enquête GPS sont plus consciencieux et décrivent mieux leur mobilité. Ensuite, nous décrivons le profil des enquêtés qui acceptent l’enquête GPS. L’une des raisons principales du faible taux de l’acceptation du GPS dans l’ENTD 2007-2008 est la disponibilité de GPS. Donc pour l'accroissement du taux de disponibilité des GPS, nous avons besoin de calculer les temps et durées des visites de l'enquête pour réduire le taux d’immobilisation forcé des GPS.Indépendamment de ce problème d’acceptabilité du GPS par l’enquêté, un défi dans le traitement a posteriori des données collectées par GPS est la mise au point de méthodes permettant de combler les données manquantes et de reconstituer de manière automatisée des séquences continues, à la fois dans l'espace et dans le temps. Nous présentons l’algorithme de post-traitement et les résultats du logiciel de post-traitement des données GPS de l’ENTD 2007-2008. La validation est effectuée en comparant avec les données collectées par les méthodes classiques, ainsi qu’avec le CAPI-GPS qui fournit des informations supplémentaires sur la fiabilité de l'appareil et des caractéristiques plus détaillées (mode, motif...) pour les déplacements réalisés un jour tiré au sort.Ensuite, nous comparons les descriptions de la mobilité obtenues par deux méthodes, questionnaire classique de l’enquête, d’une part et traces GPS d’autre part, pour les jours couverts par ces deux instruments d’observation. Un panorama de l’appariement des traces GPS et des déplacements quotidiens est effectué en s’appuyant sur leur chronologie de manière automatique mais également par un contrôle manuel. En identifiant les caractéristiques des déplacements quotidiens et traces GPS non appariés, nous estimons les raisons de leur non-appariement.Cette recherche montre que l’enquête à l’aide de GPS peut être utilisée avec succès pour compléter les enquêtes de transport classiques, mais qu’il est encore prématuré d’imaginer la substitution complète des enquêtes classiques de mobilité par l’enquête GPS.Mots-clés : enquête de transports, mobilité, nouvelles technologies, collecte de données, GPS, post-traitement, acceptabilité, acceptation, CAPI- GPS, traces GPS, déplacement quotidien. / Travel survey methods based on new technologies have evolved in the past few decades, shifting from limited experiments to large-scale travel surveys. GPS-based data collection methods have become particularly popular in travel behavior research, mainly because of the worldwide coverage and the accuracy of the GPS system. We have taken the opportunity of the French National Travel Survey (FNTS) to have the first nationwide experience with embedding such a “GPS package” in a traditional survey, with a sub-sample of approximately 957 voluntary respondents.This thesis begins by presenting a review of interest in new technologies for mobility surveys, advantages and limitations. Prior to going into the field with the processing of GPS data, it is important to understand the likely acceptability of GPS device among FNTS respondents – specifically whether a sufficient proportion would be willing to use a GPS device while completing a travel diary and, if not, why not. The findings confirmed that the voluntary respondents with GPS receiver are more conscientious and better describe their mobility. We find the profile of respondents who accept the GPS survey. One of the main reason for low GPS acceptance rate in the FNTS 2007 is the availability of GPS. For increasing the GPS availability rate, we need to calculate the time and duration of the survey visits to reduce the GPS immobilization rate.A challenge in the GPS data post-processing is the development of methods to fill GPS missing data and to reconstitute automatically continuous sequence, both in space and time. Then, the architecture of GPS data post-processing for the FNTS 2007-08 is described. After, the results of the post processing software is calibrated by comparison with conventional methods, such as CAPI-GPS providing for a few trips additional information on the reliability of the device and on more detailed characteristics (e.g. mode and purpose).Next, we provide an overview of comparing the descriptions of mobility obtained by two methods CAPI and GPS in the days covered by these two observation tools. The automatic matching of GPS traces to daily trips based on their chronologies and the manual control of this matching are performed. By identifying the characteristics of unmatched GPS traces and daily trips, we expect the reasons for their mismatches.Finally, we evaluate the contributions and challenges of data collection using GPS device. This study shows that the GPS survey can be used successfully to complete the conventional transport surveys, but it is still too early to predict the complete substitution of conventional survey by the GPS mobility survey.Keywords: transport survey, mobility, new technologies, data collection, GPS, post processing, acceptability, GPS traces, daily trip.

Page generated in 0.0674 seconds