1 |
Quantitative subsurface defect evaluation by pulsed phase thermography: depth retrieval with the phaseIbarra Castanedo, Clemente 11 April 2018 (has links)
La Thermographie de Phase Pulsée (TPP) est une technique d’Évaluation Non-Destructive basée sur la Transformée de Fourier pouvant être considérée comme étant le lien entre la Thermographie Pulsée, pour laquelle l’acquisition de données est rapide, et la Thermographie Modulée, pour laquelle l’extraction de la profondeur est directe. Une nouvelle technique d’inversion de la profondeur reposant sur l’équation de la longueur de diffusion thermique : μ=(α /πf)½, est proposée. Le problème se résume alors à la détermination de la fréquence de borne fb, c à d, la fréquence à laquelle un défaut à une profondeur particulière présente un contraste de phase suffisant pour être détecté dans le spectre des fréquences. Cependant, les profils de température servant d’entrée en TPP, sont des signaux non-périodiques et non-limités en fréquence pour lesquels, des paramètres d’échantillonnage Δt, et de troncature w(t), doivent être soigneusement choisis lors du processus de discrétisation du signal. Une méthodologie à quatre étapes, basée sur la Dualité Temps-Fréquence de la Transformée de Fourier discrète, est proposée pour la détermination interactive de Δt et w(t), en fonction de la profondeur du défaut. Ainsi, pourvu que l’information thermique utilisée pour alimenter l’algorithme de TPP soit correctement échantillonnée et tronquée, une solution de la forme : z=C1μ, peut être envisagée, où les valeurs expérimentales de C1 se situent typiquement entre 1.5 et 2. Bien que la détermination de fb ne soit pas possible dans le cas de données thermiques incorrectement échantillonnées, les profils de phase exhibent quoi qu’il en soit un comportement caractéristique qui peut être utilisé pour l’extraction de la profondeur. La fréquence de borne apparente f’b, peut être définie comme la fréquence de borne évaluée à un seuil de phase donné φd et peut être utilisée en combinaison avec la définition de la phase pour une onde thermique : φ=z /μ, et le diamètre normalisé Dn=D/z, pour arriver à une expression alternative. L'extraction de la profondeur dans ce cas nécessite d'une étape additionnelle pour récupérer la taille du défaut. / Pulsed Phase Thermography (PPT) is a NonDestructive Testing and Evaluation (NDT& E) technique based on the Fourier Transform that can be thought as being the link between Pulsed Thermography, for which data acquisition is fast and simple; and Lock-In thermography, for which depth retrieval is straightforward. A new depth inversion technique using the phase obtained by PPT is proposed. The technique relies on the thermal diffusion length equation, i.e. μ=(α /π·f)½, in a similar manner as in Lock-In Thermography. The inversion problem reduces to the estimation of the blind frequency, i.e. the limiting frequency at which a defect at a particular depth presents enough phase contrast to be detected on the frequency spectra. However, an additional problem arises in PPT when trying to adequately establish the temporal parameters that will produce the desired frequency response. The decaying thermal profiles such as the ones serving as input in PPT, are non-periodic, non-band-limited functions for which, adequate sampling Δt, and truncation w(t), parameters should be selected during the signal discretization process. These parameters are both function of the depth of the defect and of the thermal properties of the specimen/defect system. A four-step methodology based on the Time-Frequency Duality of the discrete Fourier Transform is proposed to interactively determine Δt and w(t). Hence, provided that thermal data used to feed the PPT algorithm is correctly sampled and truncated, the inversion solution using the phase takes the form: z=C 1 μ, for which typical experimental C 1 values are between 1.5 and 2. Although determination of fb is not possible when working with badly sampled data, phase profiles still present a distinctive behavior that can be used for depth retrieval purposes. An apparent blind frequency f’b , can be defined as the blind frequency at a given phase threshold φd , and be used in combination with the phase delay definition for a thermal wave: φ=z /μ, and the normalized diameter, Dn=D/z, to derive an alternative expression. Depth extraction in this case requires an additional step to recover the size of the defect. / La Termografía de Fase Pulsada (TFP) es una técnica de Evaluación No-Destructiva basada en la Transformada de Fourier y que puede ser vista como el vínculo entre la Termografía Pulsada, en la cual la adquisición de datos se efectúa de manera rápida y sencilla, y la Termografía Modulada, en la que la extracción de la profundidad es directa. Un nuevo método de inversión de la profundidad por TFP es propuesto a partir de la ecuación de la longitud de difusión térmica: μ=(α /π·f)½. El problema de inversion se reduce entonces a la determinación de la frecuencia límite fb (frecuencia a la cual un defecto de profundidad determinada presenta un contraste de fase suficiente para ser detectado en el espectro de frecuencias). Sin embargo, las curvas de temperatura utilizadas como entrada en TFP, son señales no-periódicas y no limitadas en frecuencia para las cuales, los parámetros de muestreo Δt, y de truncamiento w(t), deben ser cuidadosamente seleccionados durante el proceso de discretización de la señal. Una metodología de cuatro etapas, basada en la Dualidad Tiempo-Frecuencia de la Transformada de Fourier discreta, ha sido desarrollada para la determinación interactiva de Δt y w(t), en función de la profundidad del defecto. Así, a condición que la información de temperatura sea correctamente muestreada y truncada, el problema de inversión de la profundidad por la fase toma la forma : z=C 1 μ, donde los valores experimentales de C 1 se sitúan típicamente entre 1.5 y 2. Si bien la determinación de fb no es posible en el caso de datos térmicos incorrectamente muestreados, los perfiles de fase exhiben de cualquier manera un comportamiento característico que puede ser utilizado para la extracción de la profundidad. La frecuencia límite aparente f’b , puede ser definida como la frecuencia límite evaluada en un umbral de fase dado φd , y puede utilizarse en combinación con la definición de la fase para una onda térmica: φ=z /μ, y el diámetro normalizado Dn , para derivar una expresión alternativa. La determinación de la profundidad en este caso, requiere de una etapa adicional para recuperar el tamaño del defecto.
|
2 |
Nouvelles méthodes de codage vidéo distribuéHuchet, Grégory 16 April 2018 (has links)
De nos jours certaines applications vidéo de par des limitations de mémoire et de capacités de calculs requièrent un système où l'encodage d'une séquence vidéo doit être le plus simple possible. Le codage vidéo distribué nouveau paradigme de la compression vidéo semble prometteur pour ce genre de demande. Il permet une compression peu complexe de séquences animées. Son principe repose sur les travaux de D. Slepian et J. K. Wolf [1] ainsi que ceux de A. D. Wyner et J. Ziv [2] menés dans les années 70. La présente thèse énonce trois différentes contributions relatives au codage vidéo conventionnel et distribué. La première est un nouveau procédé de filtrage vidéo basé sur l'utilisation d'arbres de décision. Afin de réduire les artefacts visuels issus d'une trop forte compression, les arbres de décision identifient et appliquent les meilleurs coefficients de filtrage en fonction des données à filtrer. La seconde contribution concerne un schéma de codage vidéo distribué où l'on évite de transmettre au décodeur 1 information relative aux blocs de l'image les moins significatifs. De cette manière, on engendre une diminution importante du débit binaire et une réduction de la complexité de décodage. Ce schéma de codage repose sur une séparation en couche des coefficients de transformée en cosinus discret de l'image. Les coefficients DC sont les premiers à être transmis au décodeur. De là, ils sont analysés par ce dernier afin de trouver les blocs les plus significatifs de l'image. Le décodeur indique alors à l'encodeur, via un canal de retour, quels sont les coefficients AC des blocs à transmettre. Enfin, la dernière contribution consiste en une méthode de représentation binaire adaptative des images dans les procédés de codage vidéo distribué. Cette représentation permet de réduire efficacement le débit binaire et tenant compte uniquement de l'information source la plus pertinente. Ici encore cette méthode repose sur une utilisation plus efficace d 'un canal de retour.
|
3 |
Laser accordable électroniquementDeltel, Geoffroy 12 April 2018 (has links)
Dans un contexte de développement important des technologies photoniques et de leurs applications à la plupart des domaines scientifiques (télécommunications, biologie, médecine), il apparaît de plus en plus essentiel de pouvoir se doter de sources laser accordables en longueur d'onde et facilement utilisables. Ce mémoire résume et approfondit la recherche menée dans le cadre de la compagnie Technologies SWAG Inc. sur le laser accordable électroniquement (ETL). Elle présente ainsi les principes inédits mis en œuvre et ayant fait l'objet d'un brevet et développe à la fois les avantages et les limites de ceux-ci. Ces principes ont par la suite fait l'objet de démonstrations expérimentales utilisant différentes technologies disponibles : celle des fibres optiques dopées et celle des semi- conducteurs pompés optiquement et électriquement. / In a context of significant development of photonic technologies and their applications to the majority of the scientific fields (telecommunications, biology, medicine), it appears increasingly essential to be able to use tunable and easy-to-use laser sources. This memorandum summarizes and looks further into the research undertaken within the company Technologies SWAG Inc. on the electronically tunable laser (ETL). It thus presents the new patented principles implemented and develops at the same time the advantages and the limits of those. These principles were the subject thereafter of experimental demonstrations using various available technologies: that of doped optical fibres and that of optically or electrically pumped semiconductors.
|
4 |
Correction et moyennage temps-réel pour mesures interférométriques par peignes de fréquenceRoy, Julien 19 April 2018 (has links)
Ce mémoire a pour but le développement d’un système interférométrique à peignes de fréquence simple d’utilisation et performant afin de démocratiser l’utilisation de cette nouvelle technologie. Dans ce mémoire, le principe d’interférométrie par peignes de fréquence est décrit ainsi que des techniques de référencement. Par la suite, le référencement est utilisé afin de concevoir un système de correction et de moyennage temps-réel. Ce mémoire présente le système optique et électronique nécessaire à la réalisation d’un tel système. Toutes les étapes de la conception de l’algorithme de correction et de moyennage y sont exposées ainsi que les différents compromis et optimisations effectués. Finalement, des mesures expérimentales prises et corrigées à l’aide du système développé sont présentées. À ce jour, la mesure d’HCN et de C¬¬2H2 ainsi que celle du micro-résonateur présentées dans ce mémoire possèdent le plus haut rapport signal sur bruit pris par un interféromètre à peignes de fréquence.
|
5 |
APIA : architecture propriété intéraction acteur pour des mondes virtuels agilesBernier, François 13 April 2018 (has links)
Une majorité de mondes virtuels (MVs) existants mettent l'accent sur la qualité graphique, les capacités réseaux ou sur la qualité de la modélisation. Toutefois, ces MVs manquent souvent agilité t tant au niveau de leur conception que de leur exécution. Il en résulte des MVs monolithiques avec peu de réutilisabilité. Cette thèse propose une architecture appelée "Architecture Propriété Interaction Acteur" (APIA) qui a pour objectif d'améliorer Yagilité des MVs en se concentrant sur les caractéristiques sous-jacentes : la composabilité, la réutilisabilité, la modifiabilité, l'extensibilité et une grande liberté d'action. La solution proposée consiste en une architecture générique basée sur un méta-modèle conceptuel comprenant cinq éléments de base, supportés par un processus et des algorithmes de gestion. Comparativement aux autres approches qui sont centrées sur l'entité, le métamodèle conceptuel propose un paradigme centré sur l'interaction entre les entités. Ce paradigme permet de regrouper les protocoles entre les entités et les aspects de l'interaction dans un élément du MV nommé interaction. Plusieurs exemples, dont des applications de cryochirurgie et d'inspection de barrages, viennent démontrer que les entités et les interactions sont moins interdépendantes avec cette approche. De plus, des exemples montrent que l'émergence de comportements est facilitée due à la meilleure composabilité de cette approche. Ensuite, le processus développé avec APIA définit trois groupes d'actions qui influencent à différents niveaux Yagilité future du MV. Finalement, APIA définit des algorithmes de gestion de ces actions afin de maintenir le MV cohérent tout au long des modifications, des extensions ou des compositions en cours d'exécution. Les gestionnaires qui appliquent ces algorithmes maintiennent automatiquement la cohérent du MV lors d'opérations de modification, d'extension et de composition. Ces caractéristiques sont désormais possibles en cours d'exécution sans l'intervention humaine.
|
6 |
Capture de mouvement par fusion de poses multivues pour une réadaptation en environnement virtuelBonenfant, Michaël 03 September 2024 (has links)
Plusieurs recherches ont démontré les avantages de la réadaptation physique assistée par la robotique ainsi que la réadaptation en environnement virtuel. Les exercices de réadaptation sont fréquemment effectués sur un système coûteux de capture de mouvement basé sur le suivi de marqueurs fixés sur le patient. L'utilisation de ce type de système nécessite du temps et l'expertise d'un clinicien. Le projet que nous proposons a pour but de supporter de tels exercices de réadaptation en plus de pallier aux problèmes des systèmes de capture de mouvement conventionnels très coûteux. Le système développé comprend un mécanisme à câbles intégré en environnement virtuel procurant un retour haptique et visuel au patient. L'estimation de la pose humaine sans marqueur est effectuée en temps réel pour permettre l'analyse du mouvement, l'affichage de l'avatar du patient ainsi que son interaction avec l'environnement virtuel. Le système de vision fait usage de capteurs 3D peu coûteux afin d'offrir un dispositif abordable pour la plupart des cliniques de réadaptation. Un tel système permet une reconfigurabilité importante afin d'optimiser les exercices de réadaptation aux besoins du patient. Ce mémoire couvre les étapes du développement du système, notamment l'approche de fusion de pose selon des points de vue multiples basée sur le filtrage particulaire. L'analyse des résultats présentés est prometteuse à différents niveaux sachant que le système est aussi très flexible et adaptable à différents contextes autres que la réadaptation, comme le milieu du divertissement. / Several works have shown the benefits of robotic assisted physical rehabilitation as well as rehabilitation in a virtual environment. Rehabilitation exercises are often performed using an expensive motion capture system based on markers attached to the patient. The use of this type of system requires time and expertise from a clinician. The project we are introducing aims to support such rehabilitation exercises in addition to avoid some of the problems of an expensive conventional motion capture systems. The developed system includes a cable mechanism integrated into a virtual environment providing haptic and visual feedback to the patient. The estimation of the human pose without marker is carried out in real-time to allow the analysis of the movement, the display of the patient avatar as well as its interaction with the virtual environment. The vision system exploit inexpensive 3D sensors to provide an affordable device for most rehabilitation clinics. That system allows enough reconfigurability to optimize the rehabilitation exercises to the needs of the patient. This thesis covers the stages of the system development, including the fusion approach based on multiple views based on particle filtering. The analysis of the results presented is promising, knowing that the system is also very flexible and adaptable to different contexts other than rehabilitation, such as the entertainment industry.
|
7 |
Spatio-temporal coverage optimization of sensor networksAkbarzadeh, Vahab 14 January 2025 (has links)
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs. / Sensor networks consist in a set of devices able to individually capture information on a given environment and to exchange information in order to obtain a higher level representation on the activities going on in the area of interest. Such a distributed sensing with many devices close to the phenomena of interest is of great interest in domains such as surveillance, agriculture, environmental monitoring, industrial monitoring, etc. We are proposing in this thesis several approaches to achieve spatiotemporal optimization of the operations of these devices, by determining where to place them in the environment and how to control them over time in order to sense the moving targets of interest. The first novelty consists in a realistic sensing model representing the coverage of a sensor network in its environment. We are proposing for that a probabilistic 3D model of sensing capacity of a sensor over its surrounding area. This model also includes information on the environment through the evaluation of line-of-sight visibility. From this sensing model, spatial optimization is conducted by searching for the best location and direction of each sensor making a network. For that purpose, we are proposing a new algorithm based on gradient descent, which has been favourably compared to other generic black box optimization methods in term of performance, while being more effective when considering processing requirements. Once the sensors are placed in the environment, the temporal optimization consists in covering well a group of moving targets in the environment. That starts by predicting the future location of the mobile targets detected by the sensors. The prediction is done either by using the history of other targets who traversed the same environment (long term prediction), or only by using the previous displacements of the same target (short term prediction). We are proposing new algorithms under each category which outperformed or produced comparable results when compared to existing methods. Once future locations of targets are predicted, the parameters of the sensors are optimized so that targets are properly covered in some future time according to the predictions. For that purpose, we are proposing a heuristics for making such sensor control, which deals with both the probabilistic targets trajectory predictions and probabilistic coverage of sensors over the targets. In the final stage, both spatial and temporal optimization method have been successfully integrated and applied, demonstrating a complete and effective pipeline for spatiotemporal optimization of sensor networks.
|
8 |
Infrared image enhancement based on hybrid-domain consideration and data fusion methodsZhang, Qiong 20 November 2024 (has links)
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace. / In recent decades, the endeavor on infrared sensor applications has been proceeding widely all through the world. But there are some problems, namely that the targets are not clear enough or cannot be distinguished easily in the image obtained for the observed scene. Infrared image enhancement has been playing a significant role of an early stage technology in infrared computer vision, image processing and non-destructive testing, etc. This thesis addresses the issue of infrared image enhancement techniques in two aspects, including the single infrared image processing in hybrid space-frequency domain, and the infrared-visible image fusion employing the nonsubsampled Contourlet transform (NSCT) technique. The image fusion can be considered as being the further exploration of the model of singe infrared image enhancement, while it combines the infrared and visible images altogether into one image to represent and protrude all useful information and characteristics from the source images, by reason that a single image could not contain all relevant or available information in terms of the restrictions stemming from any single sensor of imaging. After the investigation and review for the development of infrared image enhancement techniques, in the topic of single infrared image enhancement, a hybrid-domain enhancement scheme with a threshold-improved fuzzy evaluation method is proposed, which achieves superior image quality and human visual perception. Infrared and visible image fusion techniques are established upon the implementation of accurate registration for source images acquired by different sensors. The SURF-RANSAC algorithm is applied in the registration issue all through the entire research work, which ensures us to receive very precisely registered images and to benefit further for the fusion processing. For the infrared-visible image fusion issues, a series of advanced and effective approaches are proposed. A multi-channel NSCT-based standard fusion method is presented as a reference for the subsequently proposed fusion approaches. An Adaptive-Gaussian NSCT and Wavelet Transform (WT) based joint fusion scheme is proposed, which obtains better fusion outcomes than the general non-adaptive methods. A NSCT-based fusion approach employing compressed sensing (CS) and total variation (TV) to sample coefficients sparsely and reconstruct fused coefficients accurately is proposed, which receives much better fusion results through pre-enhancing the infrared image and decreasing the redundant fusion coefficients information. A NSCT-based fusion scheme using fast iterative-shrinking compressed sensing (FISCS) technique is proposed to compress the decomposed coefficients and reconstruct the fused coefficients in the fusion process, which is able to achieve better results more rapidly and effectively.
|
9 |
Solutions de navigation pour lanceurs de satellites : observabilité et nouvelles approchesBeaudoin, Yanick 24 April 2019 (has links)
Cette recherche évalue de nouvelles approches pour améliorer la performance des solutions de navigation pour lanceurs de satellite. La première est l’utilisation des données de la trajectoire de référence. L’idée de cette approche est de pondérer, tout au long de la mission, la confiance sur le fait que le lanceur suit la trajectoire prédite afin d’exploiter les données d’attitude de la trajectoire de référence dans la solution de navigation. La seconde approche est l’ajout d’un modèle stochastique du lanceur à la solution de navigation. Pour ce modèle, l’accélération et la vélocité angulaire sont représentées par une marche aléatoire dont la variance est ajustée en fonction de la connaissance des forces agissantes sur le lanceur. Finalement, l’usage de plusieurs unités de mesures inertielles bas de gamme est comparé à l’usage d’une seule unité de mesures inertielles de meilleure qualité. Le recours à plusieurs unités de mesures inertielles permet de répartir celles-ci sur la structure du lanceur. L’effet du positionnement de ces unités de mesures est évalué en comparant des solutions de navigation dont tous les capteurs sont placés dans la tête du lanceur à une solution où les capteurs sont répartis dans la tête de chacun des étages du lanceur. Quelques approches pour effectuer la fusion des unités de mesures inertielles sont testées ; fusion de toutes les unités de mesures dans une seule centrale inertielle, fusion de plusieurs centrales inertielles et fusion de plusieurs centrales inertielles avec contraintes géométrique. Pour plusieurs des solutions proposées ainsi que pour plusieurs autres déjà existantes, une étude exhaustive de l’observabilité est effectuée. L’observabilité est vérifiée à l’aide de la matrice d’observabilité, de l’étude de la propagation de la matrice de covariance et de l’analyse à la sensibilité à une mesure aberrante. Finalement, une méthode simplifiée pour évaluer les performances des solutions de navigation inertielle sur une trajectoire fixe est présentée. Les résultats montrent que l’usage des données de la trajectoire de référence permet de réduire l’erreur d’estimation du roulis. Cependant, l’ajout de ces données n’améliore pas l’observabilité du modèle de base sur lequel celles-ci sont ajoutées. Le recours à un modèle stochastique de la dynamique du lanceur n’apporte que des gains marginaux sur les estimations d’attitude, de vélocité et de position. Par contre, cette approche améliore substantiellement les estimations d’accélération et de vélocité angulaire. La distribution des capteurs inertiels sur la structure du lanceur n’améliore pas la précision de navigation. Cette dernière est même dégradée lorsque des capteurs sont perdus en raison des largages d’étages. La fusion de plusieurs unités de mesures inertielles à l’aide d’une centrale inertielle offre des performances équivalentes à celles obtenues avec une seule unité de mesure. Par contre, la fusion de plusieurs centrales inertielles permet de réduire l’erreur d’estimation. Qui plus est, des gains additionnels peuvent être obtenus lorsque des contraintes géométriques sur l’attitude, la vélocité et la position relatives entre les centrales inertielles sont ajoutées à cette dernière approche. Les tests d’observabilité ont montré que la modélisation des biais de capteurs par un processus de Markov plutôt que par une marche aléatoire a peu d’impact sur l’observabilité du modèle. De plus, sur une mission de courte durée, le choix du modèle pour représenter les biais de capteurs n’a qu’un effet négligeable sur la précision des estimations. Les analyses d’observabilité ont aussi montré que le recours à un seul récepteur GPS n’est pas suffisant pour assurer l’observabilité du roulis et que le biais de mesure de position du récepteur GPS n’est pas observable. / This research evaluates new approaches to improve the performance of navigation solutions for satellite launchers. The first is the use of data from the reference trajectory. The idea of this approach is to weigh, throughout the mission, the confidence that the launcher follows the predicted trajectory in order to exploit the attitude data of the reference trajectory in the navigation solution. The second approach is to add a stochastic model of the launcher to the navigation solution. For this model, the acceleration and the angular velocity are represented by a random walk whose variance is adjusted according to the knowledge of the forces acting on the launcher. Finally, the use of several low-end inertial measurement units is compared to the use of a single higher quality inertial measurement unit. The use of several inertial measurement units makes it possible to distribute these on the structure of the launcher. The effect of the positioning of these measurement units is evaluated by comparing navigation solutions of which all the sensors are placed in the head of the launcher to a solution where the sensors are distributed in the head of each stage of the launcher. Some approaches for merging the inertial measurement units data are tested; fusion of all the inertial measurement units in a single inertial navigation system, fusion of several inertial navigation systems and fusion of several inertial navigation systems with geometric constraints. For many of the proposed solutions as well as for several others already in existence, an exhaustive study of the observability is carried out. The observability is verified using the observability matrix, the study of the propagation of the covariance matrix and the analysis of the sensitivity to measurement outliers. Finally, a simplified method for evaluating the performance of inertial navigation solutions on a fixed trajectory is presented. The results show that the use of the reference trajectory data makes it possible to improve the roll estimate. However, adding these data does not improve the observability of the base model on which they are added. The use of a stochastic model of the launcher dynamics provides marginal gains on attitude, velocity and position estimates. On the other hand, this approach substantially improves the acceleration and angular velocity estimates. The distribution of inertial sensors on the launcher structure does not improve navigation accuracy. The latter is even degraded when sensors are lost due to stage jettisoning. Merging several inertial measurement units with a single inertial navigation system provides performance equivalent to that achieved with a single inertial measurement unit. On the other hand, the fusion of several inertial navigation systems makes it possible to reduce the estimation error. Moreover, additional gains can be obtained when geometric constraints on the relative attitude, velocity and position between inertial navigation systems are added to this latter approach. Observability tests have shown that modelling sensor biases by a Markov process rather than a random walk has little impact on the observability of the model. In addition, on a short-term mission, the choice of the model to represent the sensor bias has only a negligible effect on the precision of the estimates. Observability analyzes have also shown that the use of a single GPS receiver is not sufficient to ensure the observability of the roll and that the position measurement bias of the GPS receiver is not observable.
|
10 |
Modélisation vectorielle de la biréfringence photoinduite observée dans les réseaux photoinscritsNezih, Belhadj 13 April 2018 (has links)
L'omniprésence de la biréfringence photoinduite dans les réseaux optiques photoinscrits, présente un défi important pour l'ingéniosité du procédé de fabrication de ce type de composants. Des études précédentes ont identifié trois contributions à la biréfringence photoinduite dans les réseaux : le stress photoinduit causé par la densification de la structure du verre dans le coeur photosensible de la fibre, l'anisotropie causée par l'excitation préférentielle des défauts d'oxygènes dans la matrice du verre et la biréfringence de forme causée par l'asymétrie du profil du changement d'indice dans le plan transverse. Dans l'objectif de contribuer aux travaux qui visent à remédier à la biréfringence photoinduite, nous nous proposons dans la première partie de cette thèse, de la caractériser et de quantifier les différents facteurs qui y contribuent. Nous calculerons la biréfringence de forme dans différents types de fibres à l'aide d'une méthode vectorielle d'éléments finis d'ordre élevé. Nous évaluerons la biréfringence causée par le stress photoinduit en mettant en évidence, à travers une mesure tomographique, l'asymétrie de la distribution de stress et l'anisotropie d'indice dans la fibre irradiée. Nous en déduirons par la suite la valeur de la contribution de ce type de biréfringence à la biréfringence photoinduite totale. Vu la nature vectorielle de l'onde dans les réseaux biréfringents, il est important de se procurer un outil numérique pour l'analyse et la prédiction de la propagation de l'onde vectorielle dans les réseaux optiques. Ainsi, nous nous proposons dans la deuxième partie de cette thèse, de développer un outil de calcul pouvant décrire l'évolution de la polarisation dans les structures périodiques en tenant compte de la propagation bidirectionnelle de l'onde et de la rotation des axes propres de polarisation dans les régions illuminées et non illuminées du réseau.
|
Page generated in 0.02 seconds