Spelling suggestions: "subject:"detechniques numérique"" "subject:"3dtechniques numérique""
21 |
High speed optical communications in silicon photonics modulatorsZhalehpour, Sasan 16 March 2024 (has links)
Les communications optiques basées sur la photonique sur silicium (SiP) sont au centre des récents efforts de recherche pour le développement des futures technologies de réseaux optiques à haut débit. Dans cette thèse, nous étudions le traitement numérique du signal (DSP) pour pallier aux limites physiques des modulateurs Mach-Zehnder sur silicium (MZM) opérés à haut débit et exploitant des formats de modulation avancés utilisant la détection cohérente. Dans le premier chapitre, nous présentons une nouvelle méthode de précompensation adaptative appelée contrôle d’apprentissage itératif par gain (G-ILC, aussi utilisé en linéarisation d’amplificateurs RF) permettant de compenser les distorsions non-linéaires. L’adaptation de la méthode G-ILC et la précompensation numérique linéaire sont accomplies par une procédure « hardware-in-the-loop » en quasi-temps réel. Nous examinons différents ordres de modulation d’amplitude en quadrature (QAM) de 16QAM à 256QAM avec des taux de symboles de 20 à 60 Gbaud. De plus, nous combinons les précompensations numériques et optiques pour contrevenir surmonter les limitations de bande-passante du système en régime de transmission haut débit. Dans le second chapitre, inspiré par les faibles taux de symbole du G-ILC, nous augmentons la vitesse de transmission au-delà de la limite de bande-passante du système SiP. Pour la première fois, nous démontrons expérimentalement un record de 100 Gbaud par 16QAM et 32QAM en transmission consécutive avec polarisation mixte. L’optimisation est réalisée sur le point d’opération du MZM et sur la DSP. Les performances du G-ILC sont améliorées par égalisation linéaire à entrées/sorties multiples (MIMO). Nous combinons aussi notre précompensation non-linéaire innovante avec une post-compensation. Par émulation de la polarisation mixte, nous réalisons un taux net de 833 Gb/s avec 32QAM au seuil de correction d’erreur (FEC) pour une expansion en largeur de bande de 20% et 747 Gb/s avec 16QAM (une expansion en largeur de bande de 7% du FEC). Dans le troisième chapitre, nous démontrons expérimentalement un algorithme de précompensation numérique basé sur une table de consultation (LUT) unidimensionnelle pour compenser les non-linéarités introduites à l’émetteur, e.g. réponse en fréquence non-linéaire du MZM en silicium, conversion numérique-analogique et amplificateur RF. L’évaluation est réalisée sur un QAM d’ordre élevé, i.e. 128QAM et 256QAM. Nous examinons la diminution en complexité de la LUT et son impact sur la performance. Finalement, nous examinons la généralisation de la méthode de précompensation proposée pour des jeux de données différents des données d’apprentissage de la table de consultation. / Optical communications based on silicon photonics (SiP) have become a focus of the recent research for future high speed optical network technologies. In this thesis, we investigate digital signal processing (DSP) approaches to combat the physical limits of SiP Mach-Zehnder modulators (MZM) driven at high baud rates and exploiting advanced modulation formats with coherent detection. In the first section, we present a novel adaptive pre-compensation method known as gain based iterative learning control (G-ILC, previously used in RF amplifier linearization) to overcome nonlinear distortions. We experimentally evaluate the G-ILC technique. Adaptation of the G-ILC, in combination with linear digital pre-compensation, is accomplished with a quasireal- time hardware-in-the-loop procedure. We examine various orders of quadrature amplitude modulation (QAM), i.e., 16QAM to 256QAM, and symbol rates, i.e., 20 to 60 Gbaud. Furthermore, we exploit joint digital and optical linear pre-compensation to overcome the bandwidth limitation of the system in the higher baud rate regime. In the second section, inspired by lower symbol rate G-ILC results, we push the baud rate beyond the bandwidth limit of the SiP system. For the first time, we experimentally report record-breaking 16QAM and 32QAM at 100 Gbaud in dual polarization back-to-back transmission. The optimization is performed on both MZM operating point and DSP. The G-ILC performance is improved by employing linear multiple input multiple output (MIMO) equalization during the adaptation. We combine our innovative nonlinear pre-compensation with post-compensation as well. Via dual polarization emulation, we achieve a net rate of 833 Gb/s with 32QAM at the forward error correction (FEC) threshold for 20% overhead and 747 Gb/s with 16QAM (7% FEC overhead). In the third section, we experimentally present a digital pre-compensation algorithm based on a one-dimensional lookup table (LUT) to compensate the nonlinearity introduced at the transmitter, e.g., nonlinear frequency response of the SiP MZM, digital to analog converter and RF amplifier. The evaluation is performed on higher order QAM, i.e., 128QAM and 256QAM. We examine reduction of LUT complexity and its impact on performance. Finally, we examine the generalization of the proposed pre-compensation method to data sets other than the original training set for the LUT.
|
22 |
Segmentation d'un patron de lumière structurée : vision 3D active et codée utilisant la lumière blancheParadis, Nicolas 17 April 2018 (has links)
Les capteurs basés sur la lumière structurée codée prennent une ampleur grandissante dans le domaine de la numérisation 3D. Ce type de capteur permet une numérisation plus rapide de la surface d'un objet comparativement aux capteurs laser ou aux systèmes de palpage (i.e. numérisation avec contact). De plus, les capteurs fonctionnant par la projection d'une seule trame offrent la possibilité de numériser des scènes en mouvement, ce qui est un avantage indéniable sur la majorité des capteurs commercialisés depuis quelques années. Le projet de recherche traité dans ce mémoire a été réalisé dans le cadre du développement d'un capteur basé sur la lumière blanche structurée, conçu par l'équipe de vision 3D du Laboratoire de Vision et Systèmes Numériques de l'Université Laval. Un tel capteur utilise un projecteur afin de projeter un patron de lumière codée sur la scène. Ce patron se déforme au contact de la surface et sa réflexion est captée par une caméra. Cette déformation permet de déduire la profondeur de la surface et ainsi calculer la position de points 3D représentant la surface de l'objet. Le rôle de ce mémoire est de développer et implanter un algorithme de segmentation d'images qui a comme objectif d'extraire le patron de la scène. Les images acquises par le capteur sont traitées en utilisant une approche basée sur les arêtes pour détecter les primitives contenue dans le patron. Chacune de ces primitives encode un symbole formant un mot codé. Le but de l'algorithme est donc de déterminer la position et l'étiquette (i.e. la valeur du symbole) associées à ces primitives. L'apparence de la scène complique cette tâche, car les propriétés de la surface (e.g. texture, déformations géométriques, type de matériaux) peuvent interférer avec la réflexion du patron. Par exemple, un objet de couleur foncée réfléchira très peu la lumière projetée, tandis qu'une surface géométriquement complexe déformera le patron, pouvant rendre les symboles flous et difficiles à détecter. La robustesse de l'algorithme face à ces défis est analysée et nous soulevons les limitations d'une telle approche de segmentation.
|
23 |
Digital signal processing algorithms in single-carrier optical coherent communicationsNg, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
|
24 |
Étude de la géométrie dans la synthèse de vueLambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
|
25 |
Description incrémentale d'objets déformables dans des séquences vidéoDrouin, Stéphane 13 April 2018 (has links)
Cette thèse propose une méthode pour la description incrémentale d'objets formés de plusieurs parties en mouvement observées dans des séquences vidéo. La principale contribution de ce travail est l'automatisation de la modélisation incrémentale des objets en mouvement. L'approche proposée permet l'initialisation entièrement automatique des modèles. Puisque cette opération n'est plus distincte, la topologie des modèles n'a pas à être connue à l'avance et les objets observés n'ont pas à être segmentés correctement à un instant prédéterminé. Afin de décrire automatiquement les mouvements d'un objet déformable, les parties rigides qui le composent sont segmentées selon leur déplacement dans les images. Un algorithme de segmentation combinant le mouvement des points d'intérêt et le déplacement de patrons d'arêtes est proposé afin de rendre les résultats moins dépendants de la texture présente dans les images. De plus, l'utilisation de la mesure de quantité de mouvement est introduite afin d'assurer une certaine indépendance face à l'échelle temporelle. La segmentation n'est activée que localement, quand les parties existantes ne peuvent plus être suivies correctement. Les parties ainsi segmentées sont automatiquement intégrées dans un modèle formé de parties rigides qui est ensuite utilisé pour le suivi de l'objet. La gestion des occultations de même que la création et la validation de modèles articulés sont toutes deux réalisées lors du suivi. Cette approche permet d'intégrer l'initialisation des modèles et leur suivi dans une boucle de rétroaction entre la segmentation et le suivi. Une mémoire des modèles favorise l'émergence des meilleurs modèles en renforçant ceux qui sont souvent réobservés et en pénalisant les autres. Les objets qui peuvent être représentés par cette nouvelle approche sont composés de parties rigides et ils sont déformables. Dans ce contexte, la déformation d'un objet est définie comme un déplacement relatif de ses parties. Des exemples montrent l'application du système sur des objets manufacturés composés d'une ou de plusieurs parties, des personnes et des personnes qui transportent des objets.
|
26 |
Improvements to ultrasonic imaging with post-processing of full matrix capture dataDeschênes Labrie, Patrick 13 December 2023 (has links)
Ce mémoire présente les comparaisons entre les différentes méthodes de reconstruction "Total Focusing Method" (TFM) et des différents algorithmes modifiés qui utilisent les données obtenues avec la "Full Matrix Capture" (FMC) dans le but d'améliorer certains points clés présents dans les méthodes d'imageries, tel que les problèmes de reconstructions en sous-résolution ou bien des améliorations sur la détection. Les algorithmes conçus sont comparés en analysant les mêmes données pour les différents cas. De ces cas, l'imagerie de défauts isolés et puis ensuite celle d'une séquence de défauts très rapprochée ont été effectuées. Différentes recherches ont été effectuées sur les performances des algorithmes de reconstruction TFM en basse résolution. Ce mémoire montre que tous les types d'algorithmes présentés, soit la TFM standard, la TFM avec enveloppe d'Hilbert, la TFM intégration, la TFM intégration avec enveloppe d'Hilbert, la TFM restreinte en angle, la Migration et la Migration d'Hilbert sont toutes des méthodes valides de post-traitements des données capables d'imager convenablement les défauts présentés. Les différentes méthodes de reconstruction démontrent également des habilitées dépassant celles de la TFM standard dans certains points clés, en ayant seulement quelques points négatifs, tel que les temps de traitement ou bien l'augmentation du bruit de l'image. / This study shows the comparison between standard Total Focusing Method (TFM) and various modified algorithms using the data obtained from the Full Matrix Capture (FMC) in order to improve on some key points present in the aforementioned standard method of imaging, such as sub-resolution problems and improvements on detection. The designed algorithms were compared by processing the same data for different cases. Off those cases, the imaging of isolated defects and then imaging an array of close defects were analyzed. Further work have also been done on the performance of TFM algorithms in low resolution settings. The study has shown that all presented algorithms, which are the standard TFM, the Hilbert envelope TFM, the integration TFM, the Hilbert integration TFM, the angle restricted TFM, the Migration and the Hilbert Migration are all valid image post-processing reconstruction methods able to properly detect the defects presented. The different reconstruction methods used have also shown to outperform the standard TFM in a few key points, while having a few negative points such as the processing time and the increase noise.
|
27 |
Partial shape matching using CCP map and weighted graph transformation matchingNikjoo Soukhtabandani, Ali 20 April 2018 (has links)
La détection de la similarité ou de la différence entre les images et leur mise en correspondance sont des problèmes fondamentaux dans le traitement de l'image. Pour résoudre ces problèmes, on utilise, dans la littérature, différents algorithmes d'appariement. Malgré leur nouveauté, ces algorithmes sont pour la plupart inefficaces et ne peuvent pas fonctionner correctement dans les situations d’images bruitées. Dans ce mémoire, nous résolvons la plupart des problèmes de ces méthodes en utilisant un algorithme fiable pour segmenter la carte des contours image, appelée carte des CCPs, et une nouvelle méthode d'appariement. Dans notre algorithme, nous utilisons un descripteur local qui est rapide à calculer, est invariant aux transformations affines et est fiable pour des objets non rigides et des situations d’occultation. Après avoir trouvé le meilleur appariement pour chaque contour, nous devons vérifier si ces derniers sont correctement appariés. Pour ce faire, nous utilisons l'approche « Weighted Graph Transformation Matching » (WGTM), qui est capable d'éliminer les appariements aberrants en fonction de leur proximité et de leurs relations géométriques. WGTM fonctionne correctement pour les objets à la fois rigides et non rigides et est robuste aux distorsions importantes. Pour évaluer notre méthode, le jeu de données ETHZ comportant cinq classes différentes d'objets (bouteilles, cygnes, tasses, girafes, logos Apple) est utilisé. Enfin, notre méthode est comparée à plusieurs méthodes célèbres proposées par d'autres chercheurs dans la littérature. Bien que notre méthode donne un résultat comparable à celui des méthodes de référence en termes du rappel et de la précision de localisation des frontières, elle améliore significativement la précision moyenne pour toutes les catégories du jeu de données ETHZ. / Matching and detecting similarity or dissimilarity between images is a fundamental problem in image processing. Different matching algorithms are used in literature to solve this fundamental problem. Despite their novelty, these algorithms are mostly inefficient and cannot perform properly in noisy situations. In this thesis, we solve most of the problems of previous methods by using a reliable algorithm for segmenting image contour map, called CCP Map, and a new matching method. In our algorithm, we use a local shape descriptor that is very fast, invariant to affine transform, and robust for dealing with non-rigid objects and occlusion. After finding the best match for the contours, we need to verify if they are correctly matched. For this matter, we use the Weighted Graph Transformation Matching (WGTM) approach, which is capable of removing outliers based on their adjacency and geometrical relationships. WGTM works properly for both rigid and non-rigid objects and is robust to high order distortions. For evaluating our method, the ETHZ dataset including five diverse classes of objects (bottles, swans, mugs, giraffes, apple-logos) is used. Finally, our method is compared to several famous methods proposed by other researchers in the literature. While our method shows a comparable result to other benchmarks in terms of recall and the precision of boundary localization, it significantly improves the average precision for all of the categories in the ETHZ dataset.
|
28 |
Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaireBergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
|
29 |
Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapidesTrottier, Éric 10 May 2024 (has links)
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre. / For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
|
30 |
Optimisation par recuit simulé et fabrication de masques de phase pour l'augmentation de la profondeur de champ d'un microscopeCaron, Nicolas 13 April 2018 (has links)
La profondeur de champ est un paramètre crucial pour la conception des systèmes optiques. Cette affirmation est particulièrement vraie dans le cas des microscopes. Plusieurs solutions ont été proposées dans le passé pour contourner les limites imposées par ce paramètre. L'ingénierie du front d'onde consiste par exemple à ajouter un masque de phase dans le système optique pour rendre la fonction de transfert optique invariante par rapport à la position axiale de l'objet. Ce mémoire propose d'atteindre ce but en optimisant des masques de phase polynomiaux par la méthode du recuit simulé. L'invariance de la fonction de transfert optique est assurée par la minimisation d'une fonction de coût faisant intervenir la MTF du système optique en fonction de l'aberration du défocus. L'optique de Fourier est utilisée pour obtenir cette information à partir d'un modèle théorique du microscope. Les masques de phases sont optimisés selon deux géométries en particulier : le système de coordonnées cartésiennes séparables et la symétrie de rotation. Cette façon de procéder permet d'évaluer un grand nombre de solutions différentes dans un temps raisonnable, ce qui maximise les chances d'atteindre le minimum global de la fonction de coût. Le meilleur masque ainsi obtenu est fabriqué par la méthode des gravures binaires successives. Cette technique photolithographique permet d'obtenir quatre niveaux de phase. Le masque fabriqué est finalement ajouté au montage du microscope afin de vérifier son effet sur la profondeur de champ. Les résultats obtenus après déconvolution des images acquises respectent le but initialement fixé.
|
Page generated in 0.0759 seconds