• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 21
  • 4
  • Tagged with
  • 72
  • 72
  • 65
  • 47
  • 42
  • 35
  • 33
  • 22
  • 18
  • 16
  • 13
  • 12
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Digital signal processing algorithms in single-carrier optical coherent communications

Ng, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
32

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
33

Description incrémentale d'objets déformables dans des séquences vidéo

Drouin, Stéphane 13 April 2018 (has links)
Cette thèse propose une méthode pour la description incrémentale d'objets formés de plusieurs parties en mouvement observées dans des séquences vidéo. La principale contribution de ce travail est l'automatisation de la modélisation incrémentale des objets en mouvement. L'approche proposée permet l'initialisation entièrement automatique des modèles. Puisque cette opération n'est plus distincte, la topologie des modèles n'a pas à être connue à l'avance et les objets observés n'ont pas à être segmentés correctement à un instant prédéterminé. Afin de décrire automatiquement les mouvements d'un objet déformable, les parties rigides qui le composent sont segmentées selon leur déplacement dans les images. Un algorithme de segmentation combinant le mouvement des points d'intérêt et le déplacement de patrons d'arêtes est proposé afin de rendre les résultats moins dépendants de la texture présente dans les images. De plus, l'utilisation de la mesure de quantité de mouvement est introduite afin d'assurer une certaine indépendance face à l'échelle temporelle. La segmentation n'est activée que localement, quand les parties existantes ne peuvent plus être suivies correctement. Les parties ainsi segmentées sont automatiquement intégrées dans un modèle formé de parties rigides qui est ensuite utilisé pour le suivi de l'objet. La gestion des occultations de même que la création et la validation de modèles articulés sont toutes deux réalisées lors du suivi. Cette approche permet d'intégrer l'initialisation des modèles et leur suivi dans une boucle de rétroaction entre la segmentation et le suivi. Une mémoire des modèles favorise l'émergence des meilleurs modèles en renforçant ceux qui sont souvent réobservés et en pénalisant les autres. Les objets qui peuvent être représentés par cette nouvelle approche sont composés de parties rigides et ils sont déformables. Dans ce contexte, la déformation d'un objet est définie comme un déplacement relatif de ses parties. Des exemples montrent l'application du système sur des objets manufacturés composés d'une ou de plusieurs parties, des personnes et des personnes qui transportent des objets.
34

Développement d'outils d'IA pour évaluer l'état de douleur d'une souris

Bonilla Villatoro, William Ricardo 06 May 2024 (has links)
Ce mémoire présente une méthodologie novatrice pour mesurer les niveaux de douleur chez la souris en utilisant des techniques d'interprétation des images par apprentissage profond. L'un des principaux défis rencontrés dans cette étude a été l'acquisition de données de haute qualité. Une fois les données de qualité obtenues, il a été possible d'entraîner des réseaux de neurones capables de mesurer les niveaux de douleur. Afin de relever ces défis, nous avons développé un système de capture et de traitement d'images spécifiquement conçu pour cette étude. Ce système permet l'acquisition d'images de haute résolution avec un éclairage ajustable, ainsi que le traitement presque en temps réel des images. Grâce à ce système, nous avons pu constituer une base de données, appelée *MGS_UL*, comprenant plus de 2000 images annotées. Ensuite, des algorithmes d'apprentissage profond sont exploités pour évaluer de manière fiable les niveaux de douleur chez les souris. Ces algorithmes ont été testés sur la base de données *MGS_UL* pour évaluer leur efficacité à mesurer les niveaux de douleur. Les résultats obtenus démontrent la viabilité de ces algorithmes d'apprentissage profond pour la mesure de la douleur chez les souris. Ils ouvrent également la voie à de nouvelles avancées dans ce domaine de recherche.
35

The Ardour DAW – Latency Compensation and Anywhere-to-Anywhere Signal Routing Systems / Le "Ardour DAW" : compensation de latence et systèmes ouverts de routage de signaux.

Gareus, Robin 08 December 2017 (has links)
Dans des systèmes numériques essentiellement latents, compenser la latence n’est pastrivial, en particulier lorsque les graphes de routage du signal sont complexes commec’est souvent le cas dans une station audionumérique (DAW).Tandis que le problème général est de nature mathématique, des complicationsapparaissent dans la conception de systèmes audio en temps réel à cause des contraintesdu matériel, de l’architecture du système, ou de l’ingénierie.Pour construire un système fournissant une compensation de latence sur l’intégralitédu graphe avec possibilité de connecter n’importe quelle source à n’importe quelledestination, uniquement décrire les mécanismes est insuffisant. Le système completdoit être conçu d’un bloc à l’aide de prototypes pour prendre en compte les limitationsdu monde réel.Cette recherche a été menée en utilisant Ardour, une station audionumériquelibrement disponible sous licence libre GPL. Cette thèse est autant un rapport deconception qu’une documentation de recherche.Une analyse complète des éléments de base et de leurs interactions est présentée.La plupart ont été implémentés au delà de la démonstration de faisabilité, dans lebut de combler l’écart entre les systèmes professionnels de production audio et ladocumentation librement accessible pour la recherche et le développement.Même si elle s’attache ostensiblement à Ardour, cette thèse décrit les conceptgénériques des station audio tels que les Ports, les pistes (Tracks), les bus (Busses)et les processeurs de traitement numériques du signal (Processors) ainsi que lesinteractions opérationnelles entre eux.Les concepts de base communs à toutes les entrées/sorties numériques sont expliquésainsi que les sources de latence. Les graphes de traitement et de latence sont illustréspour présenter une vue d’ensemble.Les problèmes généraux rencontrés lors de l’alignement temporel, tant local que / In inherently latent digital systems it is not trivial to compensate for latency, particularlyin situations of complex signal routing graphs as is the case in a Digital AudioWorkstation.While the general problem is of mathematical nature, design complexities arisein real-time audio systems due to constraints by hardware, system-architecture andengineering.To construct a system providing for full-graph latency compensation with anywhereto-anywhere routing capabilities, it is insufficient to merely describe mechanisms.The complete system has to be designed as one and prototyped to take real-worldlimitations into account.This research was carried out using Ardour, a digital audio workstation, whichis freely available under the GPL free-software licence. This thesis is as much adesign-report as it is research documentation.A complete breakdown of building-blocks and interaction is presented, most of whichhas also been implemented beyond a proof-of-concept with the goal to bridge the gapbetween professional audio production systems and freely accessible documentationfor research and development.While ostensibly focusing on Ardour, this thesis describes generic concepts of AudioWorkstations like Ports, Tracks, Busses, and DSP Processors, as well as operationalinteraction between them.Basic concepts common to all digital I/O processes an,d sources of latency areexplained, and process- and latency graphs are illustrated to provide a completepicture. General issues related to time-alignment, both local, and global, as wellas more DAW specific cases like parameter-automation and parallel-execution arediscussed. Algorithms are modelled with pseudocode where appropriate and applicationprogramming interfaces are presented as examples to concepts throughout the text.
36

Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-Carlo

Malzac, Julien 08 October 1999 (has links) (PDF)
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
37

Description, déploiement et optimisation de chaînes de traitements d'analyse d'images médicales sur grilles de production

Glatard, Tristan 20 November 2007 (has links) (PDF)
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues.
38

Système d'identification à partir de l'image d'iris et détermination de la localisation des informations / Iris identification system and determination of characteristics location

Hilal, Alaa 21 October 2013 (has links)
Le système d’identification d’iris est considéré comme l’une des meilleures technologies biométriques. Toutefois, des problèmes liés à la segmentation de l’iris et à la normalisation de la texture de l’iris sont généralement signalés comme principales origines des reconnaissances incorrectes. Dans notre travail, trois contributions principales sont proposées pour améliorer le système d’identification d’iris. Une nouvelle méthode de segmentation est développée. Elle détecte la frontière externe de l’iris par un contour circulaire et la pupille, d’une manière précise, à l’aide d’un modèle de contour actif. Ensuite, une nouvelle méthode de normalisation est proposée. Elle assure une représentation plus robuste et un meilleur échantillonnage de la texture de l’iris comparée aux méthodes traditionnelles. Enfin en utilisant le système d’identification d’iris proposé, la localisation des caractéristiques discriminantes dans une région d’iris est identifiée. Nous vérifions que l’information la plus importante de la région de l’iris se trouve à proximité de la pupille et que la capacité discriminante de la texture diminue avec la distance à la pupille. Les méthodes de segmentation et de normalisation développées sont testées et comparées à un système de référence sur une base de données contenant 2639 images d’iris. Une amélioration des performances de reconnaissance valide l’efficacité du système proposé / Iris identification system is considered among the best biometric technologies. However problems related to the segmentation of the iris and to the normalization of iris templates are generally reported and induce loss of recognition performance. In this work three main contributions are made to the progress of the iris identification system. A new segmentation method is developed. It approximates the outer iris boundary with a circle and segments accurately the inner boundary of the iris by use of an active contour model. Next, a new normalization method is proposed. It leads to a more robust characterization and a better sampling of iris textures compared to traditional normalization methods. Finally using the proposed iris identification system, the location of discriminant characteristics along iris templates is identified. It appears that the most discriminant iris characteristics are located in inner regions of the iris (close to the pupil boundary) and that the discriminant capabilities of these characteristics decreases as outer regions of the iris are considered. The developed segmentation and normalization methods are tested and compared to a reference iris identification system over a database of 2639 iris images. Improvement in recognition performance validates the effectiveness of the proposed system
39

Turbo égalisation de faible complexité avec estimation des canaux multi trajets à évanouissements rapides

Berdai, Abdellah 17 April 2018 (has links)
De nos jours, certaines applications multimédias embarquées tel que la visiophonie, l'internet à haut débit, etc., de par leur limitations en capacitée dues aux efets introduits par les canaux de transmission, requierent des traitements numériques ecaces des signaux recus. La turbo detection semble prometteuse pour ce genre de demande. Elle permet d'exploiter la totalitée de l'information mise à la disposition du récepteur. Cependant, ses performances pour des canaux fortement dégrades, dependent largement de l'estimation des paramètres du milieu de transmission. Sa complexité calculatoire est liée aux modules échangeant les informations extrinseques. Dans ce contexte, cette thèse cible la conception et l'analyse des récepteurs iteratifs de faible complexitée destinées à la transmission des symboles codés dans les canaux de Rayleigh multi trajets à évanouissements rapides, inconnus au récepteur. Nous nous interessons dans la première partie de la thèse à la turbo égalisation dans le contexte mono usager : nous proposons et analysons une architecture iterative de faible complexité, intégrant l'égalisation, le décodage et l'estimation de la réponse impulsionnelle du canal et ses statistiques. Grâce à des outils semi analytiques, nous expliquons l'in- uence des paramètres du milieu de propagation sur le turbo détecteur et justions le choix des modules realisant le meilleur compromis complexite/performances. D'autre part, nous demontrons que l'architecture proposee s'adapte bien aux milieux severement perturbes dont la reponse impulsionnelle et les statistiques sont inconnues au recepteur. Dans la seconde partie, nos travaux de recherche portent sur la turbo detection multi usagers pour une liaison montante d'un systeme DS-CDMA asynchrone. Nous etudions deux situations. Dans la premiere, le recepteur est equipe d'une seule antenne. Nous proposons et evaluons une architecture iterative constituee de modules de faible complexit e, joignant la detection multi usagers, le decodage et l'estimation des canaux de transmission. Quant a la deuxieme situation, nous exploitons le principe de diversite d'antennes en reception et etendons les modules de l'architecture proposee au contexte multi antennes. Nous demontrons par simulation que l'architecture proposee permet d'eradiquer les interferences occasionnees par les milieux de propagation sans augmenter de maniere significative le rapport signal a bruit. / Beyond their capacity limitations due to the transmission channels efects, nowadays, some embarked multimedia applications such as video telephony, broadband internet, etc., require ecient digital processing of the received signals. Turbo detection is a promising method to address these requirements. It allows exploiting all the available information at the receiver. However, its performance for the severe channels is highly dependent on the transmission parameter estimation. Its computational complexity is mainly due to the SISO modules. In this context, this thesis study the design and analysis of low complexity iterative receiver for the coded symbols over unknown fast fading multipath Rayleigh channels. In the first part of the thesis, we investigate the SISO turbo equalization for single user : we propose and analyze an iterative low complexity architecture, including equalization, decoding and channel estimation with its statistics. Using semi analytical tools, we explain the propagation efect on the turbo equalizer and justify the choice of modules realizing the best complexity/performance compromise. Furthermore, we demonstrate that the proposed architecture is efective in severe channel conditions where the impulse response and statistics are unknown to the receiver. In the second part, our research focuses on multi-user turbo detection for uplink asynchronous DS-CDMA systems. Two situations are considered. For the first one, the receiver has a single antenna. We propose and evaluate an iterative architecture involving lower complexity modules, handling multi-user detection, decoding and channels estimation. As for the second situation, we use the receiver diversity principle and we extend the proposed architecture modules to the multi antennas context. Simulation results showed that the proposed architecture eliminate almost all the interference caused by the channel without increasing significantly the required signal to noise ratio.
40

La réalisation audionumérique DIY de groupes rock au Québec : pour une méthode de travail plus efficace

Bossé, Mathieu 30 September 2019 (has links)
Dans ce mémoire, nous nous penchons sur les processus créatifs et techniques d’enregistrement sonore de type DIY (Do It Yourself) pratiqués dans mes expériences avec différents groupes rock, punk, hardcore et alternatif de Québec. Les styles musicaux varient grandement d’un projet à l’autre, mais trois aspects sont communs à chaque groupe : 1) Ils sont issus d’une scène «underground» de la Ville de Québec. 2) Ils ont une instrumentation rock (pour nous, une instrumentation rock est composée des instruments suivants : batterie, guitare électrique, guitare basse et voix). 3) Ils enregistrent de manière DIY jusqu’à un certain niveau. Avec les avancées technologiques, l’enregistrement DIY est une pratique de plus en plus courante chez les groupes de musique. À notre expérience, les artistes œuvrant dans des scènes se rapprochant de la culture punk et underground sont souvent restreints par des ressources et des budgets limités ou ont simplement un désir de liberté créative lorsqu’il est temps d’enregistrer leurs chansons. Dans la recherche de l’indépendance, ils vont souvent opter pour l’approche DIY lorsqu’il est temps d’enregistrer une chanson ou un album, ce qui donne souvent une esthétique punk aux pistes audio. Dans ce partage d’expériences, l’objectif est d’analyser les méthodes de travail qui contribuent à obtenir des résultats de qualité en enregistrement DIY et d’en tirer une méthode efficace qui pourrait servir au DIYer en enregistrement. Nous croyons qu’en prenant connaissance de nos résultats et de nos analyses de chaque projet, un(e) artiste désirant enregistrer un projet musical de façon DIY sera en mesure de faire des choix plus sensés et éclairés par rapport à sa propre situation et son propre projet d’enregistrement. Enfin, j’offre mes observations et conclusions au réalisateur DIY pour qu’il analyse bien sa réalité unique à lui-même et à son ou ses projets d’enregistrement afin qu’il bénéficie d’une courbe d’apprentissage rapide et conviviale. / In this master’s thesis, we address the issue of creative processes and recording techniques in different DIY (Do It Yourself) settings as implemented through my experience with different rock, punk, hardcore and alternative bands in Quebec City. Musical styles greatly vary from one project to another, but all of the music groups share three common aspects : 1) They come from the underground scene around Quebec City. 2) They have a rock-type instrumentation (for us, a rock-type instrumentation is made up of minimum two of the following instruments: drums, electric guitar, electric bass and vocal.) 3) They record in a DIY setting, up to a certain point. With the rise of new technologies, DIY recording is more and more common in music bands. In our experience, artists from scenes close to the punk and underground cultures are often limited by their budget and resources or simply have a desire for creative liberty when recording their music. Seeking independence, they will often go for the DIY approach when the time has come for them to record a song or an album, which often lends a punk aesthetic to their audio tracks. This masters thesis seeks to analyse working methods that contribute to obtaining good quality results in DIY recording and to find an efficient methodology that could help the self-taught DIYer in recording music. We believe that by reading about these projects, with the analysis and feedback, an artist who wants to work in a DIY setting will be able to make better decisions in regard to their own recording project and situation. I also offer advice for the DIY recording artist to analyse his own unique recording reality and the one of his different recording projects in order for him to benefit from a faster and favorable learning curve.

Page generated in 0.0774 seconds