• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • 1
  • Tagged with
  • 11
  • 11
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Radar numérique de type Doppler à ondes entretenues : atténuation adaptative de signaux nuisibles provenant de sources immobiles

Lamarche, Philippe 02 February 2021 (has links)
Le développement technologique des dernières années a subi des avancées fulgurantes permettant à plusieurs domaines variés de faire la transition du monde analogique vers le monde numérique. Le domaine des radars a su bénéficier de ces avancées puisque plusieurs radars dits numériques voient maintenant le jour. Les radars ainsi conçus ont l'avantage de pouvoir être reconfigurés en une panoplie de types différents et, cela, uniquement par des changements logiciels. Avec cette flexibilité viennent toutefois quelques désavantages. Entre autres, dans le cas des radars numériques de type Doppler à ondes entretenues, la capacité de filtrer les signaux nuisibles provenant de sources immobiles n'est pas aussi trivialement accessible que dans la version analogique. Il faut donc trouver de nouvelles méthodes permettant d'atténuer ces signaux. Ce mémoire décrit en détail la conception, l'implémentation et l'analyse d'une méthode permettant d'effectuer cette atténuation. Les deux critères les plus importants sont l'atténuation optimale qu'il est possible d'atteindre ainsi que le temps nécessaire pour s'y rendre. L'atténuation que le système peut fournir est d'environ 53 dB et se compare très favorablement à d'autres systèmes similaires. Le temps de réponse est, quant à lui, d'environ 5 à 10 secondes. Le système est robuste et peut fonctionner même dans des cas de saturation et une certaine robustesse à la dérive de phase est démontrée. / The technological developments of the recent years have progressed rapidly, allowing many varied areas to make the transition from analog technologies to their digital counterparts. The eld of radars also bene ted from these developments since many of these radars, known as digital radars, are now starting to appear. These digital radars have the bene t of being recon gurable into di erent types of radars with simple software changes. However, with this added exibility comes some disadvantages. For example, in the case of continuous-wave (Doppler) radars designed with digital technology, there is an issue with the ltering of signals coming from immobile sources that could be easily solved in an analog version. The same method cannot be used for a digital version of this radar. Hence, new methods must be developed to attenuate these signals. This thesis explains in detail the design, implementation and analysis of a method allowing said cancellation. The two most important criteria are the optimal attenuation and the time needed to obtain this attenuation level. The presented system can achieve cancellation of up to 53 dB, which compares well to existing systems. The time needed to obtain this attenuation is around 5 to 10 seconds. The system is also able to operate as intended during cases of saturation and a certain tolerance to phase drift is demonstrated.
2

L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jour

Fillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
3

Caractérisation de la position d'équilibre de la tumeur au poumon en imagerie CBCT et de la performance de deux systèmes de recalage déformable d'images

Gauthier, Jean-François 20 April 2018 (has links)
La radiothérapie guidée par imagerie permet d'offrir des traitements plus précis, alors que la radiothérapie adaptative semble prometteuse. Afin de caractériser la position d'équilibre de la tumeur au poumon, des séries d'images de tomodensitométrie par faisceau conique (ou CBCT pour Cone-Beam Computed Tomography) ont été utilisées. La variation du volume tumoral macroscopique (ou GTV pour Gross Tumor Volume), le déplacement du centre de masse et des extrémités ont été mesurés pour un ensemble de 34 patients à partir de contours GTV tracés sur chacun des CBCT. Une des façons de faire de la radiothérapie adaptative est d'utiliser le recalage dé-formable d'images (ou DIR pour Deformable Image Registration). Ainsi, deux logiciels de DIR ont été testés afin de comparer leur performance respective. Les CBCTs ainsi que les contours GTV ont été déformés et comparés à ceux tracés manuellement lors de la caractérisation de la position d'équilibre. De grandes variations et déplacements ont été observés chez la tumeur au poumon, ce qui justifie l'utilisation de l'imagerie CBCT lors des traitements de radiothérapie. Les deux logiciels de recalage deformable d'images présentent des avantages et des inconvénients. La méthodologie n'est pas au point, mais les résultats sont intéressants et ouvrent la voie à d'autres investigations.
4

Data-driven covariance estimation for the iterative closest point algorithm

Landry, David 06 May 2019 (has links)
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article. / Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
5

Analysis of error functions for the iterative closest point algorithm

Babin, Philippe 06 February 2020 (has links)
Dans les dernières années, beaucoup de progrès a été fait dans le domaine des voitures autonomes. Plusieurs grandes compagnies travaillent à créer un véhicule robuste et sûr. Pour réaliser cette tâche, ces voitures utilisent un lidar pour la localisation et pour la cartographie. Iterative Closest Point (ICP)est un algorithme de recalage de points utilisé pour la cartographie basé sur les lidars. Ce mémoire explore des approches pour améliorer le minimisateur d’erreur d’ICP. La première approche est une analyse en profondeur des filtres à données aberrantes. Quatorze des filtres les plus communs (incluant les M-estimateurs) ont été testés dans différents types d’environnement, pour un total de plus de 2 millions de recalages. Les résultats expérimentaux montrent que la plupart des filtres ont des performances similaires, s’ils sont correctement paramétrés. Néanmoins, les filtres comme Var.Trim., Cauchy et Cauchy MAD sont plus stables à travers tous les types environnements testés. La deuxième approche explore les possibilités de la cartographie à grande échelle à l’aide de lidar dans la forêt boréale. La cartographie avec un lidar est souvent basée sur des techniques de Simultaneous Localization and Mapping (SLAM) utilisant un graphe de poses, celui-ci fusionne ensemble ICP, les positions Global Navigation Satellite System (GNSS) et les mesures de l’Inertial Measurement Unit (IMU). Nous proposons une approche alternative qui fusionne ses capteurs directement dans l’étape de minimisation d’ICP. Nous avons réussi à créer une carte ayant 4.1 km de tracés de motoneige et de chemins étroits. Cette carte est localement et globalement cohérente. / In recent years a lot of progress has been made in the development of self-driving cars. Multiple big companies are working on creating a safe and robust autonomous vehicle . To make this task possible, theses vehicles rely on lidar sensors for localization and mapping. Iterative Closest Point (ICP) is a registration algorithm used in lidar-based mapping. This thesis explored approaches to improve the error minimization of ICP. The first approach is an in-depth analysis of outlier filters. Fourteen of the most common outlier filters (such as M-estimators) have been tested in different types of environments, for a total of more than two million registrations. The experimental results show that most outlier filters have a similar performance if they are correctly tuned. Nonetheless, filters such as Var.Trim., Cauchy, and Cauchy MAD are more stable against different environment types. The second approach explores the possibilities of large-scale lidar mapping in a boreal forest. Lidar mapping is often based on the SLAM technique relying on pose graph optimization, which fuses the ICP algorithm, GNSS positioning, and IMU measurements. To handle those sensors directly within theICP minimization process, we propose an alternative technique of embedding external constraints. We manage to create a crisp and globally consistent map of 4.1 km of snowmobile trails and narrow walkable trails. These two approaches show how ICP can be improved through the modification of a single step of the ICP’s pipeline.
6

Microsystèmes inertiels vibrants pour applications spatiales : apport des fonctions numériques / Inertial vibrating microsystems for space uses : digital functions benefits

Maréchal, Baptiste 19 December 2016 (has links)
L’Onera développe des capteurs inertiels MEMS vibrants avec des performances qui peuvent intéresser des applications spatiales. Les électroniques analogiques traditionnellement associées ne sont à priori pas limitantes par rapport aux performances physiques des capteurs. En revanche, elles se montrent encombrantes, non reconfigurables, et ne délivrent pas les grandeurs mesurées sous forme numérique à l’ordinateur de bord. En outre,dans le cadre d’une utilisation spatiale, elles sont sujettes à dépendance et à obsolescence :le remplacement d’un composant implique une nouvelle qualification.Cette thèse propose une nouvelle architecture numérique générique, limitant au maximum les composants analogiques nécessaires. Les travaux portent principalement sur deux capteurs développés par l’Onera : l’accéléromètre à lame vibrante VIA et le gyromètre vibrant à effet Coriolis VIG, mais sont justement transposables à d’autres familles. Une première fonction clé identifiée est la datation d’évènements pour la mesure de fréquence et de phase, une seconde concerne la synthèse numérique directe de fréquence pour le pilotage de résonateurs, et une troisième traite la génération de signaux sinusoïdaux purs à partir des trains binaires délivrés par le système numérique. Ces fonctions sont réalisées sous forme de périphériques numériques autour d’un processeur embarqué, le tout synthétisé sur composant programmable FPGA. Le manuscrit débute par un rappel des lois physiques et des technologies de mesure inertielle, suivi d’une revue des oscillateurs, analogiques et numériques, afin de déterminer l’architecture numérique souhaitée. Le chapitre suivant aborde de façon théorique les fonctions numériques envisagées, et en détermine les éléments de performance. La mise en oeuvre de ces fonctions et les premiers résultats expérimentaux sont ensuite présentés d’abord au niveau de la fonction seule, et enfin dans une architecture complète incluant le capteur et le logiciel embarqué, pour fournir de vraies mesures inertielles. Ces résultats encouragent le déploiement d’électronique numérique dans les prochaines générations de capteurs. / Onera has been developing vibrating inertial MEMS sensors with performances good enough for space uses. Associated conventional analog electronics are not limiting the physical performances of the sensors. They are, however, bulky, not reconfigurable, and do not deliver digital measurements to the on-board computer. Furthermore, when used for space applications, they have to cope with dependency and obsolescence requiring a new qualification when any part is changed.This thesis offers a new digital generic architecture with as few analog parts as possible. Work has been focused on two sensors developed by Onera: the VIA, a vibrating beam accelerometer, and the VIG, a Coriolis vibrating gyro, but can address other sensors. A first digital function identified is event timestamping for frequency and phase measurements; a second key function is the direct digital synthesis of the oscillating sensors driving signal; the third one generates pure sine signals from binary sequences output from the digital platform. These function are implemented as peripherals of an embedded processor on a FPGA.This dissertation firstly reminds physical laws and technologies of inertial measurements, followed by a quick review of oscillators, analog and digital, in order to introduce the chosen digital architecture. A following chapter studies the theory of the digital functions considered and identifies their performances. Afterwards, realisations and first experimental results are exposed, at a function level first, at a global level then, with the sensor and the embedded software to provide real inertial readings. The results gathered boost the idea of deploying digital electronics in future sensor releases.
7

Logique de décision destinée à l'étalonnage d'un détecteur en physique des particules par un système laser

Lambert, Daniel 13 June 2002 (has links) (PDF)
Le détecteur ATLAS conçu pour étudier la physique des particules, sera mis en service à partir de 2007 sur le Grand Collisionneur de Hadrons (LHC). Il sera dédié à la recherche du boson de HIGGS et à des études dans le cadre du modèle standard ou en dehors. Le calorimètre à tuiles scintillantes est un sous-ensemble du détecteur ATLAS. Les 10000 voies de lecture, composant ce calorimètre, sont constituées de photomultiplicateurs qui transforment la lumière en signal électrique. La reconstruction du passage des particules et l'énergie déposée dans le détecteur doivent être connues avec précision. Pour cela, chaque sous-ensemble dispose de plusieurs systèmes d'étalonnage. Le système utilisé par le calorimètre à tuiles scintillantes pour calibrer les photomultiplicateurs et l'électronique associée est un laser. Le système laser possède son propre système de calibration afin de connaître avec précision l'impulsion lumineuse transmise aux photomultiplicateurs du calorimètre, soit :<br> · quatre photodiodes qui reçoivent une fraction du faisceau laser,<br> · une source radioactive, passant devant les photodiodes dont l'énergie des particules alpha émises est monoénergétique,<br> · une injection de charge pour connaître la linéarité des préamplificateurs des photodiodes.<br> <br><br> Pour commander ce système laser, le prototype d'une carte électronique SLAMA a été développé et réalisé. Cette carte, qui s'insère dans un châssis VME, se compose de trois parties : la première est l'interface avec le logiciel via le bus VME, la deuxième met en forme les signaux analogiques provenant des photomultiplicateurs et des photodiodes et la troisième doit prendre en compte le temps de réponse du laser. Les signaux électroniques issus des entrées analogiques sont mis en forme par des discriminateurs à fraction constante. Ils ont pour particularité d'avoir une gigue sur le temps de réponse peu dépendante de l'amplitude du signal d'entrée. Le temps de réponse du laser est dépendant de l'amplitude de l'impulsion lumineuse. La carte SLAMA intègre une fonction dédiée à ce calcul, pour optimiser les calibrations pendant l'absence d'événements physiques. Elle est dotée de fonctions diverses réalisées à l'aide de composants numériques programmables FPGA et de circuits spécifiques :<br> · une interface avec le bus VME,<br> · un convertisseur temps-numérique TDC, ASIC développé au CERN,<br> · l'unité de calculs et d'ajustements du retard de déclenchement du laser,<br> · une logique de fonctionnement autonome. <br><br> Les tests préliminaires avant l'intégration complète dans le système ont été effectués en laboratoire. Ils permettent de confirmer la faisabilité de la fonction commande et contrôle du laser. Ils montrent également une grande souplesse de la carte, grâce à la possibilité de reconfiguration in-situ.
8

Développement d'un nouveau multi-détecteur de neutrons

Sénoville, M. 20 December 2013 (has links) (PDF)
L'étude de la décroissance est un outil crucial pour la structure des noyaux exotiques. Ladécroissance des noyaux riches en neutrons est souvent suivie de l'émission de neutrons retardés. Ce travail porte sur le développement d'un nouveau multidétecteur pour la spectroscopie temps de vol des neutrons retardés. Ce détecteur utilisera un scintillateur liquide permettant la discrimination neutron-gamma et une électronique numérique. La discrimination neutron-gamma avec l'électronique numérique FASTER a tout d'abord été étudiée. Avec la méthode de comparaison de charges, une amélioration de la discrimination est obtenue par rapport à l'électronique classique. Di fférentes méthodes de discrimination ont ensuite été explorées avec des signaux échantillonnés et comparées. Le filtre de Gatti et De Martini est la meilleure méthode, suivie par la comparaison de charges. Afi n de dépasser les limitations des scintillateurs liquides pour les neutrons de basse énergie (<1 MeV), le rendement en lumière et la discrimination de 7 scintillateurs de petit volume (liquides, cristaux, nouveaux plastiques discriminants) ont été évalués. Les cristaux de stilbène et de paraterphényle présentent les meilleures performances. L'effi cacité de détection et le taux de diaphonie des modules envisagés ont été mesurés avec des neutrons monoénergétiques dans la gamme 0,5 à 15,5 MeV. Ces mesures de diaphonie sont les premières e ectuées à basse énergie neutrons (de 1,4 à 5 MeV). Les simulations Monte-Carlo réalisées sont en bon accord avec les données d'e fficacité. Bien qu'elles reproduisent également le comportement global de la diaphonie, des simulations plus sophistiquées doivent être développées.
9

Methods for protecting intellectual property of IP cores designers / Méthodes pour la protection de la propriété intellectuelle des concepteurs de composants virtuels

Colombier, Brice 19 October 2017 (has links)
La conception de circuits intégrés est aujourd'hui une tâche extrêmement complexe. Cela pousse les concepteurs à adopter une approche modulaire, où chaque bloc fonctionnel est décrit de manière indépendante. Ces blocs fonctionnels, appelés composants virtuels, sont vendus par leurs concepteurs à des intégrateurs système qui les utilisent dans des projets complexes. Cette division a pour conséquence une hausse inquiétante des cas de copie illégale des composants virtuels. Afin de lutter contre cette menace sur la propriété intellectuelle des concepteurs, l'objectif de cette thèse était de mettre au point un système complet d'activation à distance de composants virtuels, permettant au concepteur de savoir exactement combien de composants virtuels sont effectivement utilisés. Pour cela, les deux premières contributions de cette thèse portent sur la modification de la logique combinatoire d'un composant virtuel afin de le rendre activable. La première méthode permet de forcer les sorties à une valeur fixe de manière contrôlée. La seconde est une technique efficace de sélection de nœuds à altérer, encore une fois de manière contrôlée, afin de rendre le composant virtuel temporairement inutilisable. La troisième contribution de cette thèse est une méthode légère de correction d'erreurs à appliquer aux réponses issues des fonctions physiques non-clonables, qui constituent un identifiant intrinsèque des instances du composant virtuel. Réutilisant un protocole de correction d'erreurs issu de l'échange quantique de dés, cette méthode est beaucoup plus légère que les codes correcteurs d'erreurs classiquement utilisés pour cette application / Designing integrated circuits is now an extremely complex task. This is why designers adopt a modular approach, where each functional block is described independently. These functional blocks, called intellectual property (IP) cores, are sold by their designers to system integrators who use them in complex projects. This division led to the rise of cases of illegal copying of IP cores. In order to fight this threat against intellectual property of lP core designers, the objective of this PhD thesis was to develop a secure remote activation scheme for IP cores, allowing the designer to know exactly how many IP cores are currently used. To achieve this, the first two contributions of thesis thesis deal with the modification of combinational logic of an IP core to make it activable. The first method allows to controllably force the outputs to a fixed logic value. The second is an efficient technique to select the nodes to controllably alter, so that the IP core is temporarily unusable. The third contribution of this thesis is a lightweight method of error correction to use with PUF (Physical Undonable Functions) responses, which are an intrinsic identifier of instances of the lP core. Reusing an error-correction protocol used in quantum key ex.change, this method is much more lightweight than error-correcting
10

Linéarisation des convertisseurs analogique-numérique pour l’amélioration des performances de dynamiques instantanées des numériseurs radioélectriques / Analog-to-digital converter linearization for improving digital radio receiver dynamic ranges

Minger, Bryce 18 May 2017 (has links)
Le convertisseur analogique-numérique (ADC), fait fonction d’interface entre les domaines de représentation analogique et numérique des systèmes mixtes de traitement du signal.Il est un élément central en cela que ses performances circonscrivent celles des traitements numériques qui lui succèdent et a fortiori celles de son dispositif hôte. C’est notamment le casdes récepteurs radioélectriques numériques à large bande instantanée. De fait, ces systèmes voient leurs performances de dynamiques instantanées monotonale (DTDR) et bitonale (STDR)– i.e. leur capacité à traiter simultanément des composantes de faible puissance en présence d’une ou plusieurs autres composantes de plus forte puissance – limitées par la linéarité de leur ADC.Ce dernier caractère est quantifié par les performances de dynamique sans raies parasites (SFDR)et distorsion d’intermodulation (IMD) d’un ADC.Les critères de DTDR et de STDR sont essentiels pour les récepteurs radios numériques de guerre électronique conçus pour le traitement des signaux de radiocommunications. En effet, ces dispositifs sont employés à l’établissement de la situation tactique de l’environnement électromagnétique à des fins de support de manoeuvres militaires. La fidélité de la représentation numérique du signal analogique reçu est donc critique. Ainsi, cette thèse vise à étudier la linéarisation des ADC, i.e. l’augmentation des SFDR et IMD, en vue de l’amélioration des dynamiques instantanées de ces récepteurs.Dans ce manuscrit, nous traitons cette problématique selon deux axes différents. Le premier consiste à corriger les distorsions introduites par un ADC au moyen de tables de correspondances(LUT) pré-remplies. À cette fin, nous proposons un algorithme de remplissage de LUT procédant d’une méthode de la littérature par la réduction de moitié du nombre de coefficients à déterminer pour estimer la non-linéarité intégrale (INL) d’un ADC. Sur la base de cette nouvelle méthode,nous développons une approche de correction des non-linéarités dynamiques introduites par un ADC reposant sur une paire de LUT statiques et présentons un exemple d’algorithme permettant de l’opérer. Le second axe du manuscrit repose sur la modélisation comportementale de l’ADC par les séries de Volterra à temps discrets et leurs dérivés. En premier lieu, nous considérons les trois problématiques fondamentales de cette approche de linéarisation : la modélisation ;l’identification de modèle ; et l’inversion de modèle. Puis, nous définissons trois solutions de linéarisation d’ADC aveugles. Enfin, nous analysons l’implémentation sur circuits à réseaux logiques programmables (FPGA) de l’un de ces algorithmes afin d’évaluer la pertinence d’uneopération en temps-réel des échantillons de sortie d’un ADC échantillonnant à une fréquence d’environ 400 MHz. / The analog-to-digital converter (ADC) is a central component of mixed signal systems as the interface between the analog and digital representation spaces. Its performance bounds that of the device it is integrated in. Indeed, ADC linearity is essential for maintaining in the digital space the reliability of its input signal and then that of the information it carries.Wideband digital radio receivers are particularly sensitive to ADC non-linearities. Single-tone and dual-tone dynamic range (respectively STDR and DTDR) of such systems – i.e. the abilityto process simultaneously signal components with high power ratio – are limited by the spurious free dynamic range (SFDR) and intermodulation distortion (IMD) of their internal ADC.DTDR et de STDR are key metrics for electronic warfare wideband digital radio receivers developed for radiocommunication signal processing. As a matter of fact, these equipments are employed for analyzing the tactical situation of the radiofrequency spectrum in order to support military maneuvers. Hence, signal integrity is critical. This thesis deals with the ADC linearization issue in this context. Thus, it aims to study techniques for increasing ADC SFDRand IMD for the purpose of improving dynamic ranges of electronic warfare wideband digitalr eceivers.In this dissertation, the problematic of ADC linearization is approached in two different ways.On the one hand, we consider distortion compensation using pre-filled look-up tables (LUT). Wepropose an algorithm for filling LUTs that stems from an existing method by halving the numberof coefficients required for the integral non-linearity (INL) estimation. Then, based on this new method, we develop an approach for correcting ADC dynamic non-linearities using a couple ofstatic LUTs and we present an example of algorithm for operating this method. On the other hand,we study linearization solutions that rely on behavioural modelling of ADCs using discrete-time Volterra series and its derivatives. First, we address the three fundamental issues of this approach:modelling ; model identification ; and model inversion. Then, we propose three blind linearization algorithms. Finally, we consider the implementation on field programmable gate array (FPGA) of one of them for the purpose of evaluating the relevance of real-time linearization of an ADC sampling at about 400 MHz.

Page generated in 0.0862 seconds