• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 9
  • 3
  • Tagged with
  • 81
  • 26
  • 26
  • 16
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modulateur sigma-delta complexe passe-bande à temps continu pour la réception multistandard

Jouida, Nejmeddine 18 February 2010 (has links)
Le travail de recherche que nous présentons dans cette thèse s’inscrit dans le domaine de la conception des circuits et systèmes pour la numérisation des signaux radio large bande multistandard. La finalité de ces travaux est l’établissement de nouvelles méthodologies de conception des circuits analogiques et mixtes VLSI, et à faible consommation pour le convertisseur analogique numérique (CAN). Nous proposons l’utilisation d’un CAN de type S? complexe passe-bande à temps-continu pour l’architecture Low-IF. Ce qui permet de simplifier l’étage analogique en bande de base en esquivant le besoin de circuits tels que le contrôleur de gain automatique, le filtre anti-repliement et les filtres de rejection d’images. Le récepteur est plus linéaire et présente un degré d’intégrabilité adéquat pour les applications multistandard de type Radio logicielle Restreinte (SDR). La première contribution consiste à proposer une méthodologie originale et complètement automatisée de dimensionnement du modulateur ?? pour la réception SDR. Une nouvelle stratégie de stabilisation, basée sur le placement des zéros et des pôles du filtre de boucle, est élaborée permettant ainsi de simplifier le passage du temps-discret vers le temps-continu par une simple correspondance entre les domaines pour les intégrateurs et les résonateurs du filtre de boucle. La deuxième contribution concerne la construction d’une architecture générique du modulateur ?? complexe à temps-continu en suivant une méthodologie originale. Les éléments de base de cette architecture sont les deux modulateurs ?? passe-bas pour les voies I et Q à temps-continu. Les deux filtres de boucles sont en couplage croisé en structure polyphase, ce qui permet le décalage vers la fréquence intermédiaire du récepteur. Nous avons conçu un outil de dimensionnement sous MATLAB pour les modulateurs S? multistandard stables d’ordre élevés à temps-continu, passe bas, passe-bande réel et complexe. La troisième contribution de ces travaux concerne la proposition d’une méthodologie de conception avancée de circuits mixtes VLSI pour les CANs de type ??. Cette méthodologie de conception permet une combinaison des approches descendante ‘Top-down’ et montante ‘Bottom-up’, ce qui rend possible l’analyse des compromis de conception par l’utilisation concurrente des circuits au niveau transistor et des modèles comportementaux. Cette approche permet de faire allier à la fois la précision et la vitesse de processus de simulation lors de la conception des CANs de type ??. La modélisation comportementale du modulateur S?, en utilisant le langage VHDL-AMS, nous a permis de développé une bibliothèque de modèles permettant la prise en compte des imperfections tels que le bruit, le jitter, le retard de boucle au niveau comportemental. Afin d’illustrer la méthodologie de conception proposée, un exemple de la vérification par la simulation mixte est fourni à travers la conception d’un quantificateur en technologie CMOS. L’extraction des paramètres des imperfections du schéma au niveau transistor a permit d’enrichir le modèle comportemental et de prévenir les anomalies causant la dégradation des performances du modulateur S?. / Abstract
32

Détection statistique d'information cachée dans des images naturelles / Statistical detection of hidden information in natural images

Zitzmann, Cathel 24 June 2013 (has links)
La nécessité de communiquer de façon sécurisée n’est pas chose nouvelle : depuis l’antiquité des méthodes existent afin de dissimuler une communication. La cryptographie a permis de rendre un message inintelligible en le chiffrant, la stéganographie quant à elle permet de dissimuler le fait même qu’un message est échangé. Cette thèse s’inscrit dans le cadre du projet "Recherche d’Informations Cachées" financé par l’Agence Nationale de la Recherche, l’Université de Technologie de Troyes a travaillé sur la modélisation mathématique d’une image naturelle et à la mise en place de détecteurs d’informations cachées dans les images. Ce mémoire propose d’étudier la stéganalyse dans les images naturelles du point de vue de la décision statistique paramétrique. Dans les images JPEG, un détecteur basé sur la modélisation des coefficients DCT quantifiés est proposé et les calculs des probabilités du détecteur sont établis théoriquement. De plus, une étude du nombre moyen d’effondrements apparaissant lors de l’insertion avec les algorithmes F3 et F4 est proposée. Enfin, dans le cadre des images non compressées, les tests proposés sont optimaux sous certaines contraintes, une des difficultés surmontées étant le caractère quantifié des données / The need of secure communication is not something new: from ancient, methods exist to conceal communication. Cryptography helped make unintelligible message using encryption, steganography can hide the fact that a message is exchanged.This thesis is part of the project "Hidden Information Research" funded by the National Research Agency, Troyes University of Technology worked on the mathematical modeling of a natural image and creating detectors of hidden information in digital pictures.This thesis proposes to study the steganalysis in natural images in terms of parametric statistical decision. In JPEG images, a detector based on the modeling of quantized DCT coefficients is proposed and calculations of probabilities of the detector are established theoretically. In addition, a study of the number of shrinkage occurring during embedding by F3 and F4 algorithms is proposed. Finally, for the uncompressed images, the proposed tests are optimal under certain constraints, a difficulty overcome is the data quantization
33

Optimisation de la chaîne de numérisation 3D : de la surface au maillage semi-régulier / 3D digitization optimization : from surface to semi-regular mesh

Peyrot, Jean-Luc 12 December 2014 (has links)
La numérisation 3D permet de générer des représentations numériques très réalistes et fidèles géométriquement aux surfaces réelles. Cependant, cette fidélité géométrique, obtenue à l'aide d'un sur-échantillonnage de surfaces, augmente considérablement le volume de données générées. Les maillages ainsi produits sont donc très denses, et peu adaptés aux différents supports de visualisation, de transfert, de stockage, etc. La représentation semi-régulière des surfaces permet de diminuer le volume nécessaire à la représentation de ces maillages denses, et possède des qualités bien connues en matière de représentations multi-échelles et de compression. Cette thèse a pour objectif d'optimiser la chaîne de numérisation 3D classique en améliorant l'échantillonnage des surfaces tout en conservant la fidélité géométrique, et en court-circuitant les étapes fastidieuses qui conduisent à une représentation semi-régulière. Pour cela, nous avons intégré dans un système stéréoscopique, l'échantillonnage en disques de Poisson qui, grâce à ses propriétés de bruit bleu, réalise un bon compromis entre sous- et sur-échantillonnage. Ensuite, nous avons généré un mailleur semi-régulier, qui travaille directement sur les images stéréoscopiques, et non sur une version remaillée des nuages de points habituellement générés par ces systèmes. Les résultats expérimentaux montrent que ces deux contributions génèrent de façon efficace des représentations semi-régulières, qui sont géométriquement fidèles aux surfaces réelles, tout en réduisant le volume de données générées. / Nowadays, 3D digitization systems generate numeric representations that are both realistic and of high geometric accuracy with respect to real surfaces. However, this geometric accuracy, obtained by oversampling surfaces, increases significantly the generated amount of data. Consequently, the resulting meshes are very dense, and not suitable to be visualized, transmitted or even stored efficiently. Nevertheless, the semi-regular representation due to its scalable and compact representation, overcomes this problem. This thesis aims at optimizing the classic 3D digitization chain, by first improving the sampling of surfaces while preserving geometric features, and secondly shortening the number of required treatments to obtain such semi-regular meshes. To achieve this goal, we integrated in a stereoscopic system the Poisson-disk sampling that realizes a good tradeoff between undersampling and oversampling, thanks to its blue noise properties. Then, we produced a semi-regular meshing technique that directly works on the stereoscopic images, and not on a meshed version of point clouds, which are usually generated by such 3D scanners. Experimental results prove that our contributions efficiently generate semi-regular representations, which are accurate with respect to real surfaces, while reducing the generated amount of data.
34

Outils numériques pour le relevé architectural et la restitution archéologique

Fuchs, Alain 24 November 2006 (has links) (PDF)
Cette thèse s'intègre dans le processus qui conduit de l'acquisition numérique 3D à<br />la réalisation de maquettes virtuelles destinées à l'architecture et à l'archéologie.<br />Elle débute par l'étude des techniques d'acquisition 3D utilisées, la lasergrammétrie<br />et la photogrammétrie architecturale, et se poursuit par une analyse comparative<br />détaillée de ces dispositifs, basée sur de multiples expérimentations réalisées sur le<br />terrain lors de la collaboration entre le Map-Crai et le Map-Page.<br />Ensuite une réflexion sur la morphologie architecturale est abordée autour de ses<br />variantes typologiques et architectoniques, suivie par les questions théoriques<br />soulevées par la modélisation 3D et plus spécifiquement la modélisation<br />architecturale.<br />Diverses expérimentations sont ensuite présentées, elles constituent le support<br />d'une réflexion sur le développement d'outils numériques destinés à faciliter la<br />modélisation géométrique architecturale. La principale contribution de cette thèse<br />correspond à l'association de cette réflexion empirique à une approche analytique<br />fondée sur nos connaissances théoriques en architecture, qui aboutit à l'identification<br />de primitives géométriques contraintes, les moulures. Les outils numériques ainsi<br />développés dans un logiciel de CAO définissent ces primitives géométriques<br />ajustables dont le champ d'application initial, spécifique à l'architecture classique,<br />sera étendu à l'architecture khmère.<br />Enfin une proposition plus évoluée correspondant à la téléologie de cette thèse,<br />obtenir de façon efficace un résultat conforme au cahier des charges de la<br />modélisation architecturale et archéologique, est intégrée dans un logiciel de<br />synthèse d'image.
35

Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide

Ouji, Karima 28 June 2012 (has links) (PDF)
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
36

Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide

Ouji, Karima 28 June 2012 (has links) (PDF)
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
37

Estimation de pose de grands blocs d'images panoramiques issues de systèmes de numérisation mobile

Cannelle, Bertrand, Cannelle, Bertrand 04 December 2013 (has links) (PDF)
Tirée par le développement et la démocratisation des globes numériques et des systèmes de géolocalisation grand public, la numérisation 3D mobile terrestre en milieux urbains s'est développée de manière très importante ces dix dernières années. Les principaux verrous résiduels de ces systèmes reste d'une part la localisation précise des données pour certaines applications (conduite autonome urbaine, levers de géomètres, etc.) du fait des masques et multi-trajets GPS dans les canyons urbains et d'autre part le passage à l'échelle du traitement de l'information vu les volumes de données considérables acquis chaque jour (plusieurs To).La première partie de cette thèse est consacrée à la présentation de la numérisation mobile, aussi bien du point de vue système que du point de vue usage. Une description fine du système Stéréopolis V2, véhicule de numérisation mobile multi-caméras développée au laboratoire MATIS de l'Institut National de l'Information Géographique et Forestière, est faite afin de présenter les données utilisées dans cette thèse. Les blocs d'images manipulés dans ces travaux sont constitués de plusieurs centaines de milliers à un million d'image. La seconde partie est consacrée à la calibration du système: calibration intrinsèque de caméra, tout d'abord, en utilisant une géométrie d'acquisition de type panoramique, qui permet de s'affranchir de réseaux de cibles 3D métrologiques. Une calibration extrinsèque des imageurs du véhicule, ensuite, qui permet de déterminer de façon précise la position et l'orientation de caméras sur un dispositif de numérisation mobile. Deux procédures sont détaillées et comparées: l'une dite "off-line" nécessitant une acquisition spécifique avec un réseau de cibles métrologiques et l'autre dite "on-line" utilisant uniquement les données d'acquisition standards. Nous démontrons que la méthode "on-line" produit dans les mêmes conditions une précision comparable à celle "off-line" tout en étant plus adaptée aux variations de conditions d'acquisition in-situ. La troisième partie détaille le processus de compensation par faisceaux appliquée aux données de numérisation mobile multi-caméras qui permet d'estimer la pose d'un grand nombre d'images. La mise en équation ainsi que différents cas d'utilisations de la méthode sont explicités. La structuration et la gestion des données dans un entrepôt est elle aussi développée car elle permet la gestion d'importants volumes et donc le passage à l'échelle tout en restant performante. La quatrième et dernière partie propose différentes méthodes de recalage qui peuvent être utilisées aussi bien de manière individuelle que combinées afin de permettre de mettre en cohérence des séquences d'images distinctes (boucles, passage multi-dates, etc.) dans des contextes applicatifs différents
38

Contribution à l'étude des architectures de récepteurs large bande multi-canaux / Study of multi-channel wideband receiver architectures.

Lesellier, Amandine 02 July 2013 (has links)
Cette thèse est le fruit d'un partenariat entre la BL TVFE de NXP Semiconductors et l'ESIEE dans le cadre d'une thèse CIFRE. Le but est d'apporter une solution qui permette la réception de plusieurs canaux pour le câble. Ce sujet est lié à la problématique de numérisation large bande. Dans la première partie, nous faisons un état-de-l'art sur les convertisseurs analogiques-numériques (CAN), sur les architectures parallèles (entrelacement temporel et bancs de filtres hybrides (BFH)), et sur les méthodes d'échantillonnage (passe-bande et complexe). Puis, nous étudions une architecture composée d'un banc de filtres analogiques et un banc de CANs. Nous cherchons à réduire surtout le taux d'échantillonnage. Nous comparons notre solution à un CAN large bande performant, avec notre fonction de coût. L'un des avantages de cette architecture est que tous les composants sont faisables, même les CANs, et qu'il est possible d'éteindre des sous-bandes pour diminuer la consommation. Cette solution est intéressante pour le moment mais n'est pas compétitive en termes de consommation et de surface. Nous proposons une alternative dans la partie 3, avec les BFH. Nous étudions cette architecture, en gardant à l'esprit la faisabilité de la solution. Nous avons choisi un BFH à deux voies, avec un filtre analogique passe-bas et un passe-haut. Puis, nous proposons un algorithme d'optimisation des filtres de synthèse pour atteindre nos objectifs de distorsion et de réjection de repliement. Une identification des filtres analogiques est aussi présentée. Finalement, une réalisation physique prouve le concept et valide les limitations théoriques de cette architecture / This thesis is a partnership between the BL TVFE of NXP Semiconductors and ESIEE. Its goal is to provide a solution to multi-channel reception for cable network. This is linked to the problematic of broadband digitization. In the first part, the state-of-the art of ADCs, parallel architectures (TI and HFB) and sampling methods (bandpass sampling and complex sampling) is recalled. Then we study an architecture called RFFB with a bank of analog filters and a bank of ADCs. We try to reduce the constraints on ADCs, especially the sampling rate with the different sampling. We propose an interesting solution to broadband digitization and compare this solution to a challenging wideband ADC, using the cost function we introduce. This architecture has the major advantage that all the components are feasible, even the ADCs, and it is possible to switch-off subbands to save power. It could be a good solution at the present time but it is not competitive in terms of power consumption and surface. An alternative is proposed in Part 3, where we study Hybrid Filter Banks. It is interesting to study this architecture with realization feasibility in mind. This is why we select a 2-channel HFB with a lowpass filter and a highpass filter as analog filters. Then we propose an efficient optimization algorithm to find the best synthesis filters and reach our targets of distortion and aliasing rejection. An identification of analog filters is also suggested to cope with the issue of sensitivity to analog errors. Finally, a physical realization proves the concept of aliasing rejection and confirms the theoretical issues of this architecture
39

Tatouage robuste d’images imprimées / Robust watermarking for printed images

Riad, Rabia 19 December 2015 (has links)
Le tatouage invisible d’images d’identité imprimées sur un support en plastique est un problème difficile qui intéresse le monde industriel. Dans cette étude, nous avons développé un algorithme de tatouage robuste aux diverses attaques présentes dans ce cas. Ces attaques sont liées aux processus d’impression/numérisation sur le support plastique ainsi qu’aux dégradations qu’une carte plastique peut rencontrer le long de sa durée de vie. La méthode de tatouage opère dans le domaine de Fourier car cette transformée présente des propriétés d’invariances aux attaques géométriques globales. Une méthode préventive consiste en un prétraitement de l’image originale avant le processus d’insertion qui réduit la variance du vecteur support de la marque. Une méthode corrective comporte deux contre-attaques corrigeant le flou et les variations colorimétriques. Pour une probabilité de fausse alarme de 10⁻⁴, nous avons obtenu une amélioration moyenne de 22% par rapport à la méthode de référence lorsque seule la méthode préventive est utilisée. La combinaison de la méthode préventive avec la méthode corrective correspond à un taux de détection supérieur à 99%. L’algorithme de détection prends moins de 1 seconde pour à une image de 512×512 pixels avec un ordinateur classique ce qui est compatible avec l’application industrielle visée. / Invisible watermarking for ID images printed on plastic card support is a challenging problem that interests the industrial world. In this study, we developed a watermarking algorithm robust to various attacks present in this case. These attacks are mainly related to the print/scan process on the plastic support and the degradations that an ID card can encounter along its lifetime. The watermarking scheme operates in the Fourier domain as this transform has invariance properties against global geometrical transformations. A preventive method consists of pre-processing the host image before the embedding process that reduces the variance of the embeddable vector. A curative method comprises two counterattacks dealing with blurring and color variations. For a false alarm probability of 10⁻⁴, we obtained an average improvement of 22% over the reference method when only preventative method is used. The combination of the preventive and curative methods leads to a detection rate greater than 99%. The detection algorithm takes less than 1 second for a 512×512 image with a conventional computer, which is compatible with the industrial application in question.
40

Numérisation rapide d'un système synchronisé en sortie d'antennes multi-réparties tel que le Radiohéliographe de Nançay / High speed digital synchronized system for antenna array such as Nançay Radioheliograph

Ait Mansour, El Houssain 19 January 2018 (has links)
Le Radiohéliographe de Nançay est le seul instrument dédié à l'imagerie du soleil en ondes décimétriques-métriques. Il fonctionne sur le principe de l'interférométrie, en utilisant 47 antennes essentiellement réparties sur des axes est-ouest (3,2 km) et nord-sud (2,5 km). Cette étude a pour but d'explorer un nouveau concept de numérisation propre à la radioastronomie du futur, appliquée ici à l'interférométrie solaire. Elle porte sur la numérisation rapide d'un système synchronisé en sortie d'antennes. Ces aspects "numérisation rapide" et "synchronisation" sont d'une importance capitale pour les prochains radiotélescopes du futur. Ils permettent de simplifier les chaînes de réception radiofréquence et de diminuer la consommation électrique ainsi que les coûts d'entretien et de la maintenance. L'application à l'observation du soleil comporte cependant des contraintes originales, comme la grande dynamique des signaux, qui ne sont pas prises en compte actuellement dans les études en cours pour les radiotélescopes du futur. Le radiohéliographe actuel a une chaîne de réception analogique avec une numérisation centralisée. La commutation entre les différentes fréquences dans la bande 150-450~MHz est réalisée d'une façon analogique et temporelle. Ceci nécessite beaucoup de calibrations analogiques et oblige de figer la gamme des fréquences (10 fréquences de largeur 1~MHz). De plus, en interférométrie métrique, les très grandes longueurs de câbles coaxiales sont onéreuses. Les signaux transmis des antennes au récepteur sont toujours sources d'erreurs et des fluctuations importantes réduisent l'information radiofréquence. Toutefois, apporter une numérisation complète de la bande (300~MHz) permet d'avoir de la souplesse dans le traitement et l'analyse des données (résolution fréquentielle et la possibilité d'observer plusieurs bandes simultanément, traitement des parasites). Ceci engendre la nécessité d'avoir une très grande précision des horloges (0,7~ps d'erreur de phase) pour cadencer des ADC (Analog-to-Digital-Converter) large bande (1~GHz d'horloge). L'objectif principal de la thèse est d'étudier la synchronisation pour l'application à un réseau d'antennes multi-réparties. Le saut technologique ainsi induit et les concepts étudiés sont un enjeu grandissant dans les grands projets européens et internationaux. / The Nançay Radioheliograph is the only instrument dedicated to the solar corona imaging in the 150-450 MHz frequency band. It operates on the principle of interferometry, using 47 antennas essentially distributed on the east-west (3.2 km) and north-south (2.5 km) axes. This study aims to explore a new technical concept for future radio astronomy, applied to solar interferometer. It deals with the rapid digitization of a synchronized system at the antenna sides. High speed digitization and high accuracy synchronization are the most important aspects for future radio telescopes. They make it possible to simplify radiofrequency reception chains and reduce their power consumption, as well as maintenance costs and complexity. The application to the observation of the sun, however, has some original constraints, such as the great dynamics of the signals, which are not taken into account in the current studies for future radio telescopes. The current radio telescope has an analog receiver with a centralized digitization. The switching time between each frequency (10 frequencies of 1 MHz width) in 150-450 MHz band analyzed introduce latency in solar images processing, also decrease the signal-to-noise ratio. In addition, in metric interferometry, the several lengths of coaxial cables in which the signal is transported from the antennas to the receiver always cause significant errors and fluctuations in the radiofrequency reception chains. Providing full digitization of the band (300 MHz) allows more flexibility in data processing and analyzing (frequency resolution and the ability to observe multiple bands simultaneously). This required high clock accuracy (0.7 ps of jitter) for ADCs clocks (1 GHz clock). Therefore, the main objective of this thesis is to reach a sub-ns global time synchronization of distributed networks such as radio interferometer array as the Nançay Radioheliograph. The technological leap thus induced is a growing challenge in major European and international projects.

Page generated in 0.0679 seconds