• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 193
  • 124
  • 81
  • Tagged with
  • 412
  • 193
  • 159
  • 156
  • 155
  • 152
  • 145
  • 145
  • 144
  • 81
  • 79
  • 62
  • 57
  • 53
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Détection non supervisée d'anomalies dans les réseaux de communication

Mazel, Johan 19 December 2011 (has links) (PDF)
La détection d'anomalies est une tâche critique de l'administration des réseaux. L'apparition continue de nouvelles anomalies et la nature changeante du trafic réseau compliquent de fait la détection d'anomalies. Les méthodes existantes de détection d'anomalies s'appuient sur une connaissance préalable du trafic : soit via des signatures créées à partir d'anomalies connues, soit via un profil de normalité. Ces deux approches sont limitées : la première ne peut détecter les nouvelles anomalies et la seconde requiert une constante mise à jour de son profil de normalité. Ces deux aspects limitent de façon importante l'efficacité des méthodes de détection existantes. Nous présentons une approche non-supervisée qui permet de détecter et caractériser les anomalies réseaux de façon autonome. Notre approche utilise des techniques de partitionnement afin d'identifier les flux anormaux. Nous proposons également plusieurs techniques qui permettent de traiter les anomalies extraites pour faciliter la tâche des opérateurs. Nous évaluons les performances de notre système sur des traces de trafic réel issues de la base de trace MAWI. Les résultats obtenus mettent en évidence la possibilité de mettre en place des systèmes de détection d'anomalies autonomes et fonctionnant sans connaissance préalable.
82

Gestion des Risques dans les Infrastructures VoIP

Dabbebi, Oussema 23 April 2013 (has links) (PDF)
La téléphonie sur IP est devenue un nouveau paradigme pour établir et transmettre les com- munications téléphoniques directement sur les réseaux IP de manière flexible et à faible coût. Toutefois, les services VoIP sont confrontés à plusieurs problèmes de sécurité qui sont soit hérités de la couche IP soit spécifiques au service lui-même. Une grande variété de mécanismes de protection sont disponibles pour y faire face. Cependant, ces services nécessitent des performances et une disponibilité du réseau élevées, et les mécanismes de protection peuvent nuire à ces perfor- mances. La gestion des risques offre de nouvelles perspectives à l'égard de cette problématique. Nos contributions portent sur l'application et l'automatisation de la gestion de risques dans les infrastructures VoIP selon trois axes. Le première axe porte sur l'automatisation du processus de gestion des risques dans un réseau VoIP d'entreprise. Dans ce cadre, nous avons développé un modèle pour évaluer les risques, un ensemble de contremesures progressives et des algorithmes de mitigation. Nous l'avons couplé à un système de détection d'anomalies basé sur les SVM et un mécanisme d'auto-configuration qui peut fournir un retour d'expérience sur l'efficacité des contremesures. Le deuxième axe concerne l'extension de notre stratégie dans les réseaux P2PSIP. Nous avons mis en place une solution adaptée à la nature distribuée des environnements pair- à-pair. Nous nous sommes aussi intéressés à l'architecture RELOAD et avons étudié comment traiter les attaques résiduelles à travers des mécanismes de confiance. Nous avons enfin étudié les services VoIP dans le cloud où nous proposons plusieurs stratégies pour le déploiement et l'application des contremesures.
83

Ordonnancement des liens et routage de multiple chemins pour les réseaux maillés sans fil

Rocha Jimenez Vieira, Fabio, Rezende, José Ferreira, Carneiro Barbosa, Valmir, Serge, Fdida 25 May 2012 (has links) (PDF)
Nous présentons des solutions algorithmiques pour deux problèmes liés à l'interfé-rence de réseau sans fil. D'abord on propose de ordonnancer les liens d'un ensemble de routes données en vertu de l'hypothèse d'un modèle à fort trafic. Nous considérons un protocole TDMA qu'offre une source d'intervalles de temps synchronisés et cherchent à ordonnancer les itinéraires des liens afin de maximiser le nombre de paquets qui sont livrés à leurs destinations par chaque intervalle de temps. Notre approche consiste à construire un graphe non orienté $G$ et à obtenir multiples colorations pour les noeuds de $G$ qui peuvent induire aux ordonnancement de liens efficaces. En $G$ chaque noeud représente un lien à être ordonnancer et les arcs sont mis en place pour représenter toutes les interférences possibles pour un ensemble d'hypothèses d'interférence. Nous présentons deux heuristiques de multiples colorations et étudions leurs performances grâce à de nombreuses simulations. L'un des deux heuristiques est fondée sur l'assouplissement des dynamiques de multiples colorations en exploitant la disponibilité des possibilités de communication qui seraient autrement perdues. Nous avons constaté que, par conséquent, sa performance est nettement supérieure à la celle des autres. Dans la deuxième proposition, nous considérons les réseaux maillés sans fil et le problème de routage bout à bout du trafic sur les chemins multiples pour la même paire origine-destination avec un minimum d'interférences. Nous introduisons une heuristique pour la détermination des chemins avec deux caractéristiques distinctives. Tout d'abord, il fonctionne par le raffinage d'un ensemble existant de chemins, préalablement déterminée par un algorithme de routage de multiples chemins. Deuxièmement, il est tout à fait locale, dans le sens où il peut être exécuté par chacune des origines sur l'information qui est disponible plus loin dans le réseau de voisinage immédiat du noeud. Nous avons mené de nombreuses expériences avec la nouvelle heuristique, en utilisant le protocole OLSR et AODV ainsi que leurs variantes de chemins multiples. Nous avons démontré que la nouvelle heuristique est capable d'améliorer le débit moyen du réseau à l'échelle en utilisant un protocole TDMA sous l'exécution d'un algorithme de ordonnancement des liens orienté à routes et de deux différents paramètres de fonctionnement du protocole CSMA 802.11. En travaillent à partir des trajectoires générées par le chemin provenaient de algorithmes de multiples chemins, l'heuristique est également capable de fournir un modèle de trafic plus équitablement répartie.
84

Routage g éographique dans les r éseaux de capteurs et actionneurs

Gouvy, Nicolas 19 September 2013 (has links) (PDF)
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts tels les réseaux de capteurs ou les réseaux de capteurs/actionneurs ou encore de robots mobiles. Ces réseaux sont composés d'entités (nœuds) indépendantes (c.-à-d. les robots) possédant des capacités limitées en termes de taille mémoire, de capacité de calcul et sont soumis à des contraintes énergétiques fortes (ces composants reposent sur des batteries). Ils communiquent exclusivement par voie radio, il n'y a donc aucune infrastructure fixe. Pour pouvoir relayer les messages d'un robot à une station de base, on utilise des protocoles dits " de routage" qui ont en charge de déterminer quel robot doit relayer le message, de façon locale et distribuée, sans connaissance globale du réseau. Nous nous sommes basé sur CoMNet, le premier protocole de routage géographique utilisant la mobilité contrôlée tout en garantissant la connexité de celui-ci. CoMNet va, à chaque routage, relocaliser le prochain saut selon un schéma de relocalisation prédéfini de manière à adapter la topologie du réseau à son trafic, et ce afin d'économiser de l'énergie. CoMNet propose trois schémas de relocalisation différents adaptés à différents environnements, et l'on en choisit un au démarrage du réseau. Toutefois, CoMNet, en faisant bouger le prochain nœud N, va certes adapter la topologie, mais aussi modifier le voisinage de ce même nœud. Quand ça sera à lui de transmettre le message il n'aura plus forcément les mêmes possibilités, ses voisins ayant changé. La relocalisation d'un nœud N va servir de base pour celle de N + 1 et les suivants dans le routage. En réponse à ce problème, nous avons proposé MobileR (Mobile Recursivity). MobileR va, à chaque étape du routage, essayer d'anticiper sur plusieurs sauts pour choisir le prochain noeud. Il va calculer la relocalisation des voisins N et pour chacun d'entre eux les multiples N + 1 possibles, etc. MobileR va donc calculer à chaque étape du routage les coûts sur progrès de chacun des chemins (avec nœuds relocalisés) possibles. Le paquet sera alors transmis, au premier nœud du chemin qui minimise ce ratio. Le principe même de relocaliser les nœuds apporte son lot de nouveaux problèmes. Ainsi, dans les réseaux de capteurs, il y a souvent plusieurs nœuds sources qui détectent un même événement et vont émettre des messages à router vers l'unique station de base. Les chemins de routage de ces différents messages sont physiquement proches - vu qu'ils sont liés à un même événement - et ce d'autant plus qu'on se rapproche de la station de base. Ces chemins vont finir par se croiser, et le noeud de croisement va sans cesse être relocalisé par chacun des chemins. C'est pourquoi j'ai proposé le protocole de routage PAMAL (PAth Merging ALgorithm) en réponse à un problème introduit par la mobilité. En effet, PAMAL permet de détecter ces intersections et de les gérer localement. Il va arrêter ces oscillations parasites, provoquer une fusion des chemins de routage en amont du noeud d'intersection et une agrégation de paquets en aval. PAMAL propose ainsi une amélioration de la durée de vie du réseau allant jusqu'à 37% avec un mécanisme d'agrégation très simple. La mobilité contrôlée permet aussi d'envisager de nouvelles solutions à des anciens problèmes. Le protocole GRR (Greedy Routing Recovery) propose ainsi un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet aucun des protocoles de routage reposant sur des actionneurs n'implémente un procédé pour contourner les obstacles ou les zones de faible densité où le routage glouton simple est impossible. Ils routent tous les messages de manière gloutonne vers la destination. Le routage échoue alors quand un noeud n'a plus de voisin plus proche de la destination que lui-même. C'est pourquoi GRR va, quand le routage glouton simple de proche en proche échoue, appliquer un nouveau schéma de relocalisation qui va permettre de contourner l'obstacle tout en restaurant le routage glouton. L'obstacle va ainsi être circonvenu en relocalisant des nœuds tout autour. Ainsi, les routages suivants seront gloutons. Sans pour autant garantir la délivrance de 100% des messages, nos simulations montrent que le mécanisme de récupération de GRR permet de router avec succès dans 72% des cas sur des topologies où CoMNet échoue dans tous les cas.
85

Virtualization and distribution of the BGP control plane

Oprescu, Mihaela Iuniana 18 October 2012 (has links) (PDF)
L'Internet est organisé sous la forme d'une multitude de réseaux appelés Systèmes Autonomes (AS). Le Border Gateway Protocol (BGP) est le langage commun qui permet à ces domaines administratifs de s'interconnecter. Grâce à BGP, deux utilisateurs situés n'importe o'u dans le monde peuvent communiquer, car ce protocole est responsable de la propagation des messages de routage entre tous les réseaux voisins. Afin de répondre aux nouvelles exigences, BGP a dû s'améliorer et évoluer à travers des extensions fréquentes et de nouvelles architectures. Dans la version d'origine, il était indispensable que chaque routeur maintienne une session avec tous les autres routeurs du réseau. Cette contrainte a soulevé des problèmes de scalabilité, puisque le maillage complet des sessions BGP internes (iBGP) était devenu difficile à réaliser dans les grands réseaux. Pour couvrir ce besoin de connectivité, les opérateurs de réseaux font appel à la réflection de routes (RR) et aux confédérations. Mais si elles résolvent un problème de scalabilité, ces deux solutions ont soulevé des nouveaux défis car elles sont accompagnées de multiples défauts; la perte de diversité des routes candidates au processus de séléction BGP ou des anomalies comme par exemple des oscillations de routage, des déflections et des boucles en font partie. Les travaux menés dans cette thèse se concentrent sur oBGP, une nouvelle architecture pour redistribuer les routes externes à l'intérieur d'un AS. à la place des classiques sessions iBGP, un réseau de type overlay est responsable (I) de l'échange d'informations de routage avec les autres AS, (II) du stockage distribué des routes internes et externes, (III) de l'application de la politique de routage au niveau de l'AS et (IV) du calcul et de la redistribution des meilleures routes vers les destinations de l'Internet pour tous les routeurs
86

Virtualisation des réseaux : performance, partage et applications

Fabienne, Anhalt 07 July 2011 (has links) (PDF)
La virtualisation apparait comme étant une solution clé pour révolutionner l'architecture des réseaux comme Internet. La croissance et le succès d'Internet ont fini par aboutir a' son ossification : le déploiement de nouvelles fonctionnalités ou la mise a jour de son architecture ne sont guère possibles, entravant ainsi les innovations. La virtualisation apporte une réponse a cette problématique, en ajoutant une couche d'abstraction entre le matériel et le réseau tel qu'il est vu par les utilisateurs. De tels réseaux virtuels peuvent être gérés et configures de manière flexible et indépendamment les uns des autres, par des opérateurs différents. Ceci crée donc un environnement compétitif qui stimule l'innovation. En étant dématérialisés de cette façon, les réseaux peuvent être déployés a la demande, configures, démarrés, suspendus, sauvegardes, supprimes, etc., comme un en- semble d'objets eux-mêmes programmables, organisées dans une topologie, où chaque objet représente un commutateur, un routeur ou un lien virtuel. La flexibilité qui en résulte donne a l'opérateur la possibilité de configurer la topologie du réseau, et de modifier les piles protocolaires. Parvenir à un tel degré de découplage, permettant d'aboutir a' des changements fondamentaux, est l'un des buts ultimes de la virtualisation des réseaux-- qui est envisagée comme une cl e pour le 'futur' de l'Internet--mais le concept est pour l'instant loin d'être réalisé. Jusqu'à' présent, la virtualisation du réseaux a été déployée dans des plateformes de test ou de recherche, pour permettre aux chercheurs d'expérimenter avec les protocoles de routage, notamment dans les réseaux interconnectant des nœuds de calcul, eux-mêmes virtuels. L'industrie propose des routeurs virtuels pour la consolidation des réseaux afin de réduire les coûts des équipements. Pourtant, dans le but d'introduire la virtualisation dans les réseaux de production comme ceux de l'Internet, plusieurs nouveaux défis apparaissent. La couche supplémentaire interposée entre le matériel et les réseaux virtuels doit prendre en charge le partage des ressources physiques entre les différents réseaux virtuels. Elle introduit potentiellement un surcoût en performance. Dans ce manuscrit, nous nous concentrons sur ces problématiques, en particulier la performance et le partage dans les réseaux virtualises. Ces deux questions sont particulièrement pertinentes, lorsque le plan de données du réseau lui-même est virtualise, pour offrir un maximum d'isolation et de configurabilité dans des réseaux virtuels. Puis, nous examinons les possibles applications des réseaux virtuels, partageant le réseau physique au niveau du plan de données. Dans ce contexte, les contributions présentées dans ce manuscrit peuvent être résumées de la manière suivante. Analyse et évaluation de l'impact des mécanismes de virtualisation sur la performance des communications. Afin d' évaluer l'impact de la virtualisation sur les performances d'un réseau virtualise, nous analysons d'abord différentes technologies qui permettent de virtualiser le plan de données. Puis nous construisons un prototype de routeur virtuel en utilisant des techniques logicielles de virtualisation. La performance réseau d'un tel routeur virtuel est évaluée en détail, en utilisant des configurations logicielles différentes [7] [9] [2]. Les résultats montrent que la performance des communications des serveurs virtuels a augmente durant les dernières années, pour atteindre jusqu'à' 100% du débit maximum sur des interfaces réseau de 1 Gb/s, grâce aux optimisations logicielles. La virtualisation en logiciel est donc une approche prometteuse pour l'expérimentation, mais pour un réseau de production tel qu'Internet, du matériel dédié est requis, pour atteindre de très hauts débits (> 10 Gb/s). Virtualisation de la matrice de commutation. Nous proposons une architecture de commutation virtualisée, qui permet de partager les ressources matérielles d'un commutateur de manière flexible entre plusieurs commutateurs virtuels [5]. Cette architecture de switch virtualisée permet a' des utilisateurs de mettre en place des commutateurs virtuels, instancies au dessus du commutateur physique, chaque commutateur ayant un nombre de ports configurable. De plus, la capacité par port et la taille des tampons mémoire peuvent être dimensionnées. En outre, chaque commutateur virtuel peut disposer de mécanismes d'ordonnancement et de mise en file d'attente de paquets différents. Un ordonnanceur de commutateurs virtuels contrôle le partage des ressources matérielles entre les commutateurs virtuels et assure l'isolation des performances. L'architecture proposée est évaluée par des simulations. Un brevet a été déposé pour cette architecture [VxSwitch]. Isolation et programmation de r eseaux virtuels. Etant virtualisées, les ressources réseau sont partagées par des réseaux virtuels différents. Pour contrôler la quantité de chaque ressource qui est attribuée à chaque réseau virtuel, nous proposons un service de réseaux virtuels. Ce service consiste en l'interconnexion de nœuds par un réseau virtuel, compose de routeurs et de liens virtuels. Les routeurs peuvent être configures afin que chaque réseau virtuel puisse contrôler quel chemin est utilise par son trafic. La bande passante peut être allouée dynamiquement aux liens virtuels. Les ressources physiques sous-jacentes vérifient que chaque lien virtuel fournit la bande passante configurée et qu'il assure un niveau de service garanti [1]. Ce service est implémenté de deux façons. En premier lieu, des routeurs virtuels logiciels interconnectes par des liens virtuels sont utilises [HIPerNet]. Puis, des routeurs et liens virtuels sont crées en utilisant des commutateurs OpenFlow. Des évaluations montrent qu'avec chacune des deux approches, des garanties en termes de bande passante, ainsi que des fonctions de configuration du routage peuvent être fournies a' chaque réseau virtuel. Application des réseaux virtuels. Finalement, le service de réseaux virtuels est applique au contexte des infrastructures virtuelles généralisées, combinant la virtualisation du réseau et des nœuds de calcul. Les utilisateurs peuvent demander une infrastructure virtuelle de calcul, dont les ressources sont interconnectées par un réseau virtuel contrôle. Cette approche est prometteuse pour les réseaux du Cloud ou nuage en français. Nous déployons un tel service dans la plateforme de test Grid'5000, et l'évaluons en utilisant une application distribuée à grande échelle [6]. Les résultats montrent que la configuration de niveaux de service réseau différents impacte directement le temps d'exécution de l'application [3] [12]. Nous validons donc l'importance du contrôle et de l'isolation dans les réseaux virtuels, dans le but de fournir des performances prévisibles a des applications Cloud.
87

Performances des applications IP dans les systèmes de communications par satellite : cas du DVB-RCS et du DVB-S2

Jegham, Nizar 12 November 2008 (has links) (PDF)
Les retours et les études dont on dispose sur les réseaux IP par satellite ne permettent pas d'apprécier les performances dont ils sont capables. Pourtant, les difficultés de transmettre de l'IP par satellite persistent encore. L'inadaptation du protocole IP, initialement conçu pour des réseaux terrestres, au large produit délai-bande du média satellite est une raison. Le fonctionnement souvent dé-corrélé entre les niveaux supérieurs de la pile TCP/IP et les couches physique et MAC du média satellite, est une autre. Dans le cadre de ce travail de thèse nous adoptons une démarche expérimentale basée sur l'observation, l'analyse et l'évaluation de systèmes implantant des technologies IP par satellite tels que le standard DVB-RCS, la technologie propriétaire iDirect ou la nouvelle norme DVB-S2. Nous étudions l'impact des règles de qualité de service IP sur les performances des applications dans un contexte de bande limitée. Nous nous penchons notamment sur l'évaluation des efficacités de l'encapsulation IP en termes de consommation de bande. Notre premier objectif est de déceler les niveaux auxquels un opérateur peut agir en vue d'optimiser la configuration d'un système IP par satellite et en accroître les performances
88

Gestion de l'adaptabilité dans les applications réparties

Stefani, Jean-Bernard 04 December 2009 (has links) (PDF)
RESUME : Bien que les modèles à composants aient permis de mieux gérer la complexité des applications réparties, ces applications restent confrontées à un problème d'adaptabilité. Le caractère distribué et évolutif de l'environnement d'exécution, la dynamicité des composants logiciels et les propriétés de qualité de service attendues sont autant de critères qui nécessitent de pouvoir adapter une application durant son cycle de vie. Durant mon parcours, j'ai abordé le problème de l'adaptabilité des applications réparties comme le fil directeur de mes recherches. Dans un premier temps, dans le cadre du projet Olan, ma démarche a été d'utiliser le concept de composant pour obtenir une adaptabilité au déploiement. Par la suite, dans le contexte du projet Jade, je me suis intéressée au support de l'adaptabilité durant l'exécution, en exploitant les capacités offertes par les modèles à composants réflexifs pour fournir une adaptabilité contrôlée par des processus autonomes. L'usage des composants comme socle pour une adaptabilité autonomique reste la base de ma démarche scientifique. Dans ce document, je motive cette démarche en retraceant l'évolution des modèles à composants et leurs apports pour l'adaptabilité. Je présente également les perspectives de recherche, encore très ouvertes, de l'adaptabilité dynamique et les directions futures que je compte investiguer.
89

Architectures multiprocesseurs pour applications de télécommunication basées sur les technologies d'intégration 3D / Multiprocessor architectures for telecommunications applications based on 3d integration technology

Lafi, Walid 11 July 2011 (has links)
Les travaux de cette thèse s'intéressent aux problèmes de performance et de coût des architectures MPSoC à base de NoC, en tirant parti des possibilités offertes par les technologies d'intégration 3D. Plusieurs contributions originales sont proposées. Tout d'abord, une étude approfondie à propos des différentes granularités de partitionnement au sein des circuits 3D est réalisée. En se basant sur cette analyse, ce travail de thèse est orienté aux architectures 3D partitionnées au niveau des blocs macroscopiques. Ainsi, la contribution de l'intégration 3D est limitée aux interconnexions verticales inter-blocs. Afin d'améliorer les performances de ces interconnexions, une topologie hiérarchique de NoC est proposée pour diminuer la latence et augmenter le débit des communications au sein des architectures 3D partitionnées au niveau des macro-blocs. D'autre part, un modèle au niveau du système est présenté pour évaluer et comparer les coûts des différentes options technologiques de l'intégration 3D. Partant de cette évaluation, nous proposons une architecture multiprocesseur reconfigurable empilable pour les applications de télécommunication 4G, en tenant compte des problèmes de coût. / This PhD research is intended to deal with cost and performance issues of NoC-based MPSoC architectures by taking advantage of the opportunities offered by 3D integration technologies. Several original contributions are proposed. First, a deep investigation of the different partitioning granularities within 3D circuits is performed. Based on this analysis, this PhD work is oriented to focus on core-level partitioned 3D architectures, and then to restrict the contribution of 3D stacking to the global inter-block vertical interconnections. To enhance the performance of global interconnect architectures, a hierarchical NoC topology is proposed to improve communication latency and throughput within core-partitioned 3D architectures. On the other hand, a system-level cost analysis model is presented to assess and compare several 3D integration technology options. Based on this evaluation, we propose a cost-aware stackable reconfigurable multiprocessor NoC-based architecture to address the requirement of 4G telecom applications.
90

Échantillonnage Non Uniforme : Application aux filtrages et aux conversions CAN/CNA (Convertisseurs Analogique-Numérique et Numérique/Analogique) dans les télécommunications par satellite / Non Uniform Sampling : Application to filtering and ADC/DAC conversions (Analog-to-Digital and Digital-to-Analog) in the telecommunications by satellite

Vernhes, Jean-Adrien 25 January 2016 (has links)
La théorie de l'échantillonnage uniforme des signaux, développée en particulier par C. Shannon, est à l'origine du traitement numérique du signal. Depuis, de nombreux travaux ont été consacrés à l'échantillonnage non uniforme. Celui-ci permet, d'une part, de modéliser les imperfections des dispositifs d'échantillonnage uniforme. D'autre part, l'échantillonnage peut être effectué de manière délibérément non uniforme afin de bénéficier de propriétés particulières, notamment un assouplissement des conditions portant sur le choix de la fréquence moyenne d'échantillonnage. La plupart de ces travaux reste dans un cadre théorique en adoptant des schémas d'échantillonnage et des modèles de signaux simplifiés. Or, actuellement, dans de nombreux domaines d'application, tels que les communications par satellites, la conversion analogique-numérique s'effectue sous des contraintes fortes pour les largeurs de bande mises en jeu, en raison notamment des fréquences très élevées utilisées. Ces conditions opérationnelles accentuent les imperfections des dispositifs électroniques réalisant l'échantillonnage et induisent le choix de modèles de signaux et de schémas d'échantillonnage spécifiques. Cette thèse a pour objectif général d'identifier des modèles d'échantillonnage adaptés à ce cadre applicatif. Ceux-ci s'appliquent à des signaux aléatoires passe-bande, qui constituent un modèle classique en télécommunications. Ils doivent prendre en compte des facteurs technologiques, économiques ainsi que des contraintes bord de complexité et éventuellement intégrer des fonctionnalités propres aux télécommunications. La première contribution de cette thèse est de développer des formules d'échantillonnage non uniforme qui intègrent dans le domaine numérique des fonctionnalités délicates à implémenter dans le domaine analogique aux fréquences considérées. La deuxième contribution consiste à caractériser et à compenser les erreurs de synchronisation de dispositifs d'échantillonnage non uniforme particuliers, à savoir les convertisseurs analogique-numérique entrelacés temporellement, via des méthodes supervisées ou aveugles. / The theory of uniform sampling, developed among others by C. Shannon, is the foundation of today digital signal processing. Since then, numerous works have been dedicated to non uniform sampling schemes. On the one hand, these schemes model uniform sampling device imperfections. On the other hand, sampling can be intentionally performed in a non uniform way to benefit from specific properties, in particular simplifications concerning the choice of the mean sampling frequency. Most of these works have focused on theoretical approaches, adopting simplified models for signals and sampling devices. However, in many application domains, such as satellite communications, analog-to-digital conversion is submitted to strong constraints over the involved bandwidth due to the very high frequencies used. These operational conditions enhance the imperfections of the involved electronic devices and require the choice of particular signal models and sampling schemes. This thesis aims at proposing sampling models suitable for this context. These models apply to random band-pass signals, which are the classical models for telecommunication signals. They must take into account technological, economical factors and on-board complexity constraints and allow to integrate particular functionalities useful for telecommunication applications. This thesis first contribution is to develop non uniform sampling formulas that can digitally integrate functionalities that appear to be tricky in the analog domain at the considered frequencies. The thesis second contribution consists in applying non uniform sampling theory to the estimation and compensation of synchronization errors encountered in particular sampling devices, the timeinterleaved analog-to-digital converters. This estimation will be performed through supervised or blind methods.

Page generated in 0.1355 seconds