• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 10
  • 2
  • 2
  • Tagged with
  • 62
  • 22
  • 18
  • 18
  • 16
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Approche méthodologique de la mise en place d'un réseau multiservice

François, Denis 13 September 1994 (has links) (PDF)
L'intégration des fonctions techniques urbaines permet d'envisager à la fois un développement qualitatif et quantitatif des prestations de services aux citadins, et une meilleure efficacité globale de l'organisation technique locale. Elle repose sur l'échange d'informations entre les services techniques grâce à un réseau de télécommunications partagé. Divers projets de mis en place de réseaux partagés ont existé en France à partir de 1987. Constatant d'une part l'intérêt présenté par l'intégration pour les politiques urbaines locales actuelles, et d'autre part le manque de réussite de ces initiatives, notre objectif dans ce travail est d'apporter une réponse globale au problème de la mise en place d'un réseau partagé pour l'intégration des fonctions techniques urbaines. Cela consiste à identifier les causes des problèmes et déterminer leurs remèdes. Nous avons recensés six collectivités locales (Besançon, Gardanne, Nîmes, Montpellier, Nancy et Paris) qui ont été le siège de tels projets. Grâce à la connaissance du contexte général dans lequel doit naître tout projet de ce type (Partie A), il est plus aisé d'expliquer les écueils mis en évidence comme s'étant opposés à la réussite des divers projets (Partie B). D'une part ces écueils tiennent au manque de référence, tant réelle que conceptuelle, relative au réseau partagé et à l'intégration, ils tiennent d'autre part à la difficile conduite d'un projet multi-acteur et innovant Proposé comme pouvant servir de référence conceptuelle à des projets futurs, un modèle générique de réseau pour l'intégration des fonctions est présenté. Le réseau multiservice - RMS - est une plate-forme télé-informatique intégrant des modules autonomes. Proposé comme pouvant servir de guide aux partenaires engagés dans la définition des caractéristiques d'un RMS spécifiquement local, (répondant au projet local d'intégration), une méthode de conception est présentée. Elle conduit à l'élaboration du Schéma Directeur du RMS.
52

Résonateurs à Ondes Acoustiques Guidées sur Miroir de Bragg

Issiaka, Koné 08 April 2010 (has links) (PDF)
Les composants passifs électro-acoustiques sont des éléments critiques des architectures RF. Les plus représentés sont les filtres à ondes acoustiques de surface (SAW) ou de volume (BAW), qui permettent le filtrage RF (filtre d'antenne). Pour le filtrage de canal, les solutions SAW sont actuellement en place, bien que des travaux récents aient montré l'intérêt des résonateurs à ondes de Lamb pour ce type d'application. Ces derniers composants présentent l'avantage d'être compatibles avec une technologie de fabrication de filtres BAW réalisés sur membrane suspendue (FBAR), permettant une co-intégration des deux types de composants à moindre coût. Toutefois, le choix technologique de STMicroelectronics et du CEA-Leti s'est porté sur une technologie de résonateurs BAW réalisés sur miroir de Bragg (SMR). Le but de cette thèse est donc de démontrer la possibilité de réaliser des résonateurs reprenant le principe des résonateurs à ondes de Lamb, mais co-intégrables avec des BAW-SMR. Après une présentation de l'état des lieux des composants électromécaniques utilisés dans les architectures RF et des diverses propositions de dispositifs semblables présentes dans la littérature, nous abordons une étude théorique du principe de fonctionnement de ce type de composants, ce qui nous permet d'en cerner les caractéristiques : coefficients de couplage électromécaniques proches de ceux des résonateurs à ondes de Lamb, mais fonctionnement à des fréquences proches de celles des résonateurs BAW. Nous présentons ensuite les méthodes de dimensionnement employées. Enfin, nous présentons un procédé de réalisation proche de celui des BAWSMR fabriqués au CEA-Leti, mais adapté à nos composants. A l'issue de caractérisations électriques, nous sommes en mesure de présenter les premiers composants de ce type fonctionnels, et une liste d'améliorations possibles. Ces travaux ont permis des publications dans quatre conférences dont trois internationales, un journal, un dépôt de brevet d'invention et deux publications internes au laboratoire commun IEMNSTMicroelectronics. Mots clés : Résonateur, Filtre, BAW, SAW, Ondes de Lamb, Ondes guidées, MEMS, Architecture RF, Télécommunication mobile, Acoustique, Miroir de Bragg, Modélisation FEM, Matrice de réflexion. Glossaire : SAW : Surface Acoustic Wave Resonator/Résonateur à ondes acoustiques des surface, BAW : Bulk Acoustic Wave/Ondes de volume, FBAR : Film Bulk Acoustic Resonator/Résonateur à ondes de volume sur une membrane, SMR : Solidily Mounted Resonator/Résonateur à ondes de volume sur un miroir de Bragg.
53

Etude et conception de filtres hyperfréquences hybrides planaires-volumiques

Potelon, Benjamin 06 December 2007 (has links) (PDF)
Les systèmes modernes de télécommunication touchent un public de plus en plus large, ce qui induit inexorablement une utilisation intensive de la gamme hyperfréquence. Pour éviter la saturation des services disponibles, les spécifications concernant les systèmes sont de plus en plus exigeantes. Ces contraintes drastiques sont reportées sur les différents éléments et en particulier sur les filtres. C'est dans ce contexte que nous présentons une nouvelle technologie de réalisation de filtres, l'objectif étant d'améliorer les performances électriques des filtres sans renoncer à la facilité de réalisation des circuits. Ainsi, dans le premier chapitre, nous introduisons les deux techniques historiques de fabrication de filtres, les technologies planaire et volumique. Puis une association de ces deux technologies appelée Substrate Integrated Waveguide (SIW) est présentée. Elle consiste à créer des cavités enterrées à l'intérieur d'un substrat planaire. Dans le deuxième chapitre, nous proposons des améliorations concernant cette technique SIW, celles-ci concernent non seulement les topologies des résonateurs mais aussi les possibilités de couplages entre les résonateurs. Enfin, dans le troisième chapitre, nous présentons une nouvelle topologie de filtre basée sur une recombinaison entre éléments planaires et cavités intégrées. La synthèse de ce résonateur est aussi décrite dans cette partie. Les avantages de cette nouvelle topologie sont une conception aisée ainsi que des bonnes performances électriques.
54

Le Gabon et la question de la societé de l'information. Approche spatiale des réseaux et des enjeux géopolitiques des technologies de la communication

Makanga Bala, Martial Pépin 03 February 2010 (has links) (PDF)
I - LE CONTEXTE PREALABLE A L'ETUDE Au niveau international et au niveau des pays dont le Gabon, les années 1990 ont vu émerger une activité et une mobilisation sans commune mesure autour des technologies de l'information et de la communication et du paradigme de la société de l'information. Le Sommet mondial sur la société de l'information (SMSI) de l'ONU est venu en 2003 à Genève et en 2005 à Tunis, couronner l'intérêt accordé à ce sujet par la communauté internationale. A l'échelle du Gabon, après plus de dix ans d'évocation et d'action pour et par les TIC mises en perspective avec les préoccupations de développement par plusieurs acteurs, des signaux forts sont apparus : création d'institutions publiques et privées consacrées aux TIC, création des associations et mise en place de nombreux projets estampillés « TIC », etc. C'est fort de ces constatations estimées à priori significatives, qu'il est apparu particulièrement intéressant de mener une étude géographique et géopolitique visant à rendre à compte des dynamiques et des implications socio-spatiales portées directement et indirectement par les TIC. II - LE CADRE THEORIQUE DE L'ETUDE La première partie de l'étude s'emploie d'abord à définir la problématique et les hypothèses dont on peut retenir ce qui suit : la rhétorique autour des TIC et de la société de l'information, permet d'identifier aisément depuis le global jusqu'au local, du Nord au Sud, plusieurs acteurs, des stratégies et des visions croisées voire contradictoires, sur le rôle moteur que jouent et que peuvent encore jouer les TIC en Afrique. Quelles sont dès lors, dans le cas du Gabon, les traductions socio-spatiales des processus liés à l'insertion des TIC dans les territoires, depuis l'espace global, national, régional et local ? Les dynamiques socio-territoriales de l'insertion des TIC au Gabon s'accompagnent-elles d'effets structurants susceptibles de servir les ambitions de diversification de l'économie du Gabon ? La réponse est négative en ce sens qu'en l'état actuel de l'observation minutieuse de ces processus, il n'y a, hormis des évocations politiques ponctuelles ou conjoncturelles, des signaux suffisamment forts accréditant de l'intégration de la problématique des TIC dans les stratégies de développement des pouvoirs publics. Ensuite, pour mieux répondre à ces questions et évaluer la pertinence des hypothèses, la première partie rassemble des matériaux divers tirés du Gabon en tant qu'espace d'étude principal, du Sénégal, de l'Europe et de l'histoire de l'appropriation géographique de l'information et de la communication. Avec cette trame, elle connecte des éléments apparemment incompatibles pour in fine déblayer le cadre propice pour mener une étude géographique et géopolitique de l'insertion des TIC au Gabon : la mobilisation de ressources de nature différente, l'association de concepts géographiques (le territoire et le réseau) avec des concepts polysémiques sans appartenance bien identifiée (NTIC, TIC, etc.), l'adoption d'une orientation épistémologique claire à partir de laquelle, la géographie déploie une approche structurante de l'appropriation de l'objet TIC pour produire un discours scientifique opératoire et construire des problématiques territorialisées innovantes : d'où la géographie de la société de l'information, le concept des Objets Géographiques à Visibilité Réduite (OGVR), la dimension géographique et géopolitique des noms de domaine, etc. III - LES TRADUCTIONS SOCIO-SPATIALES DE L'INSERTION DES TIC AU GABON DEPUIS LES ANNEES 1980 L'histoire contemporaine du Gabon est celle d'un pays africain dont l'espace de circulation de l'information et de la communication a été régulé et structuré par l'économie d'exportation des matières premières (le bois, le pétrole et les mines). Pour la période récente (années 1980-2000) mais aussi lointaine, l'insertion des TIC a dû composer avec un pays aux infrastructures plus tournées vers l'extérieur que l'intérieur. Avec en sus, un réseau de télécommunications insuffisant et qui a connu une évolution bicéphale (dosage déséquilibré entre le déploiement de nouvelles infrastructures et la permanence d'équipements obsolètes) caractérisant globalement le système de l'information et de la communication du pays, le déploiement technique et réglementaire (la régulation comme facteur du renforcement de l'insertion) des réseaux de la téléphonie mobile (AMPS, GSM), de l'Internet et des TIC a tantôt renforcé les inégalités territoriales d'accès préexistantes, tantôt recentré partiellement vers l'intérieur, l'espace national et régional d'accès aux TIC. C'est ce qu'illustre la géopolitique de l'insertion des TIC au Gabon via les trajectoires de plusieurs acteurs, institutionnels, associatifs, citoyens, etc... observables surtout depuis le milieu des années 1990 jusqu'à nos jours. IV - LES TENDANCES LOURDES ET LES PERSPECTIVES DE L'INSERTION DES TIC AU GABON A quelques années de distance de l'effervescence née des dynamiques socio-spatiales de l'appropriation des TIC au Gabon, des lignes de force bien identifiées dessinent ce processus. Sur le plan politique, les pouvoirs publics ont décrété les TIC comme une composante essentielle de la stratégie de la diversification économique vers laquelle le pays veut tendre pour préparer l'après pétrole. Sauf que le décret ne suffit pas pour transformer le pays en pôle numérique majeur (PNM). Sur le plan des infrastructures et des réseaux publics et privés, l'espace national de circulation de l'information et de la communication demeure contrasté avec de fortes inégalités territoriales d'accès aux TIC révélatrices d'une fracture numérique persistance. S'y ajoute, l'existence d'infrastructures hors d'usage cohabitant avec des infrastructures modernes comme l'atterrissement au câble SAT-3 qui sont encore insuffisamment exploitées du point de vue des capacités offertes, de la concurrence de la gestion des équipements d'intérêt général (permanence du monopole de l'opérateur historique) et des prix élevés. Cette situation est symptomatique de l'ensemble de la politique publique dans le domaine des TIC (télécommunications, informatique, audiovisuel) qui a certes su intégrer historiquement les meilleures générations de technologies de la communication sans toutefois parvenir à penser progressivement un espace national de circulation de l'information et de la communication moins hétérogène. Sur le plan des usages des TIC, qu'ils soient populaires, professionnels ou administratifs, des évolutions notables sont observables au regard des efforts de nombreux acteurs privés surtout (promoteurs de cybercentres, de cybercafés, de télécentres, etc.). Ces derniers ont rendu possible l'émergence d'une économie numérique des services en attente d'un meilleur accompagnement politique, juridique, financier, etc... qui tarde malheureusement à prendre forme. A la fébrilité des actions politiques à l'échelle nationale, s'ajoute quasiment un non débat à l'échelle locale sur l'insertion des TIC de la part des élus. Au niveau des projets consacrés aux TIC, les pouvoirs publics n'ont pas suffisamment su tirer le meilleur parti socio politique de certains de ces projets menés avec de nombreux partenaires qui ne semblent pas motivés à renouveler ces expériences. Malgré cela, le gouvernement du Gabon maintient une certaine volonté politique à initier de nouveaux projets « TIC » dont certains ont pu être menés à bout avec des résultats flatteurs. Les acteurs du secteur privé par contre, ont pour beaucoup d'entre eux mener à terme des projets « TIC » qui ont eu pour objectif souvent, d'améliorer leur outil de production. A ce stade, la géopolitique de l'insertion des TIC au Gabon révèle un bicéphalisme emblématique devenu structurant : action politique résiduelle et instrumentalisation des TIC, modernité criante et obsolescence des infrastructures, dynamiques socio-territoriales des accès et inégalités spatiales équivalentes. Dans ce contexte, les évocations politiques d'une volonté du Gabon aspirant à la constitution d'un pôle numérique majeur (PNM) illustrent le développement ou le progrès socio économique par décret. Pour tendre véritablement vers cet objectif louable et ambitieux, le Gabon est obligé de se doter d'un projet politique approprié. Pour réussir, ce projet politique, plus que les tentatives précédentes, doit être capable d'identifier les meilleures conditions d'appropriation socioculturelle et économique des TIC. Il doit pouvoir porter une orientation claire et volontaire, rassembler et mobiliser les compétences nationales et locales associées aux partenaires externes. Ce projet doit enfin disposer d'une stratégie qui met en réseau, les différents secteurs de vie de la nation, des plus prioritaires à ceux qui le sont moins et surtout, qui situe le Gabon dans un espace national, régional et mondial car s'approprier les TIC aujourd'hui, c'est apprendre à vivre avec au quotidien. C'est de la prise en compte de ces enjeux géopolitiques des TIC par le Gabon (enjeux politiques, territoriaux, environnementaux, économiques et socioculturels), que va dépendre sa capacité à asseoir un leadership High Tech régional et définir une « autre » participation à la mondialisation et à la société de l'information.
55

Récepteur adaptatif multi-standards pour les signaux à étalement de spectre en contexte non coopératif

Nsiala-Nzéza, Crépin 05 July 2006 (has links) (PDF)
L'étalement de spectre par séquence directe occupe une place prépondérante dans les systèmes de télécommunication utilisant la technique d'accès multiple par répartition de code : ce sont les systèmes dits de troisième génération (3G). En effet, ces systèmes permettent des trafics de données diverses à très hauts débits et l'accès simultané d'un très grand nombre d'utilisateurs. Dans le cadre de la surveillance du spectre radio fréquence, se posent alors les problèmes de la différenciation de ces systèmes et de la reconnaissance automatique des signaux à spectre étalé par séquence directe, sans connaissance a priori sur les systèmes de transmission. C'est dans ce contexte dit non coopératif que se situe le cadre de ce travail. La première phase de l'identification est la détection multi-utilisateurs aveugle des signaux à spectre étalé interférents. Nous avons montré que ces signaux peuvent être détectés grâce à leur effet sur les fluctuations d'estimateurs statistiques. Cette méthode permet également d'estimer les périodes symboles et ainsi d'isoler les groupes de signaux transmis au même débit (c'est-à-dire, les différents systèmes). La seconde phase est la synchronisation dans chaque groupe. Elle consiste à affiner la période symbole obtenue lors de la première phase et, pour chaque signal du groupe, à évaluer de manière précise le début du premier symbole. Nous avons d'abord étendu au cas multi-utilisateurs la technique consistant à maximiser la norme carrée de la matrice de covariance du signal intercepté. La courbe de synchronisation obtenue présente alors des pics, dont le nombre correspond au nombre d'utilisateurs interférents. Toutefois, nous avons montré que certains de ces pics pouvaient être masqués. Partant de ce constat, nous avons développé une méthode originale de synchronisation consistant à maximiser les valeurs propres prépondérantes de la matrice de covariance. Une étude théorique des performances de ces deux techniques, après la synchronisation, prouve la robustesse de la nouvelle méthode. Enfin, une fois les signaux synchronisés, nous avons présenté une méthode d'estimation des séquences d'étalement utilisées à l'émission ainsi que des symboles transmis. Les performances simulées, en terme de taux d'erreurs chip et binaire moyens, confirment les résultats théoriques.
56

Conception de Réseaux Dynamiques Tolérants aux Pannes

Huc, Florian 14 November 2008 (has links) (PDF)
Cette thèse aborde différents aspects de la conception d'un réseau de télécommunications. Un tel réseau utilise des technologies hétérogènes : liens antennes-satellites, radio, fibres optiques ou bien encore réseaux embarqués dans un satellite. Les problématiques varient en fonction de la partie du réseau considérée, du type de requêtes et de l'objectif. Le cas des requêtes de type paquets est abordé dans le cadre des réseaux en forme de grille, mais le thème principal est le routage de requêtes de type connections (unicast et multicast). Les objectifs considérés sont : la conception d'un réseau embarqué dans un satellite de télécommunication, de taille minimum et tolérant des pannes de composants; le dimensionnement des liens d'un réseau afin qu'il supporte des pannes corrélées ou qu'il offre une bonne qualité de service, ou s'il autorise des connections {\em multicast}; le dimensionnement de la taille des buffers d'un réseau d'accés radio; et l'optimisation de l'utilisation des ressources d'un réseau dynamique orienté connections. Dans tous ces cas la problématique du routage de connections est centrale. Mon approche consiste à utiliser la complémentarité de techniques algorithmique et d'optimisation combinatoire ainsi que d'outils issus de la théorie des graphes tels la pathwidth et des notions reliées -process number, jeux de captures et treewidth-, différents types de coloration -impropre et pondérée, proportionnelle, directed star colouring-, les graphes d'expansion et des techniques de partitions telle la quasi partition.
57

Extension de l'approche par la courbe maitresse de la prédiction des durées de vie de réseaux d'indice complexes inscrits par UV dans les fibres

Costes, Sylvain 04 June 2013 (has links) (PDF)
L'objectif principal de cette thèse était d'examiner dans quelle mesure il est possible d'étendre l'approche de la courbe maîtresse à des composants complexes afin de déterminer des conditions de déverminage et de réaliser une prédiction de durée de vie en fonction de ces conditions de déverminage. Nous avons considéré la stabilité d'un réseau dit élémentaire (réseau carré, à pas constant et droit) puis le problème de la stabilité (selon des critères spécifiques) des composants complexes: les CDC et les monofiltres GFF. Cette thèse a permis de décrire de façon rigoureuse, puis d'utiliser le cadre de travail VAREPA pour résoudre des problèmes issus de l'industrie de télécoms. A cet effet, des séries d'études de vieillissement accéléré sur des réseaux simples et complexes ont été menées. Un protocole de mesure permettant de déterminer les incertitudes de mesure a été mis au point afin de déterminer de façon fiable des intervalles de confiance sur les prédictions de durée de vie.Nous avons étudié les cinétiques de croissance des réseaux inscrits dans une fibre dédiée à l'inscription des CDC (Coreactive). Cette étude nous a permis de montrer que la réaction prédominante à l'origine des changements d'indice de réfraction est activée par une absorption à 1 photon. D'autre part, nous avons étendu le cadre de travail utilisé pour prédire l'effacement des réseaux (VAREPA) afin de rendre compte de leurs cinétiques d'inscription. Puis nous avons cherché à déterminer les conditions de passivation et à prédire la durée de vie des réseaux déverminés en présence d'hydrogène résiduelle (procédé industriel actuel). Pour cela, nous avons établi la courbe maîtresse de réseaux photoinscrits non déverminés puis nous avons validé les conditions de déverminage et les prédictions de durée de vie en construisant une nouvelle courbe maîtresse sur des réseaux déverminés.Nous avons étudié la stabilité thermique des réseaux inscrits dans une fibre hydrogénée dédiée aux futurs monofiltres GFF dans des conditions d'inscription similaires à celles de ces composants. Nous avons utilisé les courbes maîtresses établies à partir des réseaux élémentaires (mais apodisés) simplement dégazés " à froid " (ici 2jours à 50°C puis 2 jours à 110°C). Puis, nous avons fait vieillir le profil d'indice (cœur et gaine) d'un monofiltre GFF. Puis, nous avons recalculé la réponse spectrale de ce filtre vieilli (e.g. 30jours à 200°C) et nous l'avons comparé à des mesures expérimentales. Cette approche reste générale et permet de changer les conditions de déverminage au besoin. Cette étude nous a permis de mettre en évidence que la stabilité des variations d'indice photo-induites dans le cœur dépend peu de l'amplitude initiale de la modulation pour des valeurs comprises entre quelques 10-5 et 10-3. Du fait de la présence d'une gaine optique fortement photosensible (car fortement dopée en Ge), nous avons établi les courbes maîtresses des variations d'indice photo-inscrites dans le cœur et la gaine optique pour des valeurs allant jusque 10-3 dans le cœur et 3.10-3 dans la gaine. Nous avons ainsi obtenu des courbes maîtresses présentant le même k0 (fréquence d'essai, i.e facteur pré exponentiel) mais dont la forme est légèrement différente. La stabilité des variations d'indice est meilleure dans le cœur (moins dopé en Ge) que dans la gaine photosensible. Dans un second temps, nous avons cherché à déterminer les conditions de passivation et à prédire la durée de vie des réseaux déverminés à partir des réseaux de Bragg qualifiés d'élémentaires. Pour la première fois à notre connaissance, nous avons validé de façon fiable les conditions de passivation et les prédictions de durée de vie en construisant une nouvelle courbe maîtresse sur des monofiltres GFF préalablement déverminés. Conformément à la théorie, cette courbe maîtresse présente le même k0 et une forme similaire à celle établie au moyen de réseaux non déverminés, ce qui valide la fiabilité de nos prédictions.
58

Conception et mise en oeuvre de l'interface d'acquisition et de transmission d'un réseau de capteurs sans fil : application à la mesure de signaux électrophysiologiques / No title available

Moulessehoul-Ounnas, Malika 17 December 2009 (has links)
Ce travail de thèse consiste en une étude théorique et expérimentale d'un système detransmission à application universelle. Un système de capteurs ou multi-capteurs sans filsdédié à des différentes applications ayant comme point commun, une basse amplitude. Ils'inspire donc des plates forme des réseaux sans fils existant dans le monde technologique.Nous présentons dans ce mémoire les différentes raisons qui expliquent l'intérêt majeursuscité par un tel système, nous aborderons plus profondément une des applications dusystème, à savoir le domaine neurophysiologique. A partir des choix d'architecture et dessimulations expérimentales correspondantes nous relayons étape par étape les différentesphases qui nous ont mené à réaliser les prototypes en tenant en compte les résultats desuns et des autres, pour finir ensuite par une étude comparative des différents prototypesréalisés et des perspectives envisagées. / This thesis work is a theoretical and experimental study of a universal applicationtransmission system. A wireless sensor or multi-sensor system dedicated to different low-magnitudeapplications. It is inspired from wireless networks platforms of the moderntechnological world.In this dissertation, the different reasons for the interest aroused by such a system, arepresented, we will more deeply study one of the applications of this system, namely theneurophysiological area. From the choice of the architecture and corresponding experimentalsimulations we will explain, step by step, the different phases which led us to realize theprototypes taking into account the results of each phase, then finally a comparative studyof different prototypes realized and the prospects envisaged.
59

Exploration architecturale pour le décodage de codes polaires / Hardware architecture exploration for the decoding of Polar Codes

Berhault, Guillaume 09 October 2015 (has links)
Les applications dans le domaine des communications numériques deviennent de plus en plus complexes et diversifiées. En témoigne la nécessité de corriger les erreurs des messages transmis. Pour répondre à cette problématique, des codes correcteurs d’erreurs sont utilisés. En particulier, les Codes Polaires qui font l’objet de cette thèse. Ils ont été découverts récemment (2008) par Arıkan. Ils sont considérés comme une découverte importante dans le domaine des codes correcteurs d’erreurs. Leur aspect pratique va de paire avec la capacité à proposer une implémentation matérielle de décodeur. Le sujet de cette thèse porte sur l’exploration architecturale de décodeurs de Codes Polaires implémentant des algorithmes de décodage particuliers. Ainsi, le sujet gravite autour de deux algorithmes de décodage : un premier algorithme de décodage à décisions dures et un autre algorithme de décodage à décisions souples.Le premier algorithme de décodage, à décisions dures, traité dans cette thèse repose sur l’algorithme par annulation successive (SC) comme proposé originellement. L’analyse des implémentations de décodeurs montre que l’unité de calcul des sommes partielles est complexe. De plus,la quantité mémoire ressort de cette analyse comme étant un point limitant de l’implémentation de décodeurs de taille importante. Les recherches menées afin de palier ces problèmes montrent qu’une architecture de mise à jour des sommes partielles à base de registres à décalages permet de réduire la complexité de cette unité. Nous avons également proposé une nouvelle méthodologie permettant de revoir la conception d’une architecture de décodeur déjà existante de manière relativement simple afin de réduire le besoin en mémoire. Des synthèses en technologie ASIC et sur cibles FPGA ont été effectués pour caractériser ces contributions. Le second algorithme de décodage, à décisions souples, traité dans ce mémoire, est l’algorithme SCAN. L’étude de l’état de l’art montre que le seul autre algorithme à décisions souples implémenté est l’algorithme BP. Cependant, il nécessite une cinquantaine d’itérations pour obtenir des performances de décodages au niveau de l’algorithme SC. De plus, son besoin mémoire le rend non implémentable pour des tailles de codes élevées. L’intérêt de l’algorithme SCAN réside dans ses performances qui sont meilleures que celles de l’algorithme BP avec seulement 2 itérations.De plus, sa plus faible empreinte mémoire le rend plus pratique et permet l’implémentation de décodeurs plus grands. Nous proposons dans cette thèse une première implémentation de cetalgorithme sur cibles FPGA. Des synthèses sur cibles FPGA ont été effectuées pour pouvoir comparer le décodeur SCAN avec les décodeurs BP de l’état de l’art.Les contributions proposées dans cette thèse ont permis d’apporter une réduction de la complexité matérielle du calcul des sommes partielles ainsi que du besoin général du décodeur en éléments de mémorisation. Le décodeur SCAN peut être utilisé dans la chaîne de communication avec d’autres blocs nécessitant des entrées souples. Cela permet alors d’ouvrir le champ d’applications des Codes Polaires à ces blocs. / Applications in the field of digital communications are becoming increasingly complex and diversified. Hence, the need to correct the transmitted message mistakes becomes an issue to be dealt with. To address this problem, error correcting codes are used. In particular, Polar Codes that are the subject of this thesis. They have recently been discovered (2008) by Arikan. They are considered an important discovery in the field of error correcting codes. Their practicality goes hand in hand with the ability to propose a hardware implementation of a decoder. The subject of this thesis focuses on the architectural exploration of Polar Code decoders implementing particular decoding algorithms. Thus, the subject revolves around two decoding algorithms: a first decoding algorithm, returning hard decisions, and another decoding algorithm, returning soft decisions.The first decoding algorithm, treated in this thesis, is based on the hard decision algorithm called "successive cancellation" (SC) as originally proposed. Analysis of implementations of SC decoders shows that the partial sum computation unit is complex. Moreover, the memory amount from this analysis limits the implementation of large decoders. Research conducted in order to solve these problems presents an original architecture, based on shift registers, to compute the partial sums. This architecture allows to reduce the complexity and increase the maximum working frequency of this unit. We also proposed a new methodology to redesign an existing decoder architecture, relatively simply, to reduce memory requirements. ASIC and FPGA syntheses were performed to characterize these contributions.The second decoding algorithm treated in this thesis is the soft decision algorithm called SCAN. The study of the state of the art shows that the only other implemented soft decision algorithm is the BP algorithm. However, it requires about fifty iterations to obtain the decoding performances of the SC algorithm. In addition, its memory requirements make it not implementable for huge code sizes. The interest of the SCAN algorithm lies in its performances which are better than those of the BP algorithm with only two iterations. In addition, its lower memory footprint makes it more convenient and allows the implementation of larger decoders. We propose in this thesis a first implementation of this algorithm on FPGA targets. FPGA syntheses were carried out in order to compare the SCAN decoder with BP decoders in the state of the art.The contributions proposed in this thesis allowed to bring a complexity reduction of the partial sum computation unit. Moreover, the amount of memory required by an SC decoder has been decreased. At last, a SCAN decoder has been proposed and can be used in the communication field with other blocks requiring soft inputs. This then broadens the application field of Polar Codes.
60

Extension de l'approche par la courbe maitresse de la prédiction des durées de vie de réseaux d'indice complexes inscrits par UV dans les fibres / Extension of the master-curve approach for lifetimes predictions of complex componants based on fiber bragg gratings written by uv exposure

Costes, Sylvain 04 June 2013 (has links)
L’objectif principal de cette thèse était d’examiner dans quelle mesure il est possible d’étendre l’approche de la courbe maîtresse à des composants complexes afin de déterminer des conditions de déverminage et de réaliser une prédiction de durée de vie en fonction de ces conditions de déverminage. Nous avons considéré la stabilité d’un réseau dit élémentaire (réseau carré, à pas constant et droit) puis le problème de la stabilité (selon des critères spécifiques) des composants complexes: les CDC et les monofiltres GFF. Cette thèse a permis de décrire de façon rigoureuse, puis d'utiliser le cadre de travail VAREPA pour résoudre des problèmes issus de l'industrie de télécoms. A cet effet, des séries d’études de vieillissement accéléré sur des réseaux simples et complexes ont été menées. Un protocole de mesure permettant de déterminer les incertitudes de mesure a été mis au point afin de déterminer de façon fiable des intervalles de confiance sur les prédictions de durée de vie.Nous avons étudié les cinétiques de croissance des réseaux inscrits dans une fibre dédiée à l’inscription des CDC (Coreactive). Cette étude nous a permis de montrer que la réaction prédominante à l’origine des changements d’indice de réfraction est activée par une absorption à 1 photon. D’autre part, nous avons étendu le cadre de travail utilisé pour prédire l’effacement des réseaux (VAREPA) afin de rendre compte de leurs cinétiques d’inscription. Puis nous avons cherché à déterminer les conditions de passivation et à prédire la durée de vie des réseaux déverminés en présence d’hydrogène résiduelle (procédé industriel actuel). Pour cela, nous avons établi la courbe maîtresse de réseaux photoinscrits non déverminés puis nous avons validé les conditions de déverminage et les prédictions de durée de vie en construisant une nouvelle courbe maîtresse sur des réseaux déverminés.Nous avons étudié la stabilité thermique des réseaux inscrits dans une fibre hydrogénée dédiée aux futurs monofiltres GFF dans des conditions d’inscription similaires à celles de ces composants. Nous avons utilisé les courbes maîtresses établies à partir des réseaux élémentaires (mais apodisés) simplement dégazés « à froid » (ici 2jours à 50°C puis 2 jours à 110°C). Puis, nous avons fait vieillir le profil d’indice (cœur et gaine) d’un monofiltre GFF. Puis, nous avons recalculé la réponse spectrale de ce filtre vieilli (e.g. 30jours à 200°C) et nous l’avons comparé à des mesures expérimentales. Cette approche reste générale et permet de changer les conditions de déverminage au besoin. Cette étude nous a permis de mettre en évidence que la stabilité des variations d’indice photo-induites dans le cœur dépend peu de l’amplitude initiale de la modulation pour des valeurs comprises entre quelques 10-5 et 10-3. Du fait de la présence d’une gaine optique fortement photosensible (car fortement dopée en Ge), nous avons établi les courbes maîtresses des variations d’indice photo-inscrites dans le cœur et la gaine optique pour des valeurs allant jusque 10-3 dans le cœur et 3.10-3 dans la gaine. Nous avons ainsi obtenu des courbes maîtresses présentant le même k0 (fréquence d'essai, i.e facteur pré exponentiel) mais dont la forme est légèrement différente. La stabilité des variations d’indice est meilleure dans le cœur (moins dopé en Ge) que dans la gaine photosensible. Dans un second temps, nous avons cherché à déterminer les conditions de passivation et à prédire la durée de vie des réseaux déverminés à partir des réseaux de Bragg qualifiés d’élémentaires. Pour la première fois à notre connaissance, nous avons validé de façon fiable les conditions de passivation et les prédictions de durée de vie en construisant une nouvelle courbe maîtresse sur des monofiltres GFF préalablement déverminés. Conformément à la théorie, cette courbe maîtresse présente le même k0 et une forme similaire à celle établie au moyen de réseaux non déverminés, ce qui valide la fiabilité de nos prédictions. / The main objective of this thesis was to investigate how it is possible to extend the master curveapproach to complex components, in order to calculate annealing conditions and giving a life timeprediction according those annealing conditions. We studied the stability of a simple Bragg grating (noapodisation, constant pitch, no tilt). Then, we have been able to study the problem of the stability(according to specific criteria) of complex components: CDC and GFF monofilters. This thesis allowed toshow precisely what is the VAREPA framework and how to apply it to optical telecommunicationsproblems. To give an answer to the question of the possibility of extending the master curve approach tocomplex components, series of accelerate aging studies have been carried out. For this purpose, ameasurement protocol including the determination of the measurement uncertainty was developed. Thisprotocol allow, to determine confidence intervals on the life time prediction.We studied the kinetics of photo induced index growth in the optical fiber dedicated forfabrication of CDC (Coreactive). This study allowed us to demonstrate that the predominant reaction atthe origin of changes in refractive index is activated by a one photon absorption. On the other hand wehave extended the VEREPA framework used to predict the Bragg gratings erasure to take into account thegrowing kinetics. In a second step we tried to calculate annealing conditions in the presence of residualmolecular hydrogen and associated Bragg grating life time prediction. For that purpose we established themaster curve of photo-induced Bragg gratings without annealing, then we validated the annealingconditions and lifetime predictions by building a new master curve from aging of annealed Bragg gratings(in presence of residual hydrogen).We studied the thermal stability of hydrogenated fiber Bragg gratings dedicated to futuremonofiltres GFF in similar conditions to those components. We used master curves from basic Bragggratings (ie no apodisation, constant pitch, no tilt) simply out-gazed at "cold" temperature (here 2 days at50 ° C and 2 days at 110 ° C). Then the aging of the index profile of a GFF monofilter have beensimulated (index profile of the core and of the cladding, each of them having a different master curve).For that purpose the profile have been separated into 35 "basic" filters. Then the spectral response of thisaged monofilter (e.g. 30 days at 200°C) have been calculated and compared with experimentalmeasurements. The advantage of this approach is that it is general and allow to change the annealingconditions if needed. Firstly, this study allowed to highlight that the stability of photo-induced indexchanges in the core depend little on the initial amplitude modulation for values between several 10-5 and10-3. Secondly, due to the presence of a highly sensitive optical cladding (and therefore highly Ge doped),Master curves, of photo-induced index change in the core and the cladding have been established forvalues ranging up to 10-3 in the core and 3.10-3 in the cladding. Master Curves with the same k0 havebeen obtained but the elbow and the slopes are different. Stability of index variations in the core is better(less Ge doped) than in the photosensitive cladding. In a second step, from the basic Bragg gratings, theannealing conditions and the lifetime have been determined. For the first time to our knowledge, thereliably of the annealing conditions and the life time predictions have been validated by building a newmaster curve on annealed GFF monofilters. According to the theory, this master curve show the same k0as the one determined using non-annealed gratings. More beyond the elbow, the two curves are same,which validates the reliability of our predictions.

Page generated in 0.1271 seconds