• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 144
  • 53
  • 9
  • 1
  • 1
  • 1
  • Tagged with
  • 208
  • 63
  • 59
  • 38
  • 38
  • 37
  • 35
  • 24
  • 22
  • 19
  • 17
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

THÉORIE DE L'INFORMATION MULTI-UTILISATEUR : INFORMATION ADJACENTE ET CONNAISSANCE IMPARFAITE DU CANAL

Piantanida, Pablo 14 May 2007 (has links) (PDF)
La capacité de canaux mono et multi-utilisateur dépendant d'états avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux désadaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque, en supposant des canaux discrets sans mémoire. Ces resultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage. <br /><br />Dans cette thèse, nous introduisons d'abord la notion de "estimation-induced outage capacity" pour des canaux mono-utilisateur, où lémetteur et le récepteur \oe uvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service (QoS), quel que soit le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Dans notre cas, la contrainte sur la qualité de service permet d'atteindre les taux souhaités avec une probabilité d'erreur faible (le service de communication visé), même dans le cas où les estimations du canal sont mauvaises. Nos résultats fournissent une notion intuitive de l'impact des estimations et des caractéristiques du canal (e.g. SNR, taille des séquences d'apprentissage, voies de retour) sur le taux de coupure.<br /><br />Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous nous focalisons sur les familles de décodeurs qui peuvent être implémentées sur la plupart des systèmes pratiques de modulation codée. Nous nous basons sur le décodeur théorique qui atteint la capacité, pour obtenir une métrique practique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Cette métrique est ensuite appliquée au cas des canaux MIMO à évanouissements. D'après notre notion du taux de coupure, nous déterminons le taux maximal d'information atteignable associé au décodeur proposé. Les résultats numériques montrent que, sans introduire de complexité additionnelle dans le décodage, la métrique proposée fournit des gains significatifs, en termes de taux d'information atteignables et de taux d'erreur binaire (BER), dans le cas de modulation codée à bits entrelacés (BICM).<br /><br />Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à lémetteur sur la capacité de canaux dépendant d'états avec information adjacente non-causale à lémetteur. Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Cette notion nous permet de considérer la capacité d'un canal composé (plus bruité) de type Gelfand et Pinsker. Nous obtenons le schéma de codage optimal de type "Dirty-paper coding (DPC)" qui atteint la capacité (sous l'hypothèse d'entrées Gaussiennes) du canal à évanouissements de type Costa. Les résultats illustrent le compromis pratique entre la quantité d'apprentissage du canal et son impact sur les performances de l'annulation d'interférences du schéma DPC. Cette approche nous permet d'étudier la région de capacité de canaux MIMO multi-utilisateur de diffusion à évanouissements (MIMO-BC), où les mobiles (les récepteurs) disposent uniquement d'une estimation bruitée des paramètres du canal, et ces estimations sont (ou non) disponibles à la station de base (l'émetteur). Nous observons en particulier, le résultat surprenant que pour ce canal de diffusion avec une antenne unique à l'émetteur et aux récepteurs et des estimées imparfaites du canal connues aux récepteurs, une connaissance de ses estimées à l'émetteur n'est pas nécessaire pour atteindre des taux élevés.<br /><br />Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur. Nous montrons d'abord qu'en fonction de l'application visée et des conditions requises sur les différents messages en termes de robustesse et de transparence, il y a un parallèle entre l'insertion de l'information multi-utilisateur et les canaux multi-utilisateur avec information adjacente à l'émetteur. Nous nous focalisons sur les canaux de diffusion Gaussiens (GBC) et sur les canaux Gaussiens à accès multiples (MAC). Ceci consiste en une conception commune de schémas de codage pratiques de type DPC basés sur les solutions théoriques correspondant à ces canaux. Ces résultats étendent les implémentations pratiques de type QIM, DC-QIM et SCS initialement conçues pour un utilisateur au cas de plusieurs utilisateurs. Nous montrons que l'écart avec les performances optimales (les régions de capacités) peut être minimisé en utilisant des mots de code basés sur un réseau maillé de dimension finie.
72

Etude de l'évolution du potentiel génétique de populations bactériennes dégradant l'atrazine

Changey, Frédérique 16 December 2011 (has links) (PDF)
L'atrazine, un des herbicides les plus utilisés pour contrôler le développement des plantes adventices dans les cultures, a conduit à la contamination de l'environnement. L'exposition chronique à cet herbicide a conduit à l'émergence de populations microbiennes du sol capables de dégrader l'atrazine et de l'utiliser comme une source d'azote pour leur croissance. Ces populations microbiennes sont responsables de la biodégradation accélérée (BDA) de l'atrazine, un service écosystémique contribuant à diminuer la persistance de cet herbicidedans l'environnement. L'objectif de ce travail était d'étudier les mécanismes génétiques et physiologiques responsables du fonctionnement et de l'amélioration de ce service écosystémique. Nous avons appliqué une démarche expérimentale allant des gènes codant la dégradation à des communautés microbiennes afin d'identifier les processus adaptatifs impliqués dans l'évolution de la fonction de BDA de l'atrazine.Le premier volet a consisté à évaluer l'importance de mutations accumulées dans le gène atzA dans la transformation de l'atrazine en hydroxyatrazine catalysée par AtzA. Le séquençage de gènes atzA de différents isolats bactériens dégradant l'atrazine (Pseudomonas sp. ADP WT, Pseudomonas sp. ADP Ps et différents Chelatobacter heintzii) a montré que la séquence du gène atzA était très conservée. Toutefois quatre mutations non silencieuses ont pu être identifiées (1 chez Pseudomonas sp. ADP MSE et 3 chez Chelatobacterheintzii). La modélisation de la structure de la protéine AtzA a permis de montrer que trois des mutations étaient situées dans des régions importantes (site actif, poche de liaison avec l'atrazine et liaison avec le métalFe2+. [...] Le second volet a consisté à étudier la plasticité de la voie de biodégradation de l'atrazine dans deux conditions opposées : (i) la première visait à évaluer la persistance de la capacité de dégradation en absence de pression de sélection et (ii) la seconde visait à évaluer l'évolution de la capacité de dégradation en présence d'une pression de sélection élevée. Pour conduire ces études, des manipulations d'évolution expérimentale sur Pseudomonas sp. ADP ont été menées. (i) L'exposition à l'acide cyanurique, intermédiaire métabolique de l'atrazine, a conduit à la sélection d'une population nouvellement évoluée capable de croître plus rapidement dans un milieu de culture ne contenant que l'acide cyanurique comme source d'azote. Cette population est caractérisée par une délétion d'une région de 47 kb du plasmide ADP1 contenant les gènes atzABC. Les analyses conduites ont permis de conclure que le gain de compétitivité de la population évoluée résidait dans la perte du fardeau génétique représenté par la région de 47 kb, la capacité de dégradation de l'acide cyanurique restant inchangée. (ii) L'exposition à l'atrazine a conduit à la sélection d'une populationnouvellement évoluée caractérisée par l'insertion du plasmide ADP1 en quasi-totalité sur le chromosome bactérien. [...] Le troisième volet a consisté à développer un outil permettant d'évaluer, à l'échelle d'une communauté microbienne synthétique, l'évolution du potentiel génétique dégradant. Pour ce faire quatre souches dégradantes dont une, Arthrobacter sp. TES6, isolée au cours de cette étude, ont été choisies. [...] Ces travaux montrent que la fonction de biodégradation accélérée de l'atrazine est très versatile et qu'elle est en constante évolution. Il met en évidence que le principal facteur pilotant cette évolution est le niveau d'exposition des populations dégradantes au pesticide.
73

Combinatoire and Bio-informatique : Comparaison de structures d'ARN et calcul de distances intergénomiques

Blin, Guillaume 17 November 2005 (has links) (PDF)
Nous présentons un ensemble de résultats concernant deux types de problèmes biologiques: (1) la comparaison de structures de molécules d'ARN et (2) le calcul de distances intergénomiques en présence de gènes dupliqués. Dans ce manuscrit, nous déterminons la complexité algorithmique de certains problèmes liés soit à la comparaison de structures de molécules d'ARN (distance d'édition, problème APS, recherche de motifs de 2-intervalles, design d'ARN), soit aux réarrangements génomiques (distances de breakpoints et d'intervalles conservés). \\ L'approche adoptée pour l'ensemble de ces problèmes a été de déterminer, si possible, des algorithmes exacts et rapides répondants aux problèmes posés. Pour tout problème pour lequel cela ne semblait pas possible, nous avons essayé de prouver qu'il ne peut être résolu de fa\ccon rapide. Pour ce faire, nous démontrons que le problème en question est algorithmiquement difficile. Enfin, le cas échéant, nous poursuivons l'étude de ce problème en proposant, essentiellement, trois types de résultats: (1) Approximation, (2) Complexité paramétrée, (3) Heuristique. Nous utilisons, dans ce manuscrit, des notions d'optimisation combinatoire, de mathématique, de théorie des graphes et d'algorithmique.
74

Dynamique évolutive des éléments transposables de type séquence d'insertion dans les génomes des bactéries endosymbiotiques Wolbachia

Cerveau, Nicolas 06 December 2011 (has links) (PDF)
Les éléments transposables (ET) sont l'une des principales forces guidant l'évolution des génomes. La présence de copies dégradées a permis de bien caractérisée la dynamique des ET eucaryotes. A contrario, chez les procaryotes, les ET sont considérés comme récents, ce qui complique l'étude de leur dynamique. Les séquences d'insertion (IS) sont les ET procaryotes les plus abondants. Les modèles prédisent que les IS, arrivés par transferts horizontaux, subissent une forte augmentation de leur nombre, puis sont éliminés. De plus, les modèles prédisent que les génomes des bactéries intracellulaires devraient avoir peu ou pas d'IS. Le séquençage des génomes de bactéries intracellulaires obligatoires, comme Wolbachia, a remis en cause les modèles, car certains ont une grande quantité d'IS. Notre travail portait sur l'étude des génomes de cinq souches de Wolbachia ayant des caractéristiques diverses. Nous avons réalisé une annotation détaillée des IS pour chaque génome et testé nos hypothèses basés issues de l'analyse in silico sur un panel de souches. Nous avons confirmé que les génomes de Wolbachia ont une forte abondance d'IS. La majorité des copies d'IS étaient dégradées, ce qui a permis d'étudier leur dynamique. L'activité passée des IS de Wolbachia n'a pas été constante au cours du temps avec des alternances de phases de forte activité et de quiescence. Les phases de forte activité doivent être précédées de transferts horizontaux, qui ont été expérimentalement détectés en abondance. Enfin, des analyses d'expression suggèrent que l'activité des IS n'est pas uniquement contrôlée par les éléments eux-mêmes, mais dépend également de l'environnement génomique des copies.
75

Recherche de nouvelles hormones peptidiques codées par le génome humain

Mirabeau, Olivier 30 January 2008 (has links) (PDF)
Cette thèse porte sur la découverte de gènes humains non caractérisés codant pour des précurseurs à hormones peptidiques. Les hormones peptidiques (PH) ont un rôle important dans la plupart des processus physiologiques du corps humain. Ce sont de petites protéines sécrétées générées après clivage de précurseurs plus larges codés par le génome. Dans la première partie de la thèse, l'on introduit des algorithmes, basés sur les chaînes de Markov cachées (HMM), qui vont nous permettent de modéliser les séquences protéiques des précurseurs à hormones peptidiques. On montre que l'on peut dégager des caractéristiques particulières au niveau de la séquence chez ce groupe de protéines et l'on s'attarde en particulier sur la modélisation de deux signaux toujours présents chez ces protéines, les peptides signaux et les sites de clivage par les prohormones convertases. On présente ensuite des algorithmes qui prennent en compte le degré de conservation des résidus le long d'alignements de protéines orthologues. On montre que ces nouveaux algorithmes améliorent de manière significative les résultats obtenus à l'aide des algorithmes classiques. Enfin, après lancement de l'algorithme sur des données de protéomes, l'on dégage une liste de candidats dont certains ont pu être étudiés au laboratoire. La deuxième et la troisième partie de la thèse présentent les conclusions que l'on peut tirer des données de Western blot relatives aux profils de sécrétion et de découpage (processing) de chacun des deux candidats les plus prometteurs, " spexine " et " augurine ". On présente des données d'expression sur la souris (hybridation in situ, immunohistochimie,...) que l'on a récemment obtenues sur ces nouvelles hormones peptidiques potentielles ainsi que des données fonctionnelles sur la " spexine ". En conclusion, l'on avance des hypothèses quant aux fonctions de ces deux protéines. Si les fonctions de ces nouveaux peptides nous sont encore inconnues, leur expression chez la souris, tant au niveau de l'ARN messager que de la protéine, révèle des pistes qui devraient soulever un intérêt certain chez les spécialistes du domaine des peptides. Enfin, dans la quatrième et dernière partie de la thèse, l'on présente pour quatre autres candidats (dont on n'a pu mener une étude approfondie) des données préliminaires d'expression de gène et de sécrétion in vitro après transfection de l'ADN codant pour ces protéines dans des cellules issues de lignées cellulaires pancréatiques.
76

Etude de protéines parasitaires pour l'amélioration des tests de diagnostic rapide du paludisme / Study of parasite proteins to improve malaria rapid diagnostic test

Bauffe, Frédérique 20 December 2012 (has links)
Le paludisme est un problème de santé public dans de nombreux pays. Cinq espèces infectent l'homme : P. falciparum, responsable de la grande majorité des décès, et P. vivax, P. ovale, P. malariae et P. knowlesi qui provoquent des formes bénignes de la maladie. Le diagnostic qui fait partie des moyens de lutte, est une urgence médicale. Les tests de diagnostic rapides (TDRs) dont l'usage est recommandés par l'OMS, sont donc de plus en plus employés. Cependant, la détection et l'identification des espèces non P. falciparum par ces tests est insuffisante. Le besoin en nouveaux couples « antigènes-anticorps » est une nécessité pour améliorer les TDRs. Au cours de ce travail, de nouveaux anticorps anti LDH de P.malariae ont été produits.Une recherche de nouveaux antigènes a également été entreprise. Pour cela, certaines enzymes de la voie de la glycolyse ont été étudiées. Pour la première fois des séquences des enzymes de cette voie ont été obtenues pour P. ovale et P. malariae. Elles ont permis de déterminer de nombreux épitopes cibles potentiels spécifiques et ceux communs à toutes les espèces. Dans un deuxième temps, une recherche en protéomique a été menée pour identifier des biomarqueurs parasitaires. L'étude du culot globulaire et du plasma de patients infectés a permis la sélection de 8 protéines cibles originales. Ces travaux préparent la fabrication et la commercialisation par la société Whidiag d'une nouvelle génération de TDRs pour le paludisme. / Malaria is a public health problem in many countries. Five species infect humans: P. falciparum, responsible for the vast majority of deaths, and P. vivax, P. ovale, P. malariae and P. knowlesi causing mild forms of the disease. The diagnostic is a means of control and a medical emergency. The rapid diagnostic tests (RDT) whose are recommended by WHO, are increasingly used. However, the detection and identification of not P. falciparum species is insufficient. New "antigen-antibody" couples are a need to improve the RDTs performance. In this work, new anti LDH antibodies from P. malariae were produced. A search for new antigens was also undertaken. For this purpose, some enzyme of glycolysis pathway were studied. For the first time the sequences of the enzymes from this pathway were obtained for P. ovale and P. malariae. We identified many potential target epitopes specific and common to all those species. In a second step, a proteomics approches has been conducted to identify parasites biomarkers. The study of red blood cells and plasma of infected patients has led to the selection of 8 original target proteins. This work prepares the manufacturing and marketing of a new generation of RDTs for malaria by the company Whidiag
77

Analyse d'interactions verbales dans des cours de DNL dans les écoles de l'UNWRA (Liban) : Pratiques explicatives et enseignement des disciplines scientifiques en langue étrangère / Analysis of oral interactions in CLIL classrooms in UNRWA schools (Lebanon) : explanation and teaching of science in a foreign language

Abou-Samra, Myriam 05 December 2014 (has links)
Cette recherche propose une étude des séquences explicatives relevées au sein de cours de disciplines non-linguistiques dispensés en langue étrangère. Elle s'inscrit dans le cadre plus général des travaux ayant pour objet l'analyse des interactions de classes dans des structures d'enseignement bi- ou plurilingues. La première partie vise à caractériser le terrain spécifique qui est le nôtre : à la lumière des typologies existantes, nous y présentons le système d'enseignement bilingue adopté parles écoles de l'UNRWA (Liban). Ces repères sociolinguistiques donnés, nous apportons des éléments relatifs à notre démarche méthodologique en questionnant le rôle du chercheur et en nous arrêtant sur ce qui a guidé notre collecte et notre analyse de données. Nous définissons ensuite ce que nous entendons par "séquences explicatives" en situant ces séquences au sein des discours de la classe. La deuxième partie est consacrée à l'analyse de nos données et nous permet de travailler sur la réalisation de quatre tâches du cours de DNL : comprendre un document scientifique en classe de biologie, mener une expérience en physique-chimie, écrire un compte-rendu d'expérience dans cette même discipline et résoudre une équation en mathématiques. Notre analyse s'articule principalement autour de trois critères : celui de l'intégration entre langue et discipline, celui du mode bilingue de conversation et enfin celui des formes que prennent les interactions pédagogiques. / This research studies explanatory discourse as it occures in CLIL classrooms. It is set in the widerfield of classrooms' interaction analysis in the context of bi- or multilingual education. The first partaims at specifying the characteristics of our field of research : in the light of existing typologies, wepresent the bilingual education system adopted by UNRWA schools in Lebanon. We will first takeinto account some sociolinguistic elements and then present our methodological approach. We thendefine explanatory discourse, considering it as a part of classroom discourse. The second part isdevoted to our data analysis. We focus on four tasks : understanding a scientific document inbiology, experiment and write a experiment report in physics and chemistry, solve an equation inmathematics. Our analysis first focuses on the issue of language and content integration, then dealswith the question of code-switching and at least studies the participation of each in the interaction.
78

apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques. / sequence learning and rules extraction from recurrent neural networks : application to the drawing of technical diagrams

Chraibi Kaadoud, Ikram 02 March 2018 (has links)
Deux aspects importants de la connaissance qu'un individu a pu acquérir par ses expériences correspondent à la mémoire sémantique (celle des connaissances explicites, comme par exemple l'apprentissage de concepts et de catégories décrivant les objets du monde) et la mémoire procédurale (connaissances relatives à l'apprentissage de règles ou de la syntaxe). Cette "mémoire syntaxique" se construit à partir de l'expérience et notamment de l'observation de séquences, suites d'objets dont l'organisation séquentielle obéit à des règles syntaxiques. Elle doit pouvoir être utilisée ultérieurement pour générer des séquences valides, c'est-à-dire respectant ces règles. Cette production de séquences valides peut se faire de façon explicite, c'est-à-dire en évoquant les règles sous-jacentes, ou de façon implicite, quand l'apprentissage a permis de capturer le principe d'organisation des séquences sans recours explicite aux règles. Bien que plus rapide, plus robuste et moins couteux en termes de charge cognitive que le raisonnement explicite, le processus implicite a pour inconvénient de ne pas donner accès aux règles et de ce fait, de devenir moins flexible et moins explicable. Ces mécanismes mnésiques s'appliquent aussi à l'expertise métier : la capitalisation des connaissances pour toute entreprise est un enjeu majeur et concerne aussi bien celles explicites que celles implicites. Au début, l'expert réalise un choix pour suivre explicitement les règles du métier. Mais ensuite, à force de répétition, le choix se fait automatiquement, sans évocation explicite des règles sous-jacentes. Ce changement d'encodage des règles chez un individu en général et particulièrement chez un expert métier peut se révéler problématique lorsqu'il faut expliquer ou transmettre ses connaissances. Si les concepts métiers peuvent être formalisés, il en va en général de tout autre façon pour l'expertise. Dans nos travaux, nous avons souhaité nous pencher sur les séquences de composants électriques et notamment la problématique d’extraction des règles cachées dans ces séquences, aspect important de l’extraction de l’expertise métier à partir des schémas techniques. Nous nous plaçons dans le domaine connexionniste, et nous avons en particulier considéré des modèles neuronaux capables de traiter des séquences. Nous avons implémenté deux réseaux de neurones récurrents : le modèle de Elman et un modèle doté d’unités LSTM (Long Short Term Memory). Nous avons évalué ces deux modèles sur différentes grammaires artificielles (grammaire de Reber et ses variations) au niveau de l’apprentissage, de leurs capacités de généralisation de celui-ci et leur gestion de dépendances séquentielles. Finalement, nous avons aussi montré qu’il était possible d’extraire les règles encodées (issues des séquences) dans le réseau récurrent doté de LSTM, sous la forme d’automate. Le domaine électrique est particulièrement pertinent pour cette problématique car il est plus contraint avec une combinatoire plus réduite que la planification de tâches dans des cas plus généraux comme la navigation par exemple, qui pourrait constituer une perspective de ce travail. / There are two important aspects of the knowledge that an individual acquires through experience. One corresponds to the semantic memory (explicit knowledge, such as the learning of concepts and categories describing the objects of the world) and the other, the procedural or syntactic memory (knowledge relating to the learning of rules or syntax). This "syntactic memory" is built from experience and particularly from the observation of sequences of objects whose organization obeys syntactic rules.It must have the capability to aid recognizing as well as generating valid sequences in the future, i.e., sequences respecting the learnt rules. This production of valid sequences can be done either in an explicit way, that is, by evoking the underlying rules, or implicitly, when the learning phase has made it possible to capture the principle of organization of the sequences without explicit recourse to the rules. Although the latter is faster, more robust and less expensive in terms of cognitive load as compared to explicit reasoning, the implicit process has the disadvantage of not giving access to the rules and thus becoming less flexible and less explicable. These mnemonic mechanisms can also be applied to business expertise. The capitalization of information and knowledge in general, for any company is a major issue and concerns both the explicit and implicit knowledge. At first, the expert makes a choice to explicitly follow the rules of the trade. But then, by dint of repetition, the choice is made automatically, without explicit evocation of the underlying rules. This change in encoding rules in an individual in general and particularly in a business expert can be problematic when it is necessary to explain or transmit his or her knowledge. Indeed, if the business concepts can be formalized, it is usually in any other way for the expertise which is more difficult to extract and transmit.In our work, we endeavor to observe sequences of electrical components and in particular the problem of extracting rules hidden in these sequences, which are an important aspect of the extraction of business expertise from technical drawings. We place ourselves in the connectionist domain, and we have particularly considered neuronal models capable of processing sequences. We implemented two recurrent neural networks: the Elman model and a model with LSTM (Long Short Term Memory) units. We have evaluated these two models on different artificial grammars (Reber's grammar and its variations) in terms of learning, their generalization abilities and their management of sequential dependencies. Finally, we have also shown that it is possible to extract the encoded rules (from the sequences) in the recurrent network with LSTM units, in the form of an automaton. The electrical domain is particularly relevant for this problem. It is more constrained with a limited combinatorics than the planning of tasks in general cases like navigation for example, which could constitute a perspective of this work.
79

Synthèse de macromolécules à microstructures contrôlées : régulation des séquences de monomètres dans les copolymérisations radicalaires en chaîne / Synthesis of macromolecules with controlled microstructures : regulation of monomer sequences in chain-growth radical copolymerizations

Baradel, Nathalie 24 September 2014 (has links)
Dans cette thèse, des techniques de polymérisation radicalaire contrôlée en chaîne ont été utilisées afin de mettre au point des stratégies visant à réguler la séquence de copolymères linéaires. Dans ce contexte, deux axes distincts ont été étudiés. La première approche, dans la continuité des travaux menés ces dernières années par notre équipe, repose sur l’incorporation très localisée d’une unité fonctionnelle sur une chaîne polymère linéaire. Basée sur les différences de réactivité entre comonomères (l’un accepteurs de types maléimides N-substitués en petite quantité et l’autre donneur, le styrène, en large excès), l’insertion du monomère déficient est très rapide dans la chaîne en croissance. Il est ainsi créé des macromolécules multifonctionnalisées tels qu’un polymère dendronisé ou un glycopolymère .La seconde approche consiste à contrôler les séquences de monomères en utilisant des monoinsertions successives de comonomères. Ces monoinsertions ont été obtenues dans des conditions « affamées » avec des monomères peu enclins à homopolymériser. Deux concepts différents ont été étudiés. Dans le premier, la monoinsertion en fin de chaîne est visée, régulée par le caractère contrôlé de la PRC. Alors que dans la seconde, la monoinsertion est régulée par deux protections : un comonomère non-homopolymérisable désactivant la fin de chaîne et le caractère contrôlé de la PRC. / In this work, chain-growth controlled radical polymerization techniques were used to develop new strategies to regulate polymer sequences. For that, two different approaches were studied. The first approach was developed by our team over past years and consists in adding reactive functional monomers at precise locations during a chain-growth polymerization. This method relies on the differences in reactivity between the functional monomer (acceptor N-substituted maleimides, in small quantity) and the comonomer (donor styrene, excess) which will form the backbone of the polymer chain. Deficient monomer was inserted rapidly in the chain backbone. By this way, multifonctionalized macromolecules were creating such as dendronized polymers or glycopolymers.The second approach consists in controlling monomer sequence by successive monoinsertions of comonomers. Successive and ordered monomer additions occur in starved conditions by use of non-homopolymerizable monomers. Two different concepts were studied. In the first, the monoinsertion is regulated only by the non-polymerizable nature of the monomer and CRP deactivation while, in the second, the monoinsertion is also regulated by the use of an additional comonomer that do not homopolymerize.
80

Contribution to the analysis of optical transmission systems using QPSK modulation / Contribution à l'étude des systèmes de transmission optique utilisant le format de modulation QPSK

Ramantanis, Petros 30 September 2011 (has links)
La demande constante de capacité et la saturation prévue de la fibre monomode ont conduit récemment à des avances technologiques qui ont complètement changé le paysage des télécommunications à fibre optique. Le progrès le plus important était la mise en œuvre d'une détection cohérente à l'aide d'électronique rapide. Cela a permis pas seulement l'utilisation de formats de modulation qui promettent une utilisation plus efficace de la bande passante, mais aussi l’utilisation des algorithmes adaptés pour combattre la dégradation du signal optique due à la propagation. Cette thèse a commencé un peu après le début de cette « ère du cohérent » et son principal objectif était de revoir les effets physiques de la propagation dans des systèmes de transmission terrestres, utilisant le format de modulation QPSK (Quadrature Phase Shift Keying). Le manuscrit est divisé en deux parties. La première partie est consacrée à une étude sur les séquences des données qui doivent être utilisés dans les simulations numériques, lorsqu’un format de modulation avancée est impliqué. La propagation, et en particulier l'interaction entre la dispersion chromatique et les non-linéarités, introduisent une interférence inter-symbole (ISI). Vu que cet ISI dépend de l’enchainement des données transmises, il est évident que le choix de la séquence a une influence sur la qualité estimée du canal. Etant donné que des séquences aléatoires infinies ne sont pas pratiquement réalisables, nous utilisons souvent des séquences « pseudo-aléatoires » (PR), i.e. des séquences déterministes de longueur finie, avec des statistiques équilibrés, qui semblent être aléatoires. Dans la première partie, nous décrivons la méthode de génération de séquences PR avec M. niveaux (M> 2) et nous détaillons leurs propriétés. En outre, nous proposons des outils numériques pour caractériser les séquences non pseudo-aléatoires qu’on utilise souvent dans des simulations, ou parfois aussi dans des expériences au laboratoire. Enfin, nous présentons les résultats de simulations qui permettent de quantifier la nécessité d'utiliser des séquences PR en fonction des paramètres du système. Après avoir établi les séquences finies "les plus adaptées", dans la seconde partie du manuscrit, nous nous concentrons sur l'étude de la propagation, dans le contexte d'un système de transmission QPSK et en supposant une gestion de dispersion et un type de fibre variables. Plus précisément, nous étudions numériquement les statistiques de signaux dégradés dus à l'interaction de la dispersion chromatique avec les effets non linéaires, en négligeant tout effet de polarisation ou inter-canaux, aussi que le bruit des amplificateurs. Dans ce contexte, nous étions intéressés à déterminer si certaines lois empiriques développées pour les systèmes OOK, sont valable dans le cas d'une modulation QPSK, tels que le critère de la phase non-linéaire cumulée (ΦNL) ou des lois qui permettent une optimisation de la gestion de dispersion. Ensuite, nous révélons l'importance de la rotation de la constellation du signal initial, comme un paramètre qui peut fournir des informations pour la post-optimisation de notre système. Nous discutons également autour du fait que la forme de la constellation dépend de la gestion de dispersion et concernant les constellations nous concluons qu'il y en a généralement 3 types, avec: (1) une variance de phase supérieure à la variance d'amplitude (2) une variance d'amplitude supérieure à la variance de phase et (3) avec le signal ayant une constellation qui ressemble à la constellation d’un signal sous l'influence d'un bruit blanc gaussien additif. Enfin, nous fournissons une explication phénoménologique des formes des constellations révélant le fait que des sous-séquences différentes conduisent à un « type » différent de dégradation et nous utilisons ces informations pour définir un paramètre qui quantifie le bénéfice potentiel d'un algorithme de correction du type MAP(Maximum A Posteriori Probability) / The constant demand for capacity increase, together with the foreseen saturation of the single-mode optical fiber, paved the way to technological breakthroughs that have completely changed the landscape of fiber-optic telecommunications. The most important advance was, undeniably, the practical implementation of a coherent detection with the help of high-speed electronics. This has, first, enabled the use of advanced modulation formats that allowed for a more efficient use of the fiber bandwidth, compared to the classical On-Off Keying, while adapted algorithms could not be used in order to mitigate the optical signal degradation. This thesis began a little after the advent of coherent detection and its main objective was to revisit the propagation effects in optical transmission systems using "Quadrature phase shift keying" (QPSK) modulation in the context of terrestrial systems, i.e. for transmission distances of up to about 2000 km. The manuscript is divided into two parts. The first part is dedicated to a study on the data sequences that need to be used in numerical simulations, when advanced modulation is involved. Fiber propagation, and in particular the interplay between chromatic dispersion and nonlinearities, usually introduce a nonlinear inter-symbol interference (ISI) to the transmitted signal. Since this ISI depends on the actual transmitted data pattern, it is obvious that the choice of the sequence used in our numerical simulations will have a direct influence on the estimated channel quality. Since, an infinite length, random sequence is impractical; we very commonly use pseudorandom" (PR) sequences, i.e. finite-length, deterministic sequences with balanced pattern statistics that seem to be random. In the first part we describe the method of generating M-level (with M>2) pseudorandom sequences and we detail their properties. In addition, we propose numerical tools to characterize the non-pseudorandom sequences that we use in numerical simulations, or we are sometimes forced to use in laboratory experiments. Finally, we present results of numerical simulations that quantify the necessity to use PR sequences as a function of our system parameters. After having established the “fairest possible” finite sequences, in the second part of the manuscript, we focus on the study of the nonlinear propagation, in the context of a transmission system using QPSK modulation and assuming a variable dispersion management and fiber type. Specifically, we numerically study the signal statistics due to the interplay of chromatic dispersion and nonlinear effects, neglecting all polarization or multi-wavelength effects and the amplifier noise. In this context, we were first interested in determining whether some empirical laws developed for OOK systems, can be also used in the case of QPSK modulation, such as the criterion of cumulative nonlinear phase (ΦNL) or laws that allow for a quick optimization of the dispersion management. Next we reveal the importance of a global phase rotation added to the initial signal constellation, as a parameter that can provide interesting information for the post-optimization of our system. We also discuss the fact that the constellation shape critically depends on the applied dispersion management, while there are generally 3 types of constellations, concerning the complex signal statistics: (1) the phase variance is higher than the amplitude variance (2) the amplitude variance is higher than the phase variance and (3) the received signal constellation resembles to a constellation of a signal under the influence of just an Additive White Gaussian Noise. Finally, we provide a phenomenological explanation of the constellations shapes revealing the fact that different data sub-sequences suffer from a different kind of signal degradation, while we also use this information to define a parameter that quantifies the potential benefit from a MAP (Maximum A Posteriori probability) correction algorithm

Page generated in 0.0424 seconds