• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 52
  • 7
  • 1
  • Tagged with
  • 158
  • 79
  • 18
  • 17
  • 16
  • 16
  • 16
  • 16
  • 16
  • 15
  • 15
  • 15
  • 14
  • 14
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Les textes de chansons : entre le langage et la musique : (sur l'exemple de la chanson d'auteur des années 1950-1980) / Song lyrics : where language meets music : (a study of the French chanson d’auteur, 1950s – 1980s)

Savtchenko, Mikhail 14 December 2015 (has links)
Le travail est consacré au texte de chanson en tant que phénomène. La chanson étant un genre synthétique, les modes de coopération entre ses deux principaux univers, le texte et la musique, sont étudiés, afin de voir quels effets de sens produit leur coexistence. Cela est réalisé sur l’exemple de la chanson française des années 1950-1980 : à l’intérieur de cette période, trois auteurs (Serge Gainsbourg, Boby Lapointe, Nino Ferrer) ont été choisis, dont la similitude des styles permet de les regrouper sous la même appellation de « chanson formaliste ». Ce type de chanson affiche un intérêt particulier pour les jeux linguistiques (calembours, allitérations) et autres procédés rhétoriques ou ludiques (pastiches, parodies) et met en œuvre une intertextualité riche. Ce caractère est souvent paradoxal, car la musique, qui dicte des contraintes comparables à l’état du vers français à l’époque métrique, gomme certains de ces effets formels, et le genre chanson en général tolère mal les jeux linguistiques complexes. Le statut problématique du texte de chanson est lié au fait que, techniquement, il ne diffère guère du poème et peut être mis dans le même contexte culturel (notamment en étant publié ou récité), alors que son mode de fonctionnement n’est pas le même. L’analyse des textes de la chanson formaliste révèle que si les procédés utilisés par Gainsbourg, Lapointe et Ferrer existent aussi dans la poésie, le texte de chanson possède des caractéristiques qui lui sont propres, notamment un rapport nécessaire avec les autres éléments de la chanson (la musique, la performance), ainsi que la linéarité temporelle. / The thesis studies song lyrics as a concept. As the song is a synthetic genre, the modes of interaction between its two main domains, words and music, are studied, along with the effects of their coexistence. The example used it that of the French chanson of the 1950s – 1980s. Within this period, the study focuses on three authors (Serge Gainsbourg, Boby Lapointe, Nino Ferrer), whose songs, on account of their stylistic similarities, can be considered examples of the “formalist chanson”. This type of chanson prefers linguistic play (puns, alliteration) and other rhetorical or play-oriented devices (pastiche, parody), and makes heavy use of intertextuality. This is often a paradox, as music, as it entails constraints comparable to those of metric poetry, often minimizes formal effect; indeed, the genre of chanson in general is ill-suited to complex wordplay. The song lyric is problematic because whereas it is technically identical to the poem, and can also be put in the same cultural context (in particular, by being published or read aloud), the principles of its functioning are not the same. The analysis of “formalist chanson” lyrics reveals that while the devices used by Gainsbourg, Ferrer and Lapointe can also be found in poetry, the song lyric nonetheless possesses distinguishing features: in particular its dependency on the other elements of the song (music and performance), but also its temporal linearity.
12

Évaluation adaptative des systèmes de transcription en contexte applicatif / Evaluation of automatic speech recognition systems according to the applicatives cases

Ben Jannet, Mohamed Amer 14 October 2015 (has links)
Il est important d'évaluer régulièrement les produits de l'innovation technologique afin d'estimer le niveau de maturité atteint par les technologies et d'étudier les cadres applicatifs dans lesquels elles pourront être exploitées. Le traitement automatique des langues (TAL) relève à la fois de la recherche et de l'innovation technologique et a pour but la modélisation et le développement d'outils permettant de traiter automatiquement le langage naturel. Pendant longtemps, les différentes briques technologiques issues du TAL étaient développées séparément. Par conséquent, les méthodes d'évaluation existantes sont dans la plupart modulaires et ne permettent d'évaluer qu'un seul module à la fois, alors qu'aujourd'hui nombreuses applications nécessitent de combiner plusieurs modules de TAL pour résoudre des tâches complexes. Le nouveau défi en terme d'évaluation est alors de pouvoir évaluer les différents modules (ou briques) tout en prenant en compte le contexte applicatif.Notre travail porte sur l'évaluation des systèmes de reconnaissance automatique de la parole (RAP) en contexte applicatif, en particulier, celui de la reconnaissance d'entités nommées (REN).En première partie, nous abordons la problématique de l'évaluation des systèmes de RAP en contexte applicatif à travers une étude de l'état de l'art. Nous y décrivons les tâche de RAP et de REN proposées dans les campagnes d'évaluation ainsi que les protocoles mis en place pour leurs évaluation. Nous y discutons également les limites des approches d'évaluations modulaires et nous y exposons les mesures alternatives proposées dans la littératures. En deuxième partie, nous décrivons la tâche de détection, classification et décomposition d'entités nommées étudiée et nous proposons une nouvelle métriques ETER (Entity Tree Error Rate) permettant de prendre en compte les spécificité de cette tâche et le contexte applicatif lors de l'évaluation. ETER permet également de supprimer les biais observés avec les métriques existantes. En troisième partie, nous définissons une nouvelle mesure ATENE (Automatic Transcriptions Evaluation for Named Entities) qui permet d'évaluer la qualité des systèmes de RAP et l'impact de leurs erreurs pour des systèmes de REN appliqués en aval. ATENE consiste à comparer les probabilités de présence d'entités sur les transcriptions de référence et d'hypothèse plutôt qu'une comparaison directe des graphèmes. Elle est composée de deux mesures élémentaires. Une première permettant l'évaluation de risque d'erreur d'omission et de substitution d'entités et une seconde permettant d'évaluer le risque d'erreur d'insertion d'entités causé par les erreurs de RAP.Nos expériences de validation montrent que les mesures données par ATENE corrèlent mieux que les autres mesures de l'état de l'art avec les performances des systèmes de REN. / It is important to regularly assess the technological innovation products in order to estimate the level of maturity reached by the technology and study the applications frameworks in which they can be used. Natural language processing (NLP) aims at developing modules and applications that automatically process the human language. That makes the field relevant to beth research and technological innovation. For years, the different technological modules from the NLP were developed separately. Therefore, the existing evaluation methods are in most modular. They allow to evaluate only one module at a time, while today, many applications need to combine several NLP modules to solve complex tasks. The new challenge in terms of evaluation is then to evaluate the different modules while taking into account the applicative context.Our work addresses the evaluation of Automatic Speech Recognition (ASR) systems according to the applicative context. We will focus on the case of Named Entities Recognition (NER) from spoken documents transcriped automatically. In the first part, we address the issue of evaluating ASR systems according to the application context through a study of the state of the art. We describes the tasks of ASR and NER proposed during several evalution campaigns and we discuss the protocols established for their evaluation. We also point the limitations of modular evaluation approaches and we expose the alternatives measures proposed in the literature. In the second part we describe the studied task of named entities detection, classification and decomposition and we propose a new metric ETER (Entity Tree Error Rate) which allows to take into account the specificity of the task and the applicative context during the evaluation. ETER also eliminates the biases observed with the existing metrics. In the third part, we define a new measure ATENE (Automatic Transcriptions Evaluation for Named Entities) that evaluates the quality of ASR systems and the impact of their errors for REN systems applied downstream. Rather than directly comparing reference and hypothesis transcriptions, ATENE measure how harder it becames to identify entities given the differences between hypothesis and reference by comparing an estimated likelihood of presence of entities. It is composed of two elementary measurements. The first aims to assess the risk of entities deletions and substitutions and the second aims to assess the risk of entities insertions caused by ASR errors.Our validation experiments show that the measurements given by ATENE correlate better than other measures from the state of the art with the performance of REN systems.
13

Sélection d'oligonucléotides pour la fabrication de biopuces d'ADN

Dallaire, Paul January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Géométrie systolique extrémale sur les surfaces / Extremal systolic geometry on surfaces

Yassine, Zeina 16 June 2016 (has links)
En 1949, C. Loewner a demontré dans un travail non publié l'inégalité systolique optimale du tore T reliant l'aire au carré de la systole. Par la systole on désigne la longueur du plus court lacet non contractile de T. De plus, l' égalité est atteinte si et seulement si le tore est plat hexagonal. Ce résultat a donné naissance à la géométrie systolique. Dans cette thèse, nous étudions des inégalités de type systolique portant sur les longueurs minimales de différentes courbes et pas seulement la systole.Dans un premier temps, nous démontrons trois inégalités géométriques optimales conformes sur la bouteille de Klein reliant l'aire au produit des longueurs des plus courts lacets noncontractiles dans des classes d'homotopie libres différentes. Pour chaque classe conforme, nous décrivons la métrique extrémale réalisant le cas d'égalité.Nous établissons ensuite des inégalités géométriques optimales sur le ruban deMobius muni d'une métrique de Finsler. Ces inégalités géométriques relient la systole et la hauteur du ruban de Mobius à son volume de Holmes-Thompson. Nous en déduisons une inégalité systolique optimale sur la bouteille de Klein munie d'une métrique de Finsler avec des symétries. Nous décrivons également une famille de métriques extrémales dans les deux cas.Dans le troisième travail, nous démontrons une inégalité systolique critique sur la surface de genre deux. Plus précisément, il est connu que la surface de genre deux admet une métrique Riemannienne plate à singularités coniques qui est extrémale parmi les métriques à courbure nonpositive pour l' inégalité systolique. Nous montrons que cette métrique est en fait critique pour des variations lentes de métriques, cette fois-ci sans hypothèse de courbure, pour un autre problème systolique portant sur les longueurs des plus courts lacets non contractiles dans certaines classes d'homotopie libres données. Ces classes d'homotopie correspondent aux lacets systoliques et deux-systoliques de la surface extrémale / In 1949, C. Loewner proved in an unpublished work that the two-torus T satisfies an optimal systolic inequality relating the area of the torus to the square of its systole. By a systole here we mean the smallest length of a noncontractible loop in T. Furthermore, the equality is attained if and only if the torus is flat hexagonal. This result led to whatwas called later systolic geometry. In this thesis, we study several systolic-like inequalities. These inequalities involve the minimal length of various curves and not merely the systole.First we obtain three optimal conformal geometric inequalities on Riemannian Klein bottles relating the area to the product of the lengths of the shortest noncontractible loops in different free homotopy classes. We describe the extremal metrics in each conformal class.Then we prove optimal systolic inequalities on Finsler Mobius bands relating the systoleand the height of the Mobius band to its Holmes-Thompson volume. We also establish an optimalsystolic inequality for Finsler Klein bottles with symmetries. We describe extremal metric families in both cases.Finally, we prove a critical systolic inequality on genus two surface. More precisely, it is known that the genus two surface admits a piecewise flat metric with conical singularities which is extremal for the systolic inequality among all nonpositively curved Riemannian metrics. We show that this piecewise flat metric is also critical for slow metric variations, this time without curvature restrictions, for another type of systolic inequality involving the lengths of the shortest noncontractible loops in different free homotopy classes. The free homotopy classes considered correspond to those of the systolic loops and the second-systolic loops of the extremal surface
15

Équations des ondes avec des perturbations dépendantes du temps

Kian, Yavar 23 November 2010 (has links) (PDF)
On étudie l'équation des ondes $\partial_t^2 u-\Div_x(a(t,x)\nabla_xu)=0$ avec une métrique scalaire $a(t,x)$ périodique en temps et égale à $1$ en dehors d'un ensemble compact par rapport à $x$. Notre objectif est d'estimer les solutions de cette équation ayant des données initiales dans l'espace énergétique $\dot{H}^1({\R}^n)\times L^2({\R}^n)$. Plus précisément, nous établirons des estimations de Strichartz globales ainsi que la décroissance de l'énergie locale sous certaines hypothèses. Nous distinguerons le cas des dimensions impaires de celui des dimensions paires. Notons $n$ la dimension de l'espace. Dans la première partie de notre recherche, nous traitons le cas des dimensions $n\geq3$ impaires. Pour cela on suppose que $a(t,x)$ est non captif et que les résonances $z\in\mathbb{C}$ sont contenue dans le disque unité ouvert. Sous cette hypothèse on démontre la décroissance exponentielle de l'énergie locale et on en déduit l'intégrabilité $L^2$ en temps de l'énergie locale. Ensuite, on établit des estimations de Strichartz locales pour les solutions de $\partial_t^2 u-\Div_x(a(t,x)\nabla_xu)=0$. En combinant ces deux arguments, on établit des estimations de Strichartz globales en considérant les solutions tronquées en temps. Dans la deuxième partie de notre recherche, nous traitons le cas des dimensions $n\geq4$ paires. Considérons la résolvante tronquée $R_\chi(\theta)=\chi(\mathcal U(T)-e^{-i\theta})^{-1}\chi$ , où $\chi\in{\CI}$, $T$ est la période de $a(t,x)$ et $\mathcal U(T)$ est le propagateur associé à l'équation au temps $T$. Nous supposons que $a(t,x)$ est non captif et que la résolvante tronquée $R_\chi(\theta)$ admet un prolongement holomorphe sur $\{\theta\in\mathbb{C}\ :\ \textrm{Im}(\theta) \geq 0\}$, pour $n \geq 3$, impair, et sur $\{ \theta\in\mathbb C\ :\ Im(\theta)\geq0,\ \theta\neq 2k\pi-i\mu,\ k\in\mathbb{Z},\ \mu\geq0\}$ pour $n \geq4$, pair. De plus, pour $n \geq4$ pair, on suppose que $R_\chi(\theta)$ est bornée au voisinage de $\theta=0$. Sous cette hypothèse on démontre la décroissance de l'énergie locale. En combinant cet argument avec les résultats de la première partie, on obtient des estimations de Strichartz globales pour les dimensions $n\geq3$ quelconques.
16

Determination of software quality through a generic model

Mehio, Nouha January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
17

Gestion des connaissances et externalisation informatique. Apports managériaux et techniques pour l'amélioration du processus de transition : Cas de l’externalisation informatique dans un EPST / Knowledge Management and IT Outsourcing. Managerial and technical inputs to improve the transition process

Grim-Yefsah, Malika 23 November 2012 (has links)
Le travail de recherche de cette thèse traite de la problématique de transfert de connaissances lors du processus de transition d’un projet informatique externalisé dans un EPST. En particulier, Comment transférer les connaissances, constituées des expériences-succès ou échecs passés, routines, assimilées et cumulées pendant la durée d’un projet externalisé par les membres d’une équipe sortante vers une nouvelle équipe entrante d’une manière efficiente ? Nous nous focalisons sur ce processus de transition en raison de son importance pour le succès de l’externalisation informatique, de sa complexité, de sa richesse théorique et le manque d’études dans ce domaine. Nous avons choisi d’approcher cette problématique par le biais de la gestion des connaissances. Dans un premier volet de cette thèse, nous nous sommes appuyées sur le paradigme Goal-Question-Metric proposant une démarche de définition de la qualité pour progresser de notre besoin opérationnel jusqu’à la définition des métriques d’évaluation de la robustesse utilisant des informations issues de l’analyse de réseaux informels sous-jacents aux activités effectuées dans le processus métier. Ces métriques permettent d’évaluer une partie de la qualité d’un processus métier en tenant compte de la connaissance tacite des acteurs du processus de transition. Dans un second volet de cette recherche, nous avons développés une méthode, en nous appuyant sur l’approche de capitalisation sur les connaissances et des mécanismes théoriques de transfert de connaissances, et un outil informatique pour mettre en œuvre ce processus de transfert de connaissances / The research of this thesis deals with the issue of knowledge transfer during the transition process of an IT project outsourced in EPST. In particular, How to transfer knowledge, experience and routines related to outsourced activities from outgoing team to a new incoming team? We focus on the transition due to its significance for outsourcing success, its complexity and theoretical richness, and its limited current understanding. We chose to approach this problem through knowledge management. In the first part of this thesis, based on the Goal-Question-Metric paradigm, we propose an approach for the definition of quality metrics covering the given operational requirements. The metrics we define take tacit knowledge into account, using information from the structural analysis of an informal network. In a second phase of this research, we developed a method, relying on capitalization on knowledge and theoretical mechanisms of knowledge transfer, and a tool to implement this process of knowledge transfer
18

Decoding of block and convolutional codes in rank metric / Décodage des codes en bloc et des codes convolutifs en métrique rang

Wachter-Zeh, Antonia 04 October 2013 (has links)
Les code en métrique rang attirent l’attention depuis quelques années en raison de leur application possible au codage réseau linéaire aléatoire (random linear network coding), à la cryptographie à clé publique, au codage espace-temps et aux systèmes de stockage distribué. Une construction de codes algébriques en métrique rang de cardinalité optimale a été introduite par Delsarte, Gabidulin et Roth il y a quelques décennies. Ces codes sont considérés comme l’équivalent des codes de Reed – Solomon et ils sont basés sur l’évaluation de polynômes linéarisés. Ils sont maintenant appelés les codes de Gabidulin. Cette thèse traite des codes en bloc et des codes convolutifs en métrique rang avec l’objectif de développer et d’étudier des algorithmes de décodage efficaces pour ces deux classes de codes. Après une introduction dans le chapitre 1, le chapitre 2 fournit une introduction rapide aux codes en métrique rang et leurs propriétés. Dans le chapitre 3, on considère des approches efficaces pour décoder les codes de Gabidulin. Lapremière partie de ce chapitre traite des algorithmes rapides pour les opérations sur les polynômes linéarisés. La deuxième partie de ce chapitre résume tout d’abord les techniques connues pour le décodage jusqu’à la moitié de la distance rang minimale (bounded minimum distance decoding) des codes de Gabidulin, qui sont basées sur les syndromes et sur la résolution d’une équation clé. Ensuite, nous présentons et nous prouvons un nouvel algorithme efficace pour le décodage jusqu’à la moitié de la distance minimale des codes de Gabidulin. Le chapitre 4 est consacré aux codes de Gabidulin entrelacés et à leur décodage au-delà de la moitié de la distance rang minimale. Dans ce chapitre, nous décrivons d’abord les deux approches connues pour le décodage unique et nous tirons une relation entre eux et leurs probabilités de défaillance. Ensuite, nous présentons un nouvel algorithme de décodage des codes de Gabidulin entrelacés basé sur l’interpolation des polynômes linéarisés. Nous prouvons la justesse de ses deux étapes principales — l’interpolation et la recherche des racines — et montrons que chacune d’elles peut être effectuée en résolvant un système d’équations linéaires. Jusqu’à présent, aucun algorithme de décodage en liste en temps polynomial pour les codes de Gabidulin n’est connu et en fait il n’est même pas clair que cela soit possible. Cela nous a motivé à étudier, dans le chapitre 5, les possibilités du décodage en liste en temps polynomial des codes en métrique rang. Cette analyse est effectuée par le calcul de bornes sur la taille de la liste des codes en métriques rang en général et des codes de Gabidulin en particulier. Étonnamment, les trois nouvelles bornes révèlent toutes un comportement des codes en métrique rang qui est complètement différent de celui des codes en métrique de Hamming. Enfin, dans le chapitre 6, on introduit des codes convolutifs en métrique rang. Ce qui nous motive à considérer ces codes est le codage réseau linéaire aléatoire multi-shot, où le réseau inconnu varie avec le temps et est utilisé plusieurs fois. Les codes convolutifs créent des dépendances entre les utilisations différentes du réseau aun de se adapter aux canaux difficiles. Basé sur des codes en bloc en métrique rang (en particulier les codes de Gabidulin), nous donnons deux constructions explicites des codes convolutifs en métrique rang. Les codes en bloc sous-jacents nous permettent de développer un algorithme de décodage des erreurs et des effacements efficace pour la deuxième construction, qui garantit de corriger toutes les séquences d’erreurs de poids rang jusqu’à la moitié de la distance rang active des lignes. Un résumé et un aperçu des problèmes futurs de recherche sont donnés à la fin de chaque chapitre. Finalement, le chapitre 7 conclut cette thèse. / Rank-metric codes recently attract a lot of attention due to their possible application to network coding, cryptography, space-time coding and distributed storage. An optimal-cardinality algebraic code construction in rank metric was introduced some decades ago by Delsarte, Gabidulin and Roth. This Reed–Solomon-like code class is based on the evaluation of linearized polynomials and is nowadays called Gabidulin codes. This dissertation considers block and convolutional codes in rank metric with the objective of designing and investigating efficient decoding algorithms for both code classes. After giving a brief introduction to codes in rank metric and their properties, we first derive sub-quadratic-time algorithms for operations with linearized polynomials and state a new bounded minimum distance decoding algorithm for Gabidulin codes. This algorithm directly outputs the linearized evaluation polynomial of the estimated codeword by means of the (fast) linearized Euclidean algorithm. Second, we present a new interpolation-based algorithm for unique and (not necessarily polynomial-time) list decoding of interleaved Gabidulin codes. This algorithm decodes most error patterns of rank greater than half the minimum rank distance by efficiently solving two linear systems of equations. As a third topic, we investigate the possibilities of polynomial-time list decoding of rank-metric codes in general and Gabidulin codes in particular. For this purpose, we derive three bounds on the list size. These bounds show that the behavior of the list size for both, Gabidulin and rank-metric block codes in general, is significantly different from the behavior of Reed–Solomon codes and block codes in Hamming metric, respectively. The bounds imply, amongst others, that there exists no polynomial upper bound on the list size in rank metric as the Johnson bound in Hamming metric, which depends only on the length and the minimum rank distance of the code. Finally, we introduce a special class of convolutional codes in rank metric and propose an efficient decoding algorithm for these codes. These convolutional codes are (partial) unit memory codes, built upon rank-metric block codes. This structure is crucial in the decoding process since we exploit the efficient decoders of the underlying block codes in order to decode the convolutional code.
19

Gestion de la mobilité dans les réseaux Ad Hoc par anticipation des métriques de routage / Mobility management in ad hoc networks by anticipation of routing metrics

Naimi, Sabrine 22 July 2015 (has links)
Avec le succès des communications sans fil, il devient possible d'accéder au réseau partout et à tout moment sans avoir recours à connecter physiquement les appareils communicants à une infrastructure. Les nœuds (ordinateurs portables, smartphones, etc) peuvent analyser les différents canaux radio afin de pouvoir s'associer à un réseau sans fil disponible (station de base, point d'accès, etc.). Un avantage indéniable de ses technologies sans fil est la possibilité d'être mobile tout en restant connecté. Cependant, la mobilité est une tâche difficile à gérer car elle doit être abordée à différentes couches pour être transparente aux utilisateurs. Dans les MANET (Mobile Ad hoc Network), les protocoles de routage utilisent des métriques pour sélectionner les meilleures routes. Les métriques peuvent refléter la qualité de la liaison sans fil et aider à gérer la mobilité.Mais, un retard important entre l'estimation des métriques et leur inclusion dans le processus de routage rend cette approche inefficace.Les travaux de cette thèse s'intéressent à la proposition de nouvelles méthodes de calcul des métriques de routage pour gérer le problème de la mobilité dans les réseaux ad hoc. Les nouvelles métriques doivent refléter la qualité du lien et être sensibles à la mobilité en même temps. Nous considérons les métriques classiques, en particulier ETX (Expected Transmission Count) et ETT (Expected Transmission Time). Nous introduisons de nouvelles méthodes pour anticiper les valeurs de ces métriques en utilisant des algorithmes de prédiction. Nous utilisons une approche Cross layer, qui permet l'utilisation conjointe de l'information à partir des couches 1, 2 et 3. La validation de nouvelles méthodes de calcul des métriques de routage nécessite une évaluation au travers d'un véritable banc d'essai. Nous avons donc également mis en œuvre les nouvelles métriques de routage dans un testbed afin d'évaluer et de comparer leurs performances avec les métriques classiques. / With the success of wireless communications, it becomes possible to access the network anywhere at any time without the need for physically connect communicating devices in an infrastructure. The nodes (laptops, smartphones, etc.) can analyze different radio channels to be able to associate with an available wireless network (base station, access point, etc.). An undeniable advantage of wireless technologies is the ability to be mobile while staying connected. However, mobility is difficult to manage because it must be addressed at different layers to be transparent to users. In MANET (Mobile Ad hoc Network) routing protocols use metrics to select the best routes. The metric can reflect the quality of the wireless link and help manage mobility.But a significant delay between the estimate metrics and their inclusion in the routing process makes this approach ineffective.The work of this thesis are interested in proposing new methods for calculating routing metrics to manage the problem of mobility in ad hoc networks. The new metrics should reflect the quality of the link and be sensitive to the mobility simultaneously. We consider the classical metrics, particularly ETX (Expected Transmission Count) and ETT (Expected Transmission Time). We introduce new methods to predict the values of these metrics using prediction algorithms.We use a cross layer approach, which allows the joint use of information from layers 1, 2 and 3. The validation of new methods for calculating routing metrics requires evaluation through a real bench test. So we also implemented new routing metrics in a testbed to assess and compare their performance with classical metrics.
20

Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZ

Fayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.

Page generated in 0.6187 seconds