• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 14
  • 3
  • 3
  • 1
  • Tagged with
  • 53
  • 12
  • 11
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Software Datapaths for Multi-Tenant Packet Processing / Plans de données logiciels pour les traitements réseaux en environnements partagés

Chaignon, Paul 07 May 2019 (has links)
En environnement multi-tenant, les réseaux s'appuient sur un ensemble de ressources matérielles partagées pour permettre à des applications isolés de communiquer avec leurs clients. Cette isolation est garantie par un ensemble de mécanismes à la bordure des réseaux: les mêmes serveurs hébergeant les machines virtuelles doivent notamment déterminer le destinataire approprié pour chaque paquet réseau, copier ces derniers entre zones mémoires isolées et supporter les tunnels permettant l'isolation du trafic lors de son transit sur le coeur de réseau. Ces différentes tâches doivent être accomplies avec aussi peu de ressources matérielles que possible, ces dernières étant tout d'abord destinées aux machines virtuelles. Dans un contexte d'intensification de la demande en haute performance sur les réseaux, les acteurs de l'informatique en nuage ont souvent recours à des équipements matériels spécialisés mais inflexibles, leur permettant d'atteindre les performances requises. Néanmoins, dans cette thèse, nous défendons la possibilité d'améliorer les performances significativement sans avoir recours à de tels équipements. Nous prônons, d'une part, une consolidation des fonctions réseaux au niveau de la couche de virtualisation et, d'autre part, une relocalisation de certaines fonctions réseaux hors des machines virtuelles. À cette fin, nous proposons Oko, un commutateur logiciel extensible qui facilite la consolidation des fonctions réseaux dans la couche de virtualisation. Oko étend les mécanismes de l'état de l'art permettant une mise en cache des règles de commutateurs, ceci afin de permettre une exécution des fonctions réseaux sous forme d'extensions au commutateur. De plus, les extensions sont isolées du coeur du commutateur afin d'empêcher des fautes dans les extensions d'impacter le reste du réseau et de faciliter une mise en place rapide et sûre de nouvelles fonctions réseaux. En permettant aux fonctions réseaux de s'exécuter au sein du commutateur logiciel, sans redirections vers des processus distincts, Oko diminue de moitié le coût lié à l'exécution des fonctions réseaux en moyenne. Notre seconde contribution vise à permettre une exécution de certaines fonctions réseaux en amont des machines virtuelles, au sein de la couche de virtualisation. L'exécution de ces fonctions réseaux hors des machines virtuelles permet d'importants gains de performance, mais lèvent des problématiques d'isolation. Nous réutilisons et améliorons la technique utilisé dans Oko pour isoler les fonctions réseaux et l'étendons avec un mécanisme de partage équitable du temps CPU entre les différentes fonctions réseaux relocalisées. / Multi-tenant networks enable applications from multiple, isolated tenants to communicate over a shared set of underlying hardware resources. The isolation provided by these networks is enforced at the edge: end hosts demultiplex packets to the appropriate virtual machine, copy data across memory isolation boundaries, and encapsulate packets in tunnels to isolate traffic over the datacenter's physical network. Over the last few years, the growing demand for high performance network interfaces has pressured cloud providers to build more efficient multi-tenant networks. While many turn to specialized, hard-to-upgrade hardware devices to achieve high performance, in this thesis, we argue that significant performance improvements are attainable in end-host multi-tenant networks, using commodity hardware. We advocate for a consolidation of network functions on the host and an offload of specific tenant network functions to the host. To that end, we design Oko, an extensible software switch that eases the consolidation of network functions. Oko includes an extended flow caching algorithm to support its runtime extension with limited overhead. Extensions are isolated from the software switch to prevent failures on the path of packets. By avoiding costly redirections to separate processes and virtual machines, Oko halves the running cost of network functions on average. We then design a framework to enable tenants to offload network functions to the host. Executing tenant network functions on the host promises large performance improvements, but raises evident isolation concerns. We extend the technique used in Oko to provide memory isolation and devise a mechanism to fairly share the CPU among offloaded network functions with limited interruptions.
22

Inférence de congestion et Ingénierie de Trafic dans les Réseaux

Arya, Vijay 05 July 2005 (has links) (PDF)
Résumé non disponible en français
23

Analyse en Ondelettes et par Paquets d'Ondelettes de Processus Aléatoires Stationnaires, et Application à l'Estimation Non-Paramétrique

Abdourrahmane, Atto 30 September 2008 (has links) (PDF)
Les transformées en ondelettes et par paquets d'ondelettes se sont largement imposées dans l'analyse et la résolution de problèmes liés aux sciences et techniques de l'ingénierie. Cet essor est dû principalement à deux propriétés spécifiques qui résultent des décompositions sur les bases d'ondelettes : la parcimonie de représentation pour les signaux réguliers et réguliers par morceaux; la tendance à transformer un processus aléatoire stationnaire en séquences de processus Gaussiens décorrélés. Ces deux propriétés sont observées expérimentalement et justifient de nombreux traitements effectués sur les coefficients obtenus par projection sur les bases d'ondelettes. Cependant, les résultats théoriques précisant la corrélation et la distribution asymptotiques des coefficients de paquets d'ondelettes sont de natures significativement différentes. La première partie de cette thèse propose une analyse de ces résultats théoriques, met en lumière la complexité du problème posé, et montre les résultats qu'on l'on peut obtenir à partir des critères de convergence. Les problèmes traités concernent à la fois les fonctions d'autocorrélation et les distributions asymptotiques des coefficients de paquets d'ondelettes de processus stationnaires. Les résultats annoncés conduisent à des schémas plus réalistes qui sont, de surcroît, soutenus par des résultats expérimentaux. La seconde partie de cette thèse analyse les propriétés de parcimonie des transformées à base d'ondelettes et propose l'utilisation de seuils associés à une mesure de parcimonie. Ces seuils établissent un lien entre la détection à l'estimation non-paramétrique, lien que nous résumons par la formule ``bien détecter pour mieux estimer''. Ces seuils unifient les seuils minimax et universels, qui correspondent ainsi à des seuils de détection associés à des degrés différents de parcimonie. D'autre part, cette thèse unifie également les fonctions de seuillage de base (seuillage dur et doux) de l'estimation non-paramétrique par l'introduction d'une famille de fonctions à atténuation de type sigmoïdale : les fonctions SSBS. Les fonctions de seuillage dur et doux sont alors des fonctions SSBS dégénérées, les fonctions SSBS non-dégénérées étant des fonctions régulières et à degré d'atténuation flexible. Les performances de l'estimation non-paramétrique utilisant les seuils de détection et les fonctions SSBS sont également analysées, tant du point de vue de l'erreur quadratique moyenne que de celui de la qualité visuelle en débruitage d'images.
24

Tatouage d'images numériques par paquets d'ondelettes

Manoury, Anne 21 December 2001 (has links) (PDF)
Avec l'apparition et le développement des nouvelles technologies numériques, les fraudes se sont multipliées, soulignant le manque de méthodes concernant la protection des données numériques. Ces données sont en effet très faciles à pirater : on peut les stocker, les copier, les modifier et enfin les diffuser illégalement sans qu'elles perdent de leur qualité et sans prise en compte des droits d'auteurs. Pour répondre à ces besoins, un nouvel axe de recherche se développe très rapidement : le tatouage. Le principe des techniques dites de tatouage est d'insérer une marque imperceptible dans les valeurs de la donnée. Dans le cadre de la protection des droits d'auteurs, la marque insérée, appelée watermarque correspond au code du copyright. Ce type de tatouage doit répondre à des contraintes fortes en termes de robustesse. En effet, quelles que soient les transformations (licites ou illicites) que la donnée tatouée subie, la marque doit rester présente tant que la donnée reste exploitable. De plus, la présence de la marque ne doit être détectée que par des personnes autorisées (possédant une clef de détection privée). De nombreux algorithmes ont étés présentés récemment et certains produits sont même commercialisés, cependant, aucun d'eux ne satisfait pleinement au cahier des charges idéal. Le travail présenté dans ce rapport a pour objectif de proposer une nouvelle méthode de tatouage des images digitales en vue de la protection du copyright. Dans un premier temps, nous présenterons les propriétés générales du processus de tatouage ainsi qu'un aperçu des méthodes utilisées actuellement. Puis nous présenterons la décomposition en paquets d'ondelettes d'un signal ainsi que la sélection de meilleures bases. Ces outils, très utilisés en traitement des images et du signal pour des applications variées tels que la compression, le débruitage , la classification ou la détection de rupture nous permettrons de définir le domaine sur lequel nous insérons la watermarque. Après avoir explicité l'algorithme de tatouage, nous donnerons diverses améliorations à cette méthode. Puis nous l'analyserons de façon conceptuelle.
25

Approximation de Born-Oppenheimer en présence de (presque) croisement de surfaces d'énergie

ROUSSE, Vidian 24 June 2004 (has links) (PDF)
L'approximation de Born-Oppenheimer consiste à traiter de manière semi-classique l'équation de Schrödinger associée à une molécule en utilisant la petitesse du rapport de masse entre électrons et noyaux. Nous montrons que pour un type générique de presque croisement de codimension 1 de deux surfaces d'énergie électroniques, la propagation d'un paquet d'ondes nucléaire gaussien associé à l'une des surfaces est gouvernée par une formule du type Landau-Zener. Par ailleurs, dans le cadre de l'équation de Schrödinger stationnaire unidimensionnelle et en situation de croisement générique de deux courbes d'énergie, nous construisons des quasimodes par intégration d'un paquet d'ondes gaussien propagé le long d'une trajectoire classique périodique associée à l'une des deux courbes d'énergie.
26

Estimation non linéaire par ondelettes : régression et survie

Bouatou, Mohamed 28 March 1997 (has links) (PDF)
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
27

Transmission d'images et de vidéos sur réseaux à pertes de paquets : mécanismes de protection et optimisation de la qualité perçue

Boulos, Fadi 12 February 2010 (has links) (PDF)
Le trafic multimédia sur IP connaît une forte croissance ces dernières années grâce à l'émer- gence de services comme la TV sur IP ou la vidéo à la demande (Video on Demand). Cependant, la Qualité d'Usage (QdU) associée à ce type de trafic n'est pas garantie, principalement à cause de la fluctuation de la Qualité de Service (QdS). Pour assurer un service de qualité acceptable, il est possible d'améliorer les paramètres de QdS ou même d'améliorer directement la QdU. Dans cette thèse, nous nous intéressons à l'étude de l'impact perceptuel de la variation de la QdU et à son amélioration. Nous proposons tout d'abord d'utiliser la transformation Mojette, une transformation de Radon discrète exacte, comme opérateur de network coding. Cette technique vise l'amélioration de la QdS en optimisant l'utilisation de la bande passante disponible. Nous proposons également une méthode de protection inégale perceptuelle de flux hiérarchiques par transformation Mojette. Ensuite, nous étudions les effets perceptuels des pertes de paquets sur des vidéos codées en H.264/AVC au travers de tests subjectifs d'évaluation de qualité. Ces tests mènent à l'identification de l'importance de la position spatiale de la perte dans l'image. Nous conduisons alors des expérimentations oculométriques pour identifier les régions d'intérêt de la vidéo. Partant d'une hiérarchie de la source guidée par ces régions d'intérêt, nous proposons des méthodes de protection perceptuelles inégales. Ces techniques de codage robuste, mettant en œuvre l'outil Flexible Macroblock Ordering (FMO) de H.264/AVC, sont fondées sur l'arrêt de la propagation spatio-temporelle des dégradations. L'évaluation de performances montre que les méthodes proposées sont efficaces contre les pertes de paquets ayant lieu dans les régions d'intérêt de la vidéo.
28

Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abast

Careglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
29

Étude et expérimentation des mécanismes de synchronisation du travail collaboratif sur réseaux de postes de travail /

Léonard, Pierre, January 1900 (has links)
Th. doct.--Informatique--Versailles-Saint-Quentin-en-Yvelines, 1997. / Bibliogr. p. 138-144. Résumé en français et en anglais. 1997 d'après la déclaration de dépôt légal.
30

Reliability in wireless sensor networks / Fiabilisation des transmissions dans les réseaux de capteurs sans fils

Maalel, Nourhene 30 June 2014 (has links)
Vu les perspectives qu'ils offrent, les réseaux de capteur sans fil (RCSF) ont perçu un grand engouement de la part de la communauté de recherche ces dernières années. Les RCSF couvrent une large gamme d'applications variant du contrôle d'environnement, le pistage de cible aux applications de santé. Les RCSFs sont souvent déployés aléatoirement. Ce dispersement des capteurs nécessite que les protocoles de transmission utilisés soient résistants aux conditions environnementales (fortes chaleurs ou pluies par exemple) et aux limitations de ressources des nœuds capteurs. En effet, la perte de plusieurs nœuds capteurs peut engendrer la perte de communication entre les différentes entités. Ces limitations peuvent causer la perte des paquets transmis ce qui entrave l'activité du réseau. Par conséquent, il est important d'assurer la fiabilité des transmissions de données dans les RCSF d'autant plus pour les applications critiques comme la détection d'incendies. Dans cette thèse, nous proposons une solution complète de transmission de données dans les RCSF répondant aux exigences et contraintes de ce type de réseau. Dans un premier temps, nous étudions les contraintes et les challenges liés à la fiabilisation des transmissions dans les RCSFs et nous examinons les travaux proposés dans la littérature. Suite à cette étude nous proposons COMN2, une approche distribuée et scalable permettant de faire face à la défaillance des nœuds. Ensuite, nous proposons un mécanisme de contrôle d'erreur minimisant la perte de paquets et proposant un routage adaptatif en fonction de la qualité du lien. Cette solution est basée sur des acquittements implicites (overhearing) pour la détection des pertes des paquets. Nous proposons ensuite ARRP une variante de AJIA combinant les avantages des retransmissions, de la collaboration des nœuds et des FEC. Enfin, nous simulons ces différentes solutions et vérifions leurs performances par rapport à leurs concurrents de l'état de l'art. / Over the past decades, we have witnessed a proliferation of potential application domainsfor wireless sensor networks (WSN). A comprehensive number of new services such asenvironment monitoring, target tracking, military surveillance and healthcare applicationshave arisen. These networked sensors are usually deployed randomly and left unattendedto perform their mission properly and efficiently. Meanwhile, sensors have to operate ina constrained environment with functional and operational challenges mainly related toresource limitations (energy supply, scarce computational abilities...) and to the noisyreal world of deployment. This harsh environment can cause packet loss or node failurewhich hamper the network activity. Thus, continuous delivery of data requires reliabledata transmission and adaptability to the dynamic environment. Ensuring network reliabilityis consequently a key concern in WSNs and it is even more important in emergencyapplication such disaster management application where reliable data delivery is the keysuccess factor. The main objective of this thesis is to design a reliable end to end solution for data transmission fulfilling the requirements of the constrained WSNs. We tackle two design issues namely recovery from node failure and packet losses and propose solutions to enhance the network reliability. We start by studying WSNs features with a focus on technical challenges and techniques of reliability in order to identify the open issues. Based on this study, we propose a scalable and distributed approach for network recovery from nodefailures in WSNs called CoMN2. Then, we present a lightweight mechanism for packetloss recovery and route quality awareness in WSNs called AJIA. This protocol exploitsthe overhearing feature characterizing the wireless channels as an implicit acknowledgment(ACK) mechanism. In addition, the protocol allows for an adaptive selection of therouting path by achieving required retransmissions on the most reliable link. We provethat AJIA outperforms its competitor AODV in term of delivery ratio in different channelconditions. Thereafter, we present ARRP, a variant of AJIA, combining the strengthsof retransmissions, node collaboration and Forward Error Correction (FEC) in order toprovide a reliable packet loss recovery scheme. We verify the efficiency of ARRP throughextensive simulations which proved its high reliability in comparison to its competitor.

Page generated in 0.0343 seconds