• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 62
  • 28
  • Tagged with
  • 154
  • 154
  • 142
  • 142
  • 142
  • 142
  • 142
  • 140
  • 139
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Gestion de l'adaptabilité dans les applications réparties

Stefani, Jean-Bernard 04 December 2009 (has links) (PDF)
RESUME : Bien que les modèles à composants aient permis de mieux gérer la complexité des applications réparties, ces applications restent confrontées à un problème d'adaptabilité. Le caractère distribué et évolutif de l'environnement d'exécution, la dynamicité des composants logiciels et les propriétés de qualité de service attendues sont autant de critères qui nécessitent de pouvoir adapter une application durant son cycle de vie. Durant mon parcours, j'ai abordé le problème de l'adaptabilité des applications réparties comme le fil directeur de mes recherches. Dans un premier temps, dans le cadre du projet Olan, ma démarche a été d'utiliser le concept de composant pour obtenir une adaptabilité au déploiement. Par la suite, dans le contexte du projet Jade, je me suis intéressée au support de l'adaptabilité durant l'exécution, en exploitant les capacités offertes par les modèles à composants réflexifs pour fournir une adaptabilité contrôlée par des processus autonomes. L'usage des composants comme socle pour une adaptabilité autonomique reste la base de ma démarche scientifique. Dans ce document, je motive cette démarche en retraceant l'évolution des modèles à composants et leurs apports pour l'adaptabilité. Je présente également les perspectives de recherche, encore très ouvertes, de l'adaptabilité dynamique et les directions futures que je compte investiguer.
22

Data collection of mobile sensor networks by drones

Ma, Xiaoyan 06 November 2017 (has links) (PDF)
Data collection by autonomous mobile sensor arrays can be coupled with the use of drones which provide a low-cost, easily deployable backhauling solution. These means of collection can be used to organize temporary events (sporting or cultural) or to carry out operations in difficult or hostile terrain. The aim of this thesis is to propose effective solutions for communication between both mobile sensors on the ground and on the edge-to-ground link. For this purpose, we are interested in scheduling communications, routing and access control on the sensor / drone link, the mobile collector. We propose an architecture that meets the constraints of the network. The main ones are the intermittence of the links and therefore the lack of connectivity for which solutions adapted to the networks tolerant to the deadlines are adopted. Given the limited opportunities for communication with the drone and the significant variation in the physical data rate, we proposed scheduling solutions that take account of both the contact time and the physical flow rate. Opportunistic routing is also based on these two criteria both for the selection of relay nodes and for the management of queues. We wanted to limit the overhead and propose efficient and fair solutions between mobile sensors on the ground. The proposed solutions have proved superior to conventional scheduling and routing solutions. Finally, we proposed a method of access combining a random access with contention as well as an access with reservation taking into account the aforementioned criteria. This flexible solution allows a network of dense mobile sensors to get closer to the performance obtained in an oracle mode. The proposed solutions can be implemented and applied in different application contexts for which the ground nodes are mobile or easily adapted to the case where the nodes are static.
23

Propagation d'une position dans les réseaux connectés / Propagation of a position in a connected network

Chelly, Magda Lilia 07 July 2011 (has links)
Les systèmes de positionnement ont connu un progrès indéniable. Actuellement, la précision atteint quelques centimètres sous certaines conditions : espace ouvert, ciel dégagé, technique très spécifique, etc. Néanmoins, le problème du positionnement dans un environnement intérieur demeure persistant : les trajets multiples qui compliquent les modèles de propagation, l'atténuation, etc. Différents systèmes ont vu le jour, utilisant des technologies telles que l'UWB, le WiFi ou l'Infrarouge. Ces systèmes apportent des résultats de positionnement intéressants, atteignant l'ordre du mètre. Cette précision reste liée à certaines contraintes : une infrastructure, une technologie utilisée, une calibration, une technique de calcul, etc. Afin de réduire toutes ces contraintes, nous proposons une nouvelle approche de positionnement. Notre approche utilise tous les équipements réseaux présents dans un environnement. Elle se base sur deux étapes fondamentales : l'étude de visibilité et l'élaboration de liens géographiques. L'étude de visibilité permet d'obtenir les équipements visibles par un équipement. Nous avons exposé plusieurs modèles de visibilité et nous avons effectué une comparaison des résultats. L'élaboration de liens géographiques permet de construire un graphe géographique tridimensionnel reliant tous les équipements de l'environnement. Ce graphe nous permet de visualiser la répartition des équipements et d'estimer les positions géographiques de chaque équipement. Pour la mise en œuvre de notre approche, nous avons développé un simulateur sous Matlab. Le simulateur élaboré évalue d'abord le nombre d'équipements visibles. Il estime les distances séparant cet équipement de chaque équipement visible. Enfin, il construit un graphe géographique et calcul les positions géographiques. Des résultats de simulations sont présentés pour valider notre approche qui permet d'aboutir à un système capable d'opérer, sans aucune infrastructure additionnelle, un positionnement dans un environnement intérieur et extérieur / Positioning systems have undeniably progressed. Currently, in an outdoor environment, the accuracy reaches a few centimetres under certain conditions: open space, clear sky, specific measurement techniques, etc. Nevertheless, the problem of positioning in an indoor environment remains persistent: multipath, attenuation, etc. Different systems for indoor positioning have been developed, using technologies such as UWB, WiFi or Infrared. These systems provide interesting results that could allow to reach one meter accuracy. But, this accuracy is related to many criteria: infrastructure, technology, calibration, technical computing, etc. To reduce these constraints, we propose a new approach for positioning. Our approach utilizes all the network equipments present in an environment. The approach is based on two fundamental steps: the study of visibility and the development of geographical links. The study of visibility estimates the visible equipments in the environment. We have studied several models of visibility and we carried out a comparison of the results. A three-dimensional graph is build using the study of geographical links between equipments. This graph allows us to visualize the distribution of equipments and to estimate the geographic positions of each device. To implement our approach, we developed a simulator in Matlab. The simulator first studies the visible equipments for the unknown device. Then, it estimates the distances between the device and the visible equipments. Finally, it constructs a graph and calculates the geographical positions. Simulation results are presented to validate our approach. Our approach is a positioning system capable of operating without additional infrastructure in an indoor environment
24

IXIA (IndeX-based Integration Approach) A Hybrid Approach to Data Integration

Kermanshahani, Shokoh 10 July 2009 (has links) (PDF)
Aujourd'hui, il existe un nombre important et croissant de sources de données, qui peuvent être des documents et des données structurées ou semi-structurées. En général, aussi bien les documents que les bases de données sont autonomes et gérés par des systèmes différents. D'autre part, beaucoup de ces sources sont reliées tout en étant sémantiquement hétérogènes : elles modélisent la même réalité externe tout en utilisant des concepts et des structures distincts. <br />Or, les organisations et les entreprises qui sont confrontées à de telles sources de données ont besoin d'en avoir une vision homogène et cohérente. La conséquence est qu'il est nécessaire de les intégrer et de disposer d'un système qui gère ces données.<br /><br />L'objectif d'un système d'intégration des données est de proposer une interface homogène pour interroger plusieurs sources, qui peuvent être hétérogènes et autonomes. Derrière une telle interface il y a plusieurs défis, parmi lesquels nous soulignons l'hétérogénéité structurelle et sémantique des sources de données, la fragmentation des données, le traitement et l'optimisation des requêtes. <br /><br />Il existe de nombreux travaux qui présentent des approches distinctes pour l'intégration des données, et chaque approche propose des solutions spécifiques à chacun des problèmes évoqués. On considère en général que ces approches appartiennent à deux grandes catégories : l'approche matérialisée et l'approche virtuelle. Cependant, on peut aussi considérer une troisième approche, dite hybride, qui propose qu'une partie des données du système intégré soit matérialisée et qu'une autre partie des données soit virtuelle.<br /><br />Dans cette thèse, nous proposons une architecture hybride pour un système d'intégration de sources de données hétérogènes, qui vise à étendre l'optimisation des requêtes à toutes les requêtes du système d'intégration. Elle permet aussi de fournir un mécanisme flexible pour traiter la mise à jour des données afin de tolérer les différentes caractéristiques des sources et de leurs données.<br /><br />Cette approche est basée sur un système d'indexation d'objets multicritères au niveau de la médiation. Dans notre approche, nous utilisons le système Osiris et son mécanisme d'indexation. Osiris est un système de gestion de bases de données et de bases de connaissance orienté objet, où une famille d'objets est définie par une hiérarchie de vues " object-preserving ". Le système d'indexation d'Osiris est un système multi-attributs, et notre approche propose la matérialisation du sous-ensemble des données directement reliées aux attributs d'indexation. <br /><br />Le système d'intégration des données proposé, IXIA, matérialise la structure d'indexation des objets sous-jacents au niveau du médiateur. Les Oids des objets, leur correspondance avec les objets des sources et les données nécessaires pour la mise à jour de l'indexation des données sont aussi matérialisées. <br /><br />Cette approche offre une plus grande flexibilité de rafraîchissement des données qu'une approche entièrement matérialisée, et une meilleure optimisation des requêtes que les méthodes entièrement virtuelles.
25

Joint Network/Channel Decoding over Noisy Wireless Networks

Vu, Xuan Thang 14 January 2014 (has links) (PDF)
Network coding (NC) has gained much research attention as a potential candidate to solve the demand for higher spectral e ciency of modern wireless communications. Many research papers have investigated the performance of NC-aided networks such as throughput and outage capacity. However, the analysis of NC in practical systems where NC is combined with other techniques such as channel coding is still immature to fully understand its potential performance. In this thesis, we aim to design high performance receivers and analyze its performance for network-coded cooperative networks in practical scenarios. Firstly, we propose two Iterative Network/Channel Decoding (INCD) algorithms for the Multiple-Access Relay Channel (MARC) with two notable relaying schemes named Decode-and-Forward (DF) and Demodulate-and-Forward (DMF). The INCD algorithm operates based on turbo-like decoding methods and reduces the impact of the error propagation problem with the aid of a channel-aware receiver design. Both perfect Channel State Information (CSI) and imperfect CSI at the receiver side are investigated. We propose a practical method that forwards the quantized version of the relay decoding errors to the destination. It is shown that the proposed algorithms achieve full diversity gain and signi cantle outperforms solutions which do not take care of error propagation. We also show that the number of pilot symbols a ects only the coding gain but has a negligible impact on the diversity order, while the quantization level a cts both the diversity and coding gain. Secondly, we propose a Near Optimal Joint Network/Channel Decoding (NOJNCD) algorithm for the MARC that allows to analyze the system Bit Error Rate (BER). The NOJNCD algorithm performs network decoding and channel decoding in one decoding step of the super code, which comprises of all trellis states of individual code at the sources via NC. Furthermore, NC combined with Relay Selection (RS) is considered and the achievable diversity order is studied with the aid of outage analysis. We analytically show that Single Relay Selection (SRS) always achieves a diversity order two and Multiple Relay Selection (MRS) can achieve full diversity gain only when the number of selected relays exceeds the number of the sources. Last but not least, we propose a so-called partial relaying protocol to improve the spectral e ciency for channel coding assisted relay networks. Closed-form expression of the BER and the system diversity order are computed for partial relaying. We show, by analysis and simulations, that with a proper Convolutional Code (CC), partial relaying can achieve full diversity gain and same coding gain as the classical (full) relaying protocol in nite signal-to-noise ratio region while it obtains a better spectrum usage. Moreover, we propose a new protocol based on partial relaying in opportunistic relaying cooperative networks and show that this protocol signi cantly outperforms the NC-based cooperation in some circumstances.
26

La réflexivité dans les architectures multi-niveaux : application aux systèmes tolérant les fautes

Taïani, François 12 January 2004 (has links) (PDF)
Des logiciels complexes, assemblés à partir de nombreux composants préexistants, sont aujourd'hui utilisés pour des emplois de plus en plus critiques (télécommunication, ferroviaire, automobile...). Les risques encourus, aussi bien humains qu'économiques, exigent de pouvoir mettre en place dans ces systèmes des mécanismes de tolérance aux fautes flexibles et adaptables indépendamment des composants utilisés. Mais la complexification des logiciels pose problème, car les approches développées jadis pour assurer la sûreté de fonctionnement de petits systèmes ne leur sont plus applicables. Connues depuis longtemps, les architectures réflexives, en autorisant le découplage des aspects fonctionnels et non-fonctionnels d'un système, visent à résoudre ce problème. Jusqu'ici cependant, les approches proposées s'étaient limitées à des prototypes simples, souvent réalisés ex-nihilo pour expérimentation. Or la tolérance aux fautes est une propriété globale des systèmes considérés, qui requiert la prise en compte de tous les niveaux d'abstraction rencontrés. Dans cette thèse, nous étudions comment le paradigme réflexif peut être adapté pour permettre d'intégrer les considérations algorithmiques de la tolérance aux fautes (validité, observation, contrôle) aux contraintes architecturales rencontrées dans les systèmes complexes (abstraction, transparence, inter-opérabilité). Pour aborder cette problématique, nous développons un nouveau cadre conceptuel, la réflexivité multi-niveaux, et les concepts d'empreinte réflexive et de lien inter-niveaux qui lui sont associés. Nous validons ensuite la pertinence pratique de notre proposition en abordant la réplication de serveurs CORBA à brins d'exécution multiples (multithreaded) sur un exemple concret constitué de GNU/Linux et de l'ORB commercial ORBacus. Nous concluons finalement à la nécessité d'un nouveau paradigme de développement basé sur des composants rendus réflexifs dès leur réalisation.
27

Le routage dans les réseaux de capteurs multimédia

Zeghilet, Houda 08 December 2013 (has links) (PDF)
Aujourd'hui, la prolifération de matériel peu coûteux tels que les caméras et les microphones capables de capturer du contenu multimédia de façon ubiquitaire a conduit à l'émergence des réseaux de capteurs sans fil multimédia/vidéo (RCSFM /RCSFV). En conséquence, un grand éventail d'applications peuvent être projetées dans de nombreux domaines de la vie de tous les jours. Par rapport aux réseaux de capteurs traditionnels (RCSF), les RCSFVs présentent des défis uniques principalement en raison de la grande quantité de données à capturer et à transmettre au-dessus d'un réseau contraint en ressources. Un certain niveau de qualité de service peut être exigé en termes de délai, bande passante, gigue, fiabilité, qualité de perception de la vidéo, etc. Dans ce travail, nous visons le problème du routage de données vidéo dans un RCSF. De nombreux protocoles de routage ont été proposés dans la littérature. Ils peuvent être qualifiés de plat ou hiérarchique en vue de l'organisation du réseau. Dans une topologie plate, tous les noeuds ont les mêmes fonctionnalités où chacun peut participer au processus de routage. Cependant, dans une architecture hiérarchique, les capteurs sont organisés en groupes (clusters) permettant une plus grande évolutivité, moins d'énergie consommée et donc une plus longue vie pour l'ensemble du réseau. Parmi les protocoles de routage existants, peu considèrent spécifiquement la transmission de données intensives comme la vidéo. Dans ce travail, nous avons d'abord proposé un protocole de routage hiérarchique appelé ELPC (Energy Level Passive Clustering) dont l'objectif principal est d'améliorer la durée de vie du réseau en présence de flux vidéo. Ceci est obtenu grâce à l'équilibrage des charges au moment de la construction de la topologie où le rôle de tête de groupe est alterné entre les noeuds candidats en fonction de leur niveau d'énergie. La deuxième contribution consiste en un protocole de routage multichemin qui prend les interférences inter-chemin en considération. En effet, en permettant la transmission de plusieurs flux concurrents, le délai de bout en bout se trouve réduit et les besoins de l'application en termes de bande passante peuvent être satisfaits. Au lieu de supprimer complètement les interférences, notre protocole de routage multichemin tente de les minimiser en se basant sur l'ajout d'informations supplémentaires sur les noeuds voisins dans les messages de construction de la topologie. De plus, nous proposons un schéma de files d'attente à priorités multiples où l'influence des types de données dans une vidéo est considérée. Les résultats des simulations montrent que l'utilisation de chemins moins interférents combinée à un régime de multipriorité permet une meilleure qualité vidéo.
28

Résilience et application aux protocoles de routage dans les réseaux de capteurs

Erdene-Ochir, Ochirkhand 05 July 2013 (has links) (PDF)
Les réseaux de capteurs sans fil sont constitués d'un grand nombre de nœuds, déployés pour collecter des données du monde physique (température, humidité, pollution etc.) et les transmettre, de manière autonome, vers un ou plusieurs points de collectes appelés "puits". Dans cette thèse, nous nous focalisons sur la sécurité des protocoles de routage multi-sauts, plus particulièrement, sur la notion de résilience aux attaques. Les domaines d'applications des réseaux de capteurs sont variés, allant du suivi médical à la surveillance environnementale en passant par le bâtiment intelligent ou le monitoring urbain (éclairage, pollution, relevé de compteurs d'eau/électricité/gaz etc.). Dans ces applications, les capteurs sont souvent déployés dans des environnements ouverts et accessibles permettant aux éventuels attaquants de les détruire ou de les capturer afin d'en extraire les données sensibles (clés de chiffrement, identité, adresse, etc.). La compromission des nœuds est un problème majeur pour la sécurité de réseaux de capteurs, puisqu'un adversaire peut s'introduire à l'intérieur du périmètre de sécurité. Les méthodes traditionnelles, basées sur la cryptographie, permettent d'obtenir une sécurité de base (authentification, confidentialité, intégrité, non répudiation etc.), mais ne permettent pas toujours de se prémunir contre les attaques dues à la compromission des nœuds (réplication des nœuds, Sybil, Selective forwarding, Blackhole, Sinkhole, Wormhole etc.). Dans le but d'apporter des solutions algorithmiques complémentaires aux solutions cryptographiques, nous étudions la résilience des protocoles de communication en présence d'adversaires internes visant à perturber le routage de l'information à travers le réseau. Dans un premier temps, nous introduisons le concept de résilience. Notre objectif est de proposer une définition explicitant le terme de résilience dans notre contexte et une métrique, permettant de comparer efficacement les protocoles de routage. L'originalité de cette métrique est d'utiliser à la fois une représentation graphique et une méthode de calcul quantitative liée à celle-ci. La représentation graphique à deux dimensions permet une vision synthétique de la résilience des protocoles selon plusieurs paramètres de performance. La méthode de calcul quantitative liée à cette représentation graphique agrège les valeurs des paramètres et permet de classifier les protocoles en termes de résilience. Grâce à cet outil, nous avons évalué la résilience de plusieurs protocoles de routage classiques de différentes catégories. Cette étude nous a permis d'identifier les mécanismes permettant d'améliorer la résilience des protocoles. Dans un second temps, nous proposons les mécanismes résilients de routage pour les réseaux de capteurs. Les mécanismes résilients que nous proposons consistent en trois éléments : (i) introduire un comportement aléatoire (ii) limiter la longueur des routes (iii) ajouter de la réplication de paquets. Les comportements aléatoires augmentent l'incertitude pour les adversaires, rendant les protocoles moins prévisibles, les réplications des données permettent de bénéficier la diversification des routes créées entre les sources et le puits, en améliorant ainsi le succès et l'équité de livraison et la limitation de la longueur des routes est nécessaire pour diminuer la probabilité qu'un paquet tombe sur un nœud attaquant en route. La connexité entre les capteurs et le puits est ainsi augmentée. Grâce à notre métrique de résilience, nous avons proposé une nouvelle taxonomie de résilience. Selon cette taxonomie, le routage par gradient et la marche aléatoire biaisée avec les mécanismes proposés sont les plus résilients. Nous avons donc évalué par la suite le routage par gradient en cas d'attaques combinées pour approfondir notre étude, mais aussi pour savoir si ces mécanismes proposés permettent d'augmenter la résilience même en cas d'attaques plus complexes, visant différents aspects du routage (construction des routes, paquets de contrôle, etc.). Nous avons introduit plusieurs valeurs de biais aux variantes aléatoires du routage par gradient pour étudier l'influence de l'entropie et nous les avons comparées à sa version classique. Nous avons également évalué leur résilience en introduisant deux types de réplications (uniformes et adaptatives). Sans attaques, ce sont les variantes les plus biaisées sans réplications qui sont les plus performantes. En cas d'attaques peu importantes, les réplications uniformes sont plus efficaces, tandis qu'en cas d'attaques plus intenses, ce sont les réplications adaptatives qui se montrent les plus efficaces. Les études menées jusqu'à ici étaient produites par des simulations et nous avions donc besoin d'une justification théorique. Nous avons donc proposé une étude théorique de la marche aléatoire biaisée en cas d'attaques de non-retransmission des paquets. Nous avons évalué l'influence du biais, mais aussi les deux réplications que nous avions évaluées précédemment par des simulations. En premier lieu, nous avons étudié le succès de livraison et la consommation d'énergie pour tous les scénarios. Ensuite, nous les avons évalués selon notre métrique de résilience. Cette étude a permit de confirmer les résultats d'étude par simulations et elle a montré que le biais est indispensable pour la résilience et le seuil d'entropie bénéfique à la résilience est e=0.7 quand la réplication de données est introduite. En dessous de cette valeur, la marche aléatoire est inefficace à cause de la longueur de chemins trop importante. L'ensemble des travaux réalisés dans cette thèse se concentre autour de la résilience. Ce concept reste assez nouveau, en particulier dans le domaine des réseaux et télécommunications. À travers cette thèse, nous avons voulu donner notre vision sur ce thème en nous concentrant sur les problématiques de sécurité des protocoles de routage dans le contexte des réseaux de capteurs.
29

Conception et optimisation de codes AL-FEC : les codes GLDPC- Staircase

Mattoussi, Ferdaouss 13 February 2014 (has links) (PDF)
Ce travail est consacré à la conception, l'analyse et l'optimisation des codes correcteurs d'effacements de niveau applicatif (AL-FEC). Nous nous intéressons à une famille des codes LDPC généralisés (GLDPC), nommés les codes GLDPC-Staircase, qui sont com- posés d'un code LDPC-Staircase (code de base) ainsi que des codes Reed-Solomon (RS) (codes externes). Dans la première partie de cette thèse, nous commençons par montrer que les codes RS ayant une construction basée sur la matrice "quasi" Hankel sont les codes MDS les plus appropriés pour obtenir la structure des codes GLDPC-Staircase. Ensuite, nous proposons un nouveau type de décodage à ces codes, baptisé le décodage hybride (IT/RS/ML), pour atteindre les caspacités de correction du décodage par maximum de vraisemblance (ML) avec de faible complexité. Afin d'étudier l'impact de la structure des codes GLDPC- Staircase sur le décodage, nous proposons une autre construction : ils se diffèrent sur la nature des symboles de redondance LDPC générés. Puis, pour prédire le seuil de décodage et les écarts par rapport à la limite de Shannon des codes GLDPC-Staircase, nous élaborons une analyse asymptotique en fonction de la technique d'évolution de densité (DE), la technique EXIT (Extrinsic Information Transfer) et le théorème d'air. Finalement, en se basant sur l'analyse à taille finie et l'analyse asymptotique, nous ajustons les différentes paramètres internes de ces codes pour obtenir la configuration optimale sous le décodage hybride (IT/RS/ML). La deuxième partie de la thèse est consacrée à l'étude des codes GLDPC-Staircase dans diverses situations. Tout d'abord, nous montrons que ces codes ont des performances asymptotiquement très proches de la limite de Shannon. En plus, à taille finie, ils permet- tent d'atteindre d'excellentes capacités de correction d'effacements (i.e., très proches de celles des codes MDS) peu importe la taille des objets : très faible overhead de décodage, faible plancher d'erreur, et une zone "waterfall" raide. Nous montrons aussi que les performances de ces codes sont trés proches des codes RaptorQ et surpassent celles des codes Raptor, les codes LDPC-Staircase, et un autre code GLDPC avec une construction différente. Finalement, nous proposons une méthodologie générale pour étudier l'impact de l'ordonnancement des paquets envoyés sur les performances des codes GLDPC-Staircase sur un grand nombre des canaux à effacements (avec des pertes en rafale ou pas). Cette étude montre le meilleur ordonnancement de paquets. Tous les résultats mentionnés ci-dessus montrent que les codes GLDPC-Staircase peuvent considérés comme des codes AL-FEC universels.
30

Conception d'une architecture Pair-à-Pair orientée opérateur de services

Saad, Radwane 17 September 2010 (has links) (PDF)
Les paradigmes et architectures du pair-à-pair (P2P) sont au centre des réalisations d'applications à grande échelle de tout type. Il est nécessaire d'intégrer un niveau de contrôle sur de telles applications. De telles applications seront ainsi opérées et auront comme maître d'œuvre un opérateur de services. Dans la pratique actuelle les entités pairs partageant des ressources se placent d'une manière aléatoire sur un large réseau physique (IP). Nous proposons la conception d'une architecture globale pour la mise en place de telles applications sur des plateformes de type P2P. Dans ce paradigme il est possible d'isoler trois principales composantes : la première est celle qui concerne le service applicatif, la deuxième est le routage (ou la recherche), la troisième est celle qui traite du transport des données. Ce travail consiste à optimiser chaque composante du modèle P2P. Ces études nous permettent de spécifier des structures pour trois principales contributions. La première a pour objectif de cloisonner le trafic P2P et, après généralisation, d'appliquer un algorithme sensible au contexte où chaque groupe de pairs (appartenant à un même système autonome par exemple) est basé sur une DHT (Distributed Hash Table). La seconde est d'accélérer le transfert des données à l'aide du mécanisme FEC (Forward Error Correction). La troisième est d'intégrer une entité de Contrôle/Gestion. BitTorrent est le protocole choisi au niveau transport sur une architecture intégrant ces contributions. L'architecture SPOP (Service Oriented Provider P2P) a été validée par simulation et grâce à une application de sécurité de défense contre les attaques DDoS

Page generated in 0.5891 seconds