Spelling suggestions: "subject:"networking"" "subject:"etworking""
321 |
Vers un regroupement multicritères comme outil d'aide à l'attribution d'attaque dans le cyber-espaceThonnard, Olivier 31 March 2010 (has links) (PDF)
Récemment, les experts en sécurité ont reconnu le fait que le phénomène global de cybercriminalité est devenu mieux organisé et plus consolidé. Même s'il existe des indices probables indiquant les origines, les causes et les conséquences de ces nouvelles activités malveillantes sur Internet, peu d'affirmations peuvent être réellement soutenues par des preuves scientifiques. En particulier, un certain nombre de questions subsiste concernant l'attribution des attaques et l'organisation des activités cybercriminelles. La contribution principale de ce travail est le développement d'une méthode analytique permettant d'aborder de manière systématique le problème de l'attribution d'attaque dans le cyber-espace. Le caractère innovant de l'approche choisie consiste à combiner une technique de regroupement basée sur les graphes, avec une méthode de fusion de données inspirée par le domaine de l'analyse décisionnelle multicritères (MCDA). Plus spécifiquement, nous démontrons qu'il est possible d'analyser des phénomènes d'attaque distribués à partir de différents points de vue qui peuvent être combinés systématiquement, tout en modélisant de manière adéquate les propriétés comportementales des phénomènes étudiés. Cette méthode d'analyse globale de menaces permet non seulement d'attribuer différents événements à une même cause d'origine ou à un même phénomène, mais l'aspect sans doute le plus intéressant est qu'elle facilite aussi l'analyse des modes opératoires des attaquants, offrant ainsi à l'analyste une meilleure compréhension des stratégies réellement utilisées par les cybercriminels.
|
322 |
Protocoles pour Poignées de Main SecrètesSorniotti, Alessandro 29 June 2010 (has links) (PDF)
Les utilisateurs qui coopèrent sur des réseaux non fiables ont souvent besoin d'établir une confiance initiale; cette étape peut etre très délicate si elle implique l'échange d'informations sensibles, telles l'affiliation à une société secrète ou à des services de renseignement. Le mécanisme de la poignée de main secrète fournit une solution à ce problème. La poignée de main secrète est un protocole qui permet à deux utilisateurs de vérifier mutuellement des propriétés et, en cas de correspondance simultanée, de partager une clé pour sécuriser les communications. Le protocole assure qu'aucune entité malveillante n'apprenne quelque-chose en interagissant avec des utilisateurs légitimes ou en écoutant les échanges du protocole. Dans cette thèse, nous présentons plusieurs nouveaux protocoles visant à fournir de nouvelles fonctionnalités ou à fixer les lacunes des protocoles existants dans la littérature. Dans un premier temps, nous nous concentrons sur un nouveau concept de poignée de main secrète appelé vérification dynamique contrôlée, qui généralise les autres variantes du protocole. Nous étudions ensuite le problème de la révocation des titres pour la poignée de main secrète, en présentant une approche grâce à laquelle nous pouvons obtenir la révocation pour chacune des différentes variantes du protocole connues dans la littérature. En outre, nous étudions deux protocoles de poignées de main secrète décentralisés: l'un où un certain nombre d'entités distinctes peut gérer le protocole, et l'autre où le système est auto-géré par ses utilisateurs. Enfin, nous étudions deux cas d'utilisation de ce protocole, le premier impliquant des réseaux sociaux en ligne et le second couvrant la gestion d'une chaîne d'approvisionnement.
|
323 |
Localisation de mobiles par construction de modèles en 3D en utilisant la stéréovisionNogueira, Sergio 09 December 2009 (has links) (PDF)
Les travaux présentés dans cette thèse contribuent aux systèmes de localisation pour un robot mobile en utilisant la stéréovision. Ces travaux s'inscrivent dans le cadre d'une collaboration entre le LORIA-INRIA de Nancy et le laboratoire SeT de l'UTBM. L'approche proposée est décomposée en deux étapes. La première étape constitue une phase d'apprentissage qui permet de construire un modèle 3D de l'environnement de navigation. La deuxième étape est consacrée à la localisation du véhicule par rapport au modèle 3D. La phase d'apprentissage a pour objectif de construire un modèle tridimensionnel, à partir de points d'intérêt pouvant être appariés sous différentes contraintes géométriques (translation, rotation, changement d'échelle) et/ou contraintes de changements d'illumination. Dans l'objectif de répondre à toutes ces contraintes, nous utilisons la méthode SIFT (Scale Invariant Feature Transform) permettant des mises en correspondance de vues éloignées. Ces points d'intérêt sont décrits par de nombreux attributs qui font d'eux des caractéristiques très intéressantes pour une localisation robuste. Suite à la mise en correspondance de ces points, un modèle tridimensionnel est construit, en utilisant une méthode incrémentale. Un ajustement des positions est effectué afin d'écarter les éventuelles déviations. La phase de localisation consiste à déterminer la position du mobile par rapport au modèle 3D représentant l'environnement de navigation. Elle consiste à apparier les points 3D reconstruits à partir d'une pose du capteur stéréoscopie et les points 3D du modèle. Cet appariement est effectué par l'intermédiaire des points d'intérêt, issus de la méthode d'extraction SIFT. L'approche proposée a été évaluée en utilisant une plate-forme de simulation permettant de simuler un capteur stéréoscopique, installé sur véhicule naviguant dans un environnement 3D virtuel. Par ailleurs, le système de localisation développé a été testé en utilisant le véhicule instrumenté du laboratoire SeT afin d'évaluer ses performances en conditions réelles d'utilisation.
|
324 |
Facebooking your dreams : How to make the best use of Social Networking sites asinnovative and cost-effective/ low-budget marketing channels insmall-sized entrepreneurshipKittiwongvivat, Wasinee, Rakkanngan, Pimonpha January 2010 (has links)
<p>This study aims to understand and explain how small sized</p><p>entrepreneurship currently uses social networking sites</p><p>through out the process of launching and marketing</p><p>their products. This also includes the use of word of mouth,</p><p>which features social networking technology. Lastly, we</p><p>intended to give recommendations to problems that small</p><p>sized entrepreneurship is facing in order to make the best</p><p>use of social networking channels and to ensure that these</p><p>channels are used in the most effective way.</p>
|
325 |
Contrôle de congestion équitable pour le multicast et interface avec le niveau applicatifLucas, Vincent 21 September 2010 (has links) (PDF)
Les communications de groupe telles que le multicast IP procurent un moyen efficace pour transmettre simultanément la même donnée vers plusieurs destinataires, comme par exemple pour la diffusion de l'IPTV. Or, il existe une demande pour utiliser le multicast sur des réseaux à capacité variable ou limitée tels que ceux des utilisateurs abonnés à l'ADSL ou ceux utilisés pour les usages mobiles avec un accès sans fil. Dans ces conditions, il est nécessaire de créer un mécanisme de contrôle de congestion pour le multicast capable de partager équitablement la bande passante entre les flux multicast et les flux TCP concurrents. Cette thèse commence par une étude de la latence du temps d'adhésion aux groupes multicast ainsi que son influence sur les différents protocoles existants de contrôle de congestion pour le multicast. Ainsi, nous proposons de créer M2C un protocole de contrôle de congestion prenant en compte cette latence du temps d'adhésion et capable de supporter le passage à très grande échelle. Côté source, M2C utilise des canaux dynamiques semblables à ceux de WEBRC et chaque récepteur M2C dispose d'une fenêtre de congestion mise à jour par des mécanismes de "Slow Start" et de "Congestion Avoidance" qui permettent d'obtenir de façon robuste un partage équitable de la bande passante. De plus, pour converger rapidement vers le débit équitable, un algorithme de "Fast Start" est utilisé au démarrage des sessions M2C. Par ailleurs, un mécanisme permettant de détecter les évolutions du débit équitable réactive le "Slow Start" afin de converger plus rapidement vers le nouveau débit équitable. Le protocole M2C a été implémenté et évalué sur plusieurs environnements complémentaires : aussi bien sur une plateforme locale spécialement mise en place pour ces tests au sein du laboratoire, qu'à travers Internet entre Strasbourg (France), Trondheim (Norvège) et Louvain-la-Neuve (Belgique). L'évaluation se déroule selon des scenarii rigoureux et réalistes : comme par exemple, la concurrence entre une population variable de flux M2C et TCP, avec ou sans bruit de fond tel que les communications courtes produites par la navigation sur des sites web ou la consultation de courriel. Cela permet de mettre en exergue le comportement de M2C grâce à l'évaluation de métriques telles que l'utilisation de la bande passante, le taux de pertes, l'équité, etc. Les canaux dynamiques utilisés par M2C peuvent rendre difficile le développement d'applications. En effet, la source doit être capable d'ordonner ses données en utilisant ces canaux dynamiques dont le débit est recalculé pour chaque paquet envoyé et en permettant à chaque récepteur ayant un débit différent de tirer parti de toutes les données reçues. Ces problèmes sont traités en proposant un séquenceur et une interface de programmation (API) qui permettent d'envoyer les données les plus importantes aux débits reçus par la majorité des récepteurs. Nous avons montré que l'efficacité de ce séquenceur est telle qu'un récepteur recevant N% du débit de la source, alors ce récepteur reçoit les N% les plus importants des données applicatives. De plus, l'API fournie permet à l'application de s'abstraire de connaître les mécanismes utilisés par le séquenceur et par M2C. Cette API est à la fois simple d'utilisation et très efficace pour différents types d'applications. Ainsi, nous l'avons utilisé pour implémenter des logiciels de transfert de fichiers [MUTUAL] et de diffusion de vidéos [MUST], dont les sources sont disponibles publiquement ainsi que celles de M2C~: - [M2C] http://svnet.unistra.fr/mcc/ - [MUTUAL] http://mutual.sourceforge.net/ - [MUST] http://must.sourceforge.net/
|
326 |
Medium Access Control Facing the Dynamics of Wireless Sensor NetworksKuntz, Romain 17 September 2010 (has links) (PDF)
Un réseau de capteurs sans fil (Wireless Sensor Network, WSN) consiste en une distribution spatiale d'équipements embarqués autonomes, qui coopèrent de manière à surveiller l'environnement de manière non-intrusive. Les données collectées par chaque capteur (tels que la température, des vibrations, des sons, des mouvements etc.) sont remontées de proche en proche vers un puits de collecte en utilisant des technologies de communication sans fil. Voilà une décennie que les contraintes inhérentes à ces réseaux attirent l'attention de la communauté scientifique. Ainsi, de nombreuses améliorations à différents niveaux de la pile de communication ont été proposées afin de relever les défis en termes d'économie d'énergie, de capacité de calcul et de contrainte mémoire imposés par l'utilisation d'équipements embarqués. Plusieurs déploiements couronnés de succès démontrent l'intérêt grandissant pour cette technologie. Les récentes avancées en termes d'intégration d'équipements et de protocoles de communication ont permis d'élaborer de nouveaux scénarios plus complexes. Ils mettent en scène des réseaux denses et dynamiques par l'utilisation de capteurs mobiles ou de différentes méthodes de collection de données. Par exemple, l'intérêt de la mobilité dans les WSN est multiple dans la mesure où les capteurs mobiles peuvent notamment permettre d'étendre la couverture d'un réseau, d'améliorer ses performances de routage ou sa connexité globale. Toutefois, ces scénarios apportent de nouveaux défis dans la conception de protocoles de communication. Ces travaux de thèse s'intéressent donc à la problématique de la dynamique des WSN, et plus particulièrement à ce que cela implique au niveau du contrôle de l'accès au médium (Medium Access Control, MAC). Nous avons tout d'abord étudié l'impact de la mobilité et défini deux nouvelles méthodes d'accès au médium (Machiavel et X-Machiavel) qui permettent d'améliorer les conditions d'accès au canal pour les capteurs mobiles dans les réseaux denses. Notre deuxième contribution est un algorithme d'auto-adaptation destiné aux protocoles par échantillonnage. Il vise à minimiser la consommation énergétique globale dans les réseaux caractérisés par des modèles de trafic antagonistes, en obtenant une configuration optimale sur chaque capteur. Ce mécanisme est particulièrement efficace en énergie pendant les transmissions par rafales qui peuvent survenir dans de tels réseaux dynamiques.
|
327 |
Composants ubiquitaires pour réseaux dynamiquesHoareau, Didier 05 December 2007 (has links) (PDF)
On assiste depuis quelques années à l'émergence de réseaux de machines, qualifiés de dynamiques, qui ne sont plus limités à une interconnexion de stations de travail définissant un réseau stable. Ces plates-formes intègrent de plus en plus des équipements mobiles et à faibles ressources. L'exploitation effective de ces éseaux dynamiques constitue encore un défi. Du fait de la volatilité des équipements et de leur hétérogénéité, on ne peut avoir une connaissance a priori de toutes les ressources logicielles et matérielles qui sont disponibles dans ces réseaux. De plus, la connectivité entre les différentes machines ne peut être garantie : de nombreux équipements sont régulièrement mis en veille et l'utilisation detechnologie sans fil limite la portée de communication entre les machines. Ces réseaux dynamiques commencent à être exploités pour fournir des applications censées être ubiquitaires, c'est-à-dire des applications dont les fonctionnalités sont accessibles de partout, indépendamment de l'équipement utilisé. Mais de telles applications sont par nature complexes et leur conception est rendue difficile du fait du caractère dynamique des réseaux visés. Le travail décrit dans ce mémoire de thèse a permis de développer des méthodes pour concevoir et déployer des applications ubiquitaires dans des réseaux dynamiques. En nous appuyant sur le modèle de composants Fractal, nous définissons le concept de composants hiérarchiques ubiquitaires, briques d'assemblage des applications ubiquitaires. Un schéma de distribution de ces composants est élaboré afin que ceux-ci puissent offrir leurs services depuis n'importe quelle machine du réseau. Cette distribution des fonctionnalités des composants sur plusieurs machines impose de prendre en compte les déconnexions réseau qui pourraient conduire au dysfonctionnement de l'application. Pour cela, nous avons défini au sein du modèle de composants ubiquitaires le concept d'interface active qui permet de continuer à utiliser certaines parties de l'application tout en isolant celles inutilisables du fait des problèmes de connectivité. Les approches traditionnelles de déploiement ne sont pas adaptées au déploiement des composants ubiquitaires dans les réseaux dynamiques. Dans ces réseaux, les ressources qui sont présentes ne peuvent être connues à l'avance, ce qui empêche la désignation explicite des machines cibles devant héberger les composants. Dans notre approche, le placement des composants est spécifié à l'aide de contraintes exprimant le besoin des composants vis-à-vis des ressources nécessaires à leur exécution. Après avoir présenté un langage permettant la définition de telles contraintes, nous proposons un support intergiciel qui réalise le déploiement d'une application ubiquitaire même si initialement, les ressources exigées par ses composants ne sont pas disponibles et que certaines machines sont inaccessibles. Le processus de déploiement que nous proposons est qualifié de propagatif : les composants sont instanciés au fur et à mesure de la disponibilité des ressources et de l'arrivée des machines. Lorsque des fluctuations de ressources interviennent dans le réseau, les applications ubiquitaires sont amenées à être reconfigurées. La solution que nous présentons permet de rendre ces reconfigurations complètement autonomes, ne nécessitant ainsi plus aucune intervention manuelle. L'ensemble des concepts introduits dans cette thèse a fait l'objet du développement d'un prototype fondé sur une implantation Fractal.
|
328 |
Recherche sur les techniques clés pour les communications multimédias dans les Ad-Hoc réseauxZhou, Liang 14 April 2009 (has links) (PDF)
Dans cette thèse, nous étudions certains points techniques clé sur ce sujet et proposons une résolution pratique et efficace des aspects suivants: Dans un cadre de design inter-couche, nous avons d'abord réglé le problème du contrôle de débit et du routage. Nous étudions la combinaison de l'acheminement et le contrôle du taux avec une formulation optimisation convexe afin de proposer une solution distribuée commune basée sur la conception des inter-couche. Nous avons d'abord développé un modèle de distorsion qui couvre à la fois l'impact de la quantification du codeur et la perte de paquets en raison de la congestion du réseau sur la qualité vidéo globale. Ensuite, le contrôle du taux d'émission optimal commun et le choix du routage sont réalisés en adaptant la vitesse variable d'émission au cours du temps et en minimisant la congestion du réseau global. Ensuite, nous abordons le problème du mécanisme d'authentification du codage conjoint. Dans cette partie, nous proposons un cadre pour une collaboration entre authentification et codage multimédia transmis sur des réseaux sans fil. Premièrement, nous fournissons un système d'authentification basé sur des méthodes graphiques qui peut non seulement construire une authentification flexible, mais aussi un compromis parmi certaines exigences pratiques telles que la robustesse et le retard. Puis, un taux de distorsion conjoint Source-Canal (JSCC) est optimisé ; une approche résistante aux erreurs vidéo encodée adpatative est présentée, dans laquelle la vidéo est encodée en plusieurs flux indépendants et à chaque flux est attribué une correction (Forward Error Correction-FEC) afin d'éviter la propagation des erreurs. En outre, nous considérons l'authentification avec le régime spécifique JSCC afin de parvenir à un résultat satisfaisant en termes de qualité de reconstruction de bout en bout. Ensuite, nous proposons d'appliquer conjointement la résilience aux erreurs (ER) et la super-résolution (SR) afin d'améliorer glabalement la résolution des flux d'images transmises sur les réseaux sans fil. Afin de lutter contre la propagation d'erreurs, une description multiple, méthode flexible de codage basée sur SPIHT-3-D (partitionnement 3-D dans des arbres hiérarchiques) est présentée pour générer des descriptions variables indépendantes en fonction de l'état du réseau. Puis, une stratégie originale de protection inégale contre les erreurs suivant le niveau de priorité est prévu afin d'attribuer un niveau supérieur de protection contre les erreurs des parties les plus importantes des flux. En outre, un algorithme robuste SR est proposé, en présence de différents types de taux de perte de paquets pour améliorer la résolution de l'image. Enfin, nous décrivons le problème du contrôle du taux pour le multimédia sur des réseaux hétérogènes. Dans cette partie, nous développons et évaluons un cadre d'allocation des taux optimaux sur plusieurs réseaux hétérogènes toujours basés sur le cadre de la conception inter-couches. Au début, nous développons et évaluons un modèle de distorsion en fonction de taux disponibles observés (ABR) et du temps d'aller-retour (RTT) dans chaque réseau d'accès, ainsi que des caractéristiques de chaque application. Ensuite, la répartition du taux est formulée comme un problème d'optimisation convexe qui minimise la somme de la distorsion attendue sur tous les flux applicatifs. Afin d'obtenir une résolution satisfaisante et simple à ce problème, nous proposons un théorème d'approximation par morceaux afin de simplifier le problème convexe et de prouver la validité de la théorie. En outre, la réalisation de l'algorithme rapide heuristique pour parvenir à une répartition optimale de qualité de service ou quasi-optimale de bout en bout dans le cadre du budget global des ressources limitées est le point le plus important de cette partie de thèse. En fin de compte, un bref résumé de tous les sujets abordés dans cette thèse est donné. Les principales contributions de cette thèse sont alors rappelés.
|
329 |
Adapnet : Stratégies adaptatives pour la gestion de données distribuées sur un réseau P2PBonnel, Nicolas 05 December 2008 (has links) (PDF)
Depuis quelques décennies, la quantité d'information numérique produite ne cesse de croître exponentiellement, ce qui soulève des difficultés de plus en plus critiques en terme de stockage, d'accessibilité et de disponibilité de cette information. Les architectures logicielles et matérielles construites autour du modèle pair-à-pair (P2P) semblent répondre globalement aux exigences liées au stockage de l'information mais montrent leurs limites en ce qui concerne les exigences d'accessibilité et de disponibilité de l'information. Nous présentons dans cette thèse différents apports concernant les architectures P2P pour la gestion de grands volumes d'information. Les stratégies algorithmiques que nous proposons exploitent des topologies virtuelles dédiées sur lesquelles nous développons des protocoles de maintenance et de gestion du réseau efficaces. En particulier, pour assurer le passage à grande échelle, nous proposons des solutions pour lesquelles les coûts des opérations de maintenance et de gestion des topologies virtuelles sont constants en moyenne pour chaque noeud du réseau, et ceci, quelle que soit la taille du réseau. Nous analysons les principaux paradigmes de la répartition d'information sur un réseau P2P, en considérant successivement, le problème de l'accès à de l'information typée (semi-structurée) et le cas général qui dissocie entièrement la nature des requêtes du placement de l'information. Nous proposons une méthode d'aiguillage de requêtes portant sur la structure et le contenu de documents semi-structurés ainsi qu'une technique plus générale dans le cas le plus défavorable où aucune connaissance n'est disponible a priori sur la nature des informations stockées ou sur la nature des requêtes. Dans l'optique de la gestion d'une qualité de service (qui s'exprime en terme de rapidité et de fiabilité), nous nous intéressons également au problème de la disponibilité pérenne de l'information sous l'angle de la réplication des données stockées dans le réseau. Nous proposons une approche originale exploitant une mesure locale de densité de réplicas estimée sur une topologie virtuelle dédiée.
|
330 |
Systèmes d'information collaboratifs et auto-organisants pour réseaux de capteurs large-échelle « De la théorie à la pratique »Busnel, Yann 18 November 2008 (has links) (PDF)
Les systèmes informatiques ont connu récemment de grandes avancées dans leur conception. D'une part, la démocratisation des réseaux via la croissance exponentielle de l'Internet a permis d'envisager des systèmes à l'échelle mondiale, visant de mettre en commun une multitude de ressources à travers la planète entière. D'autre part, la réduction continue de la taille des équipements informatiques a permis l'apparition de matériels miniatures. Le jumelage de ces deux évolutions est à l'origine de l'apparition des réseaux de capteurs sans fil. Le spectre des applications potentielles de ces réseaux est extrêmement large, que cela soit dans le contexte d'une infrastructure fixe autant que dans l'informatique embarquée. Cette thèse propose un ensemble de contributions pour la gestion de l'information à la fois dans le contexte mobile et statique. Édifiées autour des mêmes propriétés de collaboration et d'autoorganisation, ces propositions sont conçues selon une méthodologie de la théorie vers la pratique. Cette thèse vise ainsi, en premier lieu, une analyse théorique a priori d'une application classique des réseaux de capteurs statiques, à savoir le suivi de trajectoires d'objets mobiles non identifiés. Par la suite, nous étendons le spectre des applications visées en proposant une structure générique à toute mise en oeuvre réelle de réseaux de capteurs statiques. En second lieu, nous considérons une modélisation de la mobilité permettant d'analyser fondamentalement les impacts de celle-ci sur la convergence des protocoles dits de population. Enfin, nous établissons un parallèle entre les travaux menés théoriquement sur les réseaux de capteurs mobiles avec ceux plus pratiques et empiriques proposés dans le cadre des protocoles épidémiques sur réseaux filaires. En démontrant que ces deux domaines portent en réalité sur la même classe de protocoles – et donc de problèmes – nous ouvrons ainsi une voie captivante pour de futures recherches dans chacun de ces deux domaines, par l'utilisation de l'un dans l'autre.
|
Page generated in 0.0654 seconds