• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 120
  • 13
  • Tagged with
  • 261
  • 174
  • 128
  • 89
  • 85
  • 84
  • 49
  • 39
  • 36
  • 35
  • 33
  • 32
  • 31
  • 29
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse régionale asymptotique d'une classe de systèmes distribués.

AL-SAPHORY, Raheam 05 December 2001 (has links) (PDF)
Le travail concerne l'introduction de certaines notions d'analyse asymptotique (détectabilité, stabilisabilité, observateur) régionale pour une classe de systèmes distribués. Diverses propriétés et caractérisations ont été établies, en particulier en relation avec la structure des capteurs et des actionneurs.
32

Exécutions de programmes parallèles à passage de messages sur grille de calcul

Genaud, Stéphane 08 December 2009 (has links) (PDF)
Le document présente une synthèse de travaux sur le déploiement, l'utilisation et les techniques de mise en oeuvre d'applications développées selon un modèle de programmation à passage de messages sur des grilles de calcul. La première partie décrit les performances observées sur la période 2002-2006 sur une plateforme à l'échelle de la France, ainsi que les gains obtenus par équilibrage de charge. La deuxième partie décrit un intergiciel nouveau baptisé P2P-MPI qui synthétise un ensemble de propositions pour améliorer la prise en charge de tels programmes à passage de messages.
33

Contributions à l'étude des gestionnaires de services distribués dans les réseaux ad hoc

Hauspie, Michaël 14 January 2005 (has links) (PDF)
Les réseaux ad hoc sont des réseaux distribués, auto-organisés ne nécessitant pas d'infrastructure. Les entités formant un tel réseau doivent collaborer afin d'assurer le bon fonctionnement des services réseaux, tel que le routage. Dans un tel environnement, de nombreux algorithmes développés pour le monde filaire ne peuvent être adaptés de façon naïve sans entraîner une congestion importante du réseau qui va réduire son efficacité. Notre travail de thèse se penche sur l'étude de la gestion de services. En effet, sans application, le développement d'une architecture comme les réseaux ad hoc est inutile. La gestion de services consiste à fournir tout les moyens possibles pour faciliter et rendre fiable l'utilisation d'applications distribuées. Nos travaux contribuent à l'étude de deux points précis de la gestion de services. Premièrement, nous fournissons un algorithme permettant de répartir efficacement une information dans le réseau en sélectionnant certains objets du réseau pour être des réplicats de l'information. Cet algorithme peut alors être utilisé pour publier les informations relatives à un service afin de permettre sa recherche. Deuxièmement, nous avons étudié la prédiction de déconnexion entrainée par la mobilité des noeuds. Nous proposons trois solutions basées sur la recherche d'ensemble de chemins disjoints, la recherche de liens critiques et la recherche de noeuds critiques. Les recherches que nous proposons sont entièrement réalisées à partir d'informations locales. Les résultats obtenus fournissent une base au développement d'un gestionnaire de services distribués. De plus, certains de nos algorithmes (comme la recherche d'ensembles de chemins disjoints) peuvent être réutilisés dans d'autres applications, comme le routage QoS multi-chemins.
34

Réplication optimiste pour les applications collaboratives asynchrones

Dedieu, Olivier 14 September 2000 (has links) (PDF)
Dans cette thèse, nous présentons un système de réplication optimiste pour les applications collaboratives asynchrones. Dans notre modèle, les réplicas travaillent de façon autonome et se synchronisent deux à deux afin d'assurer la propagation épidémique des écritures et la cohérence globale à terme des données. Nous avons conçu pour cela un protocole qui garantit des échanges incrémentaux. Il optimise la consommation de bande passante et simplifie la détection des mises-à-jour à intégrer. Il repose sur un mécanisme de journalisation des écritures. Ce mode de persistance offre de bonnes performances, une grande robustesse et un support simple pour l'évolution de schéma. Lorsque deux réplicas se synchronisent, des conflits peuvent apparaître. Pour y faire face, nous proposons un mécanisme d'horloge logique qui définit un ordre total sur les écritures, cohérent avec l'ordre temporel. Il permet de résoudre les mises-à-jour conflictuelles par un ordonnancement conforme à l'intuition pour les utilisateurs. D'autres types de conflits propres à l'application et à l'intégrité des données peuvent survenir. Le développeur d'applications dispose d'une interface de programmation pour définir des procédures de résolution spécifiques. Par ailleurs, nous présentons deux extensions au protocole de propagation épidémique pour le rendre exploitable à large échelle : le contrôle de la vitesse de convergence et la réplication partielle. En complément de la réplication des données, nous proposons un "framework" pour le déploiement dynamique des mises-à-jour du code et des ressources de l'application. Enfin, l'ensemble du système de réplication est illustré sur une application collaborative asynchrone, Pharos, qui permet le partage de recommandations dans des communautés d'intérêt.
35

Analyse quantitative paramétrée d'automates temporisés probabilistes

Chamseddine, Najla 27 October 2009 (has links) (PDF)
Nous considérons une sous classe d'automates temporisés probabilistes où les contraintes temporelles au niveau des gardes et des invariants sont exprimées par des paramètres. Cette sous classe est appelée la classe des automates Temporisés Probabilistes Paramétrés Semi Déterminés (ATPP Semi Déterminés). Cette classe d'automates se définit en particulier par l'attribution d'une unique distribution à chaque état et par des gardes de la forme x<=a où a est un paramètre ou un entier naturel. Nous imposons de plus deux propriétés sur ces automates qui sont celles de non blocage et fortement non zenon. Notre travail vise à calculer le temps moyen maximal de convergence vers un état dit absorbant q_end dans ce type d'automates. L'unique méthode traitant déjà ce type de problème fait appel à la discrétisation du temps et à l'application de techniques de programmation linéaire. Elle est cependant exponentielle car elle dépend du nombre d'horloges et de la plus grande constante à laquelle sont comparées les horloges, lors de la discrétisation. Le graphe résultant peut être de taille exponentielle. Pour tout ATPP Semi Déterminé, on définit un automate totalement déterministe, appelé ATPP Déterminé, en remplaçant toute garde de la forme x<=a par une garde de la forme x=a. Le temps d'attente en chaque état est ainsi fixé par la valuation de l'état initial qui remet toutes les horloges à zéro. Nous démontrons que le temps moyen de convergence vers q_end dans l'ATPP Déterminé est égal au temps moyen maximal de convergence dans l'ATPP Semi Déterminé dont il découle. Pour calculer le temps moyen de convergence vers q_end nous construisons à partir de l'ATPP Déterminé un graphe appelé "graphe des macro-steps" qui contient de façon concise l'information nécessaire au calcul du coût moyen de convergence vers q_end. Ce graphe est de taille polynomiale et se construit en temps polynomial. Le calcul du temps moyen de convergence dans le graphe des macro-steps est solution d'un système linéaire, comme dans le cas des chaînes de Markov avec coûts. On résout ce système linéaire en temps polynomial, ce qui permet d'obtenir finalement le temps moyen maximal de convergence vers q_end dans l'ATPP Semi Déterminé. Nous appliquons enfin cette méthode à certains protocoles de communication, notamment BRP (Bounded Retransmission Protocol) et CSMA/CD (Carrier Sense Multiple Access with Collision Detection).
36

Contribution à l'extension de l'approche énergétique à la représentation des systèmes à paramètres distribués

Chera, Catalin-Marian 01 July 2009 (has links) (PDF)
Tout phénomène, qu'il soit biologique, géologique ou mécanique peut être décrit à l'aide de lois de la physique en termes d'équations différentielles, algébriques ou intégrales, mettant en relation différentes variables physiques. Les objectifs de la thèse sont de montrer comment les systèmes à paramètres distribués peuvent être modélisés par un modèle bond graph, qui est par nature un modèle à paramètres localisés. Deux approches sont possibles : - utiliser une technique d'approximation qui discrétise le modèle initialement sous forme d'équations aux dérivées partielles (EDP) dans le domaine spatial, en supposant que les phénomènes physiques distribués peuvent être considérés comme homogènes dans certaines parties de l'espace, donc localisés. - déterminer la solution des EDP qui dépend du temps et de l'espace, puis à approximer cette solution avec différents outils numériques. Le premier chapitre rappelle quelques méthodes classiques utilisées pour l'approximation des EDP et les modèles bond graphs correspondants.Dans le deuxième chapitre, l'approche port-Hamiltonienne est présentée et son extension aux systèmes à paramètres distribués est proposée. Dans le troisième chapitre, les principaux modèles utilisés pour la représentation des flux de trafic routier sont rappelés et mis en œuvre en simulation. Ceci conduit à des comparaisons, d'une part entre différentes méthodes de résolution numérique et d'autre part entre différents modèles. Dans le quatrième chapitre, une approche originale propose d'étendre la représentation bond graph issue de la méthodologie Computational Fluid Dynamics au flux de trafic, en utilisant un modèle EDP à deux équations proposé par Jiang
37

Vers le contrôle commande distribué des systèmes de production manufacturiers : approche composant pour la prise en compte de l'architecture de communication dans la modélisation

Masri, Aladdin 10 July 2009 (has links) (PDF)
Les systèmes de production manufacturiers sont une classe des systèmes à événements discrets. Leur taille nécessite de distribuer le logiciel de contrôle sur une architecture industrielle de plusieurs ordinateurs reliés en réseau. Dans ce contexte, il devient essentiel d'être capable d'évaluer l'impact d'une architecture réseau spécifique sur les services des systèmes manufacturiers en termes de la performance et la qualité. Les performances du réseau sous-jacent peuvent notamment nuire à la productivité du système. Dans la méthodologie traditionnelle proposée dans la littérature, cet aspect n'est pas pris en compte au niveau conception. Cependant, la modélisation de tels systèmes est importante pour vérifier certaines propriétés. Dans cette thèse, nous proposons une approche de modélisation par composants à l'aide des réseaux de Petri haut niveau pour la modélisation de certains protocoles de réseaux afin d'évaluer les systèmes manufacturiers comme étant des systèmes distribués. La sélection des réseaux de Petri est justifiée par leur pouvoir d'expression en ce qui concerne la modélisation des systèmes distribués et concurrents. L'approche par composants permet de diminuer la complexité de la modélisation et encourage la généricité, la modularité et la réutilisabilité des composants prêt-à-utiliser. Cela permet de construire facilement de nouveaux modèles et de réduire les coûts de développement de systèmes. En outre, cela peut aider à une meilleure gestion des services et des protocoles et à changer facilement/modifier un élément du système. Notre modélisation permet enfin d'évaluer ces systèmes par le biais de simulations centralisées
38

Contribution à l'algorithmique distribuée : arbres et ordonnancement

Butelle, Franck 17 December 2007 (has links) (PDF)
Nous présentons dans ce mémoire de thèse d'habilitation une étude sur des algorithmes distribués asynchrones de contrôle et d'ordonnancement. Un algorithme de contrôle établit une structure virtuelle sur un réseau de sites communicants. Nous faisons le choix %délibéré de faire un minimum d'hypothèses sur les connaissances de chaque site. De même, nous évitons autant que possible d'utiliser des mécanismes conduisant à des attentes qui peuvent être pénalisantes comme, par exemple, l'utilisation de synchroniseurs. Ces choix conduisent à privilégier les modes de fonctionnement essentiellement locaux. %dépendant le moins possible de l'état du reste du réseau. Nous introduisons toutefois une limite à cette démarche, dans ce travail, nous ne considérons que des algorithmes déterministes. Dans ces circonstances, un problème essentiel de l'algorithmique distribuée est l'établissement d'une structure de contrôle couvrant la totalité du réseau, dans laquelle chaque site distingue certains de ses voisins de façon spécifique. Après avoir rappelé des notions fondamentales en partie I, nous présentons dans la première partie, trois de nos algorithmes de construction d'arbre couvrant avec contraintes, ces dernières apportant une plus grande efficacité à la structure de contrôle établie. En particulier, nous considérons la contrainte de poids total minimum qui caractérise plutôt une recherche économique, celle de diamètre minimum qui concerne l'efficacité à la fois en temps mais aussi évidemment en messages et la contrainte de degré minimal qui permet par exemple d'utiliser des équipements d'interconnection moins coûteux. Dans la troisième partie nous présentons deux de nos heuristiques pour la résolution du problème de l'ordonnancement distribué en ligne, avec arrivées sporadiques, d'abord de tâches indépendantes puis de tâches avec dépendances non cycliques. Nous montrons que là encore, la structure d'arbre peut être utilisée de façon bénéfique. En particulier, dans des réseaux de taille arbitrairement grande, des arbres de plus courts chemins limités aux voisins relativement proches peuvent être utilisés pour définir un concept nouveau et prometteur ,: la Sphère de Calcul. Cette Sphère de Calcul limite le nombre de messages échangés et le temps de calcul. Tout au long de ce mémoire nous présentons des algorithmes nouveaux, voire pionniers dans leurs domaine. De nombreux développements sont possibles, certains déjà réalisés par nous-même ou par d'autres auteurs, d'autres sont des problèmes ouverts (recherche d'algorithmes optimaux par exemple).
39

Traitement personnalisé de requête top-k: des systèmes centralisés aux systèmes décentralisés

Bai, Xiao 08 December 2010 (has links) (PDF)
La révolution Web 2.0 a transformé l'Internet, une infrastructure auparavant en lecture seule, en une plate-forme collaborative en lecture-écriture. La forte augmentation des donnés générées par les utilisateurs des systèmes collaboratifs constitue désormais une source considérable d'informations. Pourtant, effectuer efficacement des recherches dans un tel environnement est devenu plus difficile, en particulier lorsque ces recherches engendrent des ambiguïtés. Personnaliser les recherches permet d'éviter ces écueils en limitant les recherches au sein d'un réseau très réduit de participants ayant des intérêts similaires. Toutefois, les solutions centralisées pour mettre en œuvre cette personnalisation s'avèrent difficile compte tenu du volume important d'informations qui doit être maintenu pour chaque utilisateur. La nature dynamique de ces systèmes, dans lesquels les utilisateurs changent potentiellement souvent d'intérêt, complique la tâche. Cette thèse propose de nouveaux algorithmes permettant d'effectuer des recherches personnalisées de manière efficace dans des systèmes dynamiques, centralisés ou décentralisés, selon deux axes majeurs : (i) la personnalisation hors ligne qui s'appuie sur le comportement passé des utilisateurs et (ii) la personnalisation en ligne qui s'appuie sur le comportement passé et la requête en cours. Nous présentons d'abord l'algorithme P3K, qui décentralise une approche existante et réalise le traitement personnalisé des requêtes top-k hors ligne dans les systèmes pair-à-pair. Ensuite, nous présentons P4Q, une extension de P3K qui améliore les performances du système en termes de stockage, bande passante et la robustesse en distribuant le traitement des requêtes. Les deux algorithmes, P3K et P4Q, reposent sur des protocoles épidémiques pour capturer la similarité implicite entre les utilisateurs et associer ainsi à chaque utilisateur un "réseau personnel" dans lequel traiter la requête. Nos évaluations analytiques et expérimentales démontrent leur efficacité pour le traitement des requêtes top-k, y compris dans les systèmes dynamiques, en particulier que la capacité inhérente de P4Q à faire face aux mises à jours des profils des utilisateurs. Dans le but d'améliorer encore la qualité des résultats pour les requêtes représentant les intérêts émergents des utilisateurs, et donc non représentés dans son profil, nous proposons un modèle hybride d'intérêt, prenant en compte à la fois le profil des utilisateurs mais également la requête elle-même. Nous avons proposé une solution à la fois en centralisé, l'algorithme DT², qui effectue une recherche de type top-k à deux reprises: le premier top-k consiste à sélectionner dynamiquement un sous-réseau (le réseau personnel) le plus adapté à la requête et à l'utilisateur la générant. Le second top-k consiste à effectuer la recherche dans ce sous réseau. L'algorithme DT²P², exécute efficacement la personnalisation en ligne de manière entièrement décentralisée. Les résultats expérimentaux sur des traces réelles de systèmes collaboratifs, montrent que la personnalisation en ligne est prometteuse pour répondre aux préférences diverses des utilisateurs.
40

Wikis sémantiques distribués sur réseaux pair-à-pair

Rahhal, Charbel 09 November 2010 (has links) (PDF)
Le Web 2.0 a montré l'importance des systèmes collaboratifs. Il a permis de transformer des internautes en écrivains du Web. De nombreux outils sociaux tels que les wikis et les blogs sont utilisés par des larges communautés produisant une grande quantité d'informations. Afin d'améliorer la recherche, la navigation et l'interopérabilité, les outils sociaux évoluent en intégrant les technologies du Web sémantique. Les wikis suivent cette tendance et évoluent vers des wikis sémantiques. L'introduction des technologies du Web sémantique dans les outils sociaux pose un certain nombre de problèmes tels que le passage à l'échelle et le support des procédés d'édition collaborative pour garantir la qualité des contenus. Dans ce manuscrit, nous adressons ces problèmes par une instanciation du modèle de réplication optimiste. Dans le cadre des wikis sémantiques, nous répliquons un nouveau type de données composé de pages wikis et d'annotations sémantiques. Nous nous plaçons dans un contexte où le nombre de répliques n'est pas connu et varie à l'exécution à l'instar des réseaux P2P. En tant que système collaboratif, un système de réplication optimiste est correct s'il respecte le modèle de cohérence CCI. Nous proposons Swooki et DSMW, deux instanciations du modèle de réplication optimiste pour les wikis sémantiques assurant la cohérence CCI sur le nouveau type de données répliqué. Swooki est le premier wiki sémantique P2P, il adresse particulièrement les problèmes de passage à l'échelle et de tolérance aux pannes. Tandis que DSMW permet de construire un réseau ami-à-ami sémantique et s'intéresse plus aux problèmes de représentation des procédés.

Page generated in 0.0867 seconds