• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Modélisation des applications distribuées à architecture dynamique : Conception et Validation

Hadj Kacem, Mohamed 13 November 2008 (has links) (PDF)
Nos travaux de recherche consistent à apporter des solutions de modélisation conformément à l'approche MDA. Nos recherches consistent à fournir des solutions permettant de guider et d'assister les activités de modélisation des architectures logicielles. Il s'agit principalement de proposer une démarche de conception orientée modèle permettant de décrire l'architecture logicielle en tenant compte de trois aspects : le style architectural, les opérations de reconfiguration et le protocole de reconfiguration.<br />Nous proposons des notations visuelles permettant de décrire de façon compatible avec UML 2.0 l'architecture logicielle. La technique de description que nous adoptons est orientée règles, basée sur les théories de transformation de graphe, permettant, ainsi, de décrire la dynamique structurelle.<br />Nous proposons une extension d'UML 2.0 par un nouveau profil formé de trois méta-modèles. Nous proposons aussi une approche de validation basée sur des règles intra-modèle et des règles inter-modèles. Nous adoptons également une approche de vérification. Cette approche permet, dans une première étape, une transformation automatique du style architectural et de chaque opération de reconfiguration vers le langage Z. Elle permet dans une deuxième étape, de vérifier la consistance du style architectural et la conformité de l'évolution d'une architecture vis-à-vis de son style architectural. Nous utilisons le système de preuve Z/EVES. Finalement, nous proposons une démarche de modélisation des architectures logicielles dynamiques, appelée X, permettant de décrire les différentes étapes pour modéliser l'architecture logicielle. La démarche proposée est inspirée de la méthode MDA et 2TUP.<br />Le profil et la démarche X que nous avons proposés ont fait l'objet d'une implémentation et d'une intégration, sous forme de plug-in java, dans l'atelier d'aide à la conception FUJABA. Le plug-in implémenté est disponible sur l'URL : http://www.laas.fr/~khalil/TOOLS/X.zip.
252

Détection d'intrusions comportementale par diversification de COTS : application au cas des serveurs web

Majorczyk, Frédéric 03 December 2008 (has links) (PDF)
L'informatique et en particulier l'Internet jouent un rôle grandissant dans notre société. Un grand nombre d'applications critiques d'un point de vue de leur sécurité sont déployées dans divers domaines comme le domaine militaire, la santé, le commerce électronique, etc. La sécurité des systèmes informatiques devient alors une problématique essentielle tant pour les individus que pour les entreprises ou les états. Il est donc important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en œuvre des outils permettant de détecter toute violation de la politique de sécurité, c'est-à-dire toute intrusion. Ces outils sont appelés des systèmes de détection d'intrusions ou IDS. Souvent en collaboration avec les IDS, il est possible de mettre en place des outils et techniques de tolérance aux intrusions. Ces outils et techniques ont pour objectif que les intrusions affectant un composant du système n'entrainent pas de violations de la politique de sécurité du système global.<br />Notre travail s'inscrit dans le domaine de la détection d'intrusions, de manière essentielle, et permet une certaine tolérance aux intrusions. Contrairement aux méthodes de détection classiques en détection comportementale pour lesquelles il est nécessaire de définir et construire un modèle de référence du comportement de l'entité surveillée, nous avons suivi une méthode issue de la sureté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l'architecture. Nous proposons l'utilisation de COTS en remplacement des versions spécifiquement développées car développer N-versions est couteux et est réservé à des systèmes critiques du point de vue de la sécurité-innocuité. D'autres travaux et projets ont proposé des architectures fondées sur ces idées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection d'intrusions les spécificités liées à l'utilisation de COTS en lieu et place de versions spécifiquement développées et proposé deux solutions pour parer aux problèmes induits par ces spécificités. Nous avons proposé deux approches de détection d'intrusions fondées sur cette architecture : l'une suivant une approche de type boite noire et l'autre suivant une approche de type boite grise. Notre méthode de type boite grise peut, en outre, aider l'administrateur de sécurité à effectuer un premier diagnostic des alertes. Nous avons réalisé une implémentation de ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et de la fiabilité de ces deux IDS.
253

Algorithmes parallèles auto-adaptatifs et applications

Traoré, Daouda 19 December 2008 (has links) (PDF)
Cette thèse porte sur la construction d'algorithmes et de programmes parallèles qui s'adapte automatiquement à la plate-forme d'exécution (nombre de processeurs, vitesses des processeurs, ...) et ce, de manière dynamique inconsciente (en anglais oblivious). La construction que nous proposons est basée sur la technologie développée au sein de l'équipe Moais consistant au couplage récursif et dynamique : d'un algorithme séquentiel (qui minimise le nombre d'opérations, mais pas le temps parallèle) ; et d'un algorithme parallèle à grain fin (qui minimise le temps parallèle sur un nombre non borné de ressources, mais pas le nombre d'opérations). Les deux algorithmes sont entrelacés à la volée par un ordonnancement à grain fin de type vol de travail. Outre une analyse théorique du couplage (borne inférieure, optimalité asymptotique), nous proposons une implantation " générique " que nous instancions sur différents exemples (un nouvel algorithme parallèle adaptatif de calcul des préfixes, algorithmes adaptatifs de fusion, de partition et tris, plusieurs algorithmes adaptatifs de la librairie standard C++). Dans cette thèse, nous proposons aussi un nouvel algorithme parallèle statique optimal du calcul des préfixes.
254

Heuristiques pour la résolution du problème d'alignement multiple

Derrien, Vincent 07 March 2008 (has links) (PDF)
L'alignement multiple est une opération permettant de mettre en évidence la similarité entre plusieurs séquences. Il est notamment utilisé pour la reconstruction de phylogénies, la recherche de motifs et la prédiction de structures. Cette thèse s'intéresse au développement de nouveaux algorithmes pour ce problème particulièrement difficile, et introduit deux algorithmes progressifs ayant pour point commun de réaliser un alignement multiple par alignements successifs de groupes de séquences.<br />Le premier algorithme, Plasma utilise une méthode de descente, dont chaque itération consiste à réaliser des insertions de colonnes de brèches dans deux alignements multiples à aligner. Le second algorithme, Plasma II , est basé sur le principe de la programmation dynamique. Nous généralisons ici l'algorithme utilisé pour l'alignement de deux séquences, et étendons le cadre de la programmation dynamique `a l'alignement de deux alignements multiples. Cet algorithme ainsi que plusieurs variantes sont intensivement évalués sur les jeux d'essais de Balibase, montrant des résultats encourageants, voire compétitifs, par rapport à certains algorithmes de référence comme Clustal W, tant sur la qualité de l'alignement que sur le temps de calcul.
255

Modélisation Minplus et Commande du Trafic de Villes Régulières.

Farhi, Nadir 03 June 2008 (has links) (PDF)
L'objectif de cette thèse est la modélisation et la commande du trafic. Je considère des modèles microscopiques du trafic pour dériver des relations entre des variables macroscopiques du trafic. Plus précisément, il s'agit de dériver le diagramme fondamental du trafic 2D, qui donne la relation entre la densité et le flot des véhicules. Ce diagramme est utilisé, par exemple, pour déterminer la densité des véhicules qui maximise le flot. Cette information peut aussi être utilisée pour la commande du trafic 2D. Les modèles mathématiques sont basés sur la commande optimale déterministe ou stochastique.<br /><br />La première partie de la thèse est sur le trafic 1D. Il s'agit de généraliser un modèle déterministe de trafic basé sur l'algèbre minplus, qui donne le diagramme fondamental du trafic sur une route. La généralisation permet de réaliser une large classe de diagrammes fondamentaux.<br /><br />Dans la deuxième partie, j'étudie les systèmes dynamiques additivement homogènes de degré 1. En effet, tous les systèmes dynamiques donnés dans ce travail sont additivement homogènes de degré 1. Je m'intéresse dans cette partie à l'existence et à l'unicité de taux de croissance et de valeurs propres additives associées à ces systèmes. Je parts du cas général où zéro, un ou plus de taux de croissance et de valeurs propres peuvent exister, et où des comportement chaotiques peuvent apparaître. Je rappelle les résultats existants dans le cas où on suppose que le systèmes dynamique est, en plus, monotone, et dans le cas ou il est aussi convexe. A la fin de cette partie, je caractérise une classe de systèmes dynamiques additivement homogène de degré 1, non nécessairement monotone, mais dont le comportement asymptotique peut être décrit.<br /><br />La troisième partie consiste à généraliser un modèle de trafic 1D basé sur les réseaux de Petri et l'algèbre minplus, dans le but de modéliser des intersections, et puis dériver le diagramme fondamental du trafic 2D. Une intersection peut être gérée de plusieurs façons, et peut être considérée avec ou sans possibilité de tourner (pour les véhicules). Plusieurs modèles tenant en compte ses hypothèses sont donnés dans cette partie.<br /><br />Le modèle le plus exploré ici est celui de deux routes circulaires avec une intersection gérée par la priorité à droite, et avec possibilité de tourner. Dans ce cas, et sous certaines conditions, le problème de valeur propre additive associé au système dynamique peut être résolu. Le taux de croissance du système dynamique, qui correspond au flot moyen des véhicules est obtenu numériquement. En comparant la valeur propre obtenue théoriquement et le flot moyen donné numériquement, j'ai conclus que les deux quantités, qui sont données en fonction de la densité des véhicules, sont très proches, et sont égales en plusieurs valeurs de la densité. Ainsi, la valeur propre représente une bonne approximation du diagramme fondamental du trafic 2D.<br /><br />D'autres approches de gestion d'intersections consiste à les commander moyennant des feux de signalisation. Une évaluation de la commande de l'intersection peut se baser sur le diagramme fondamental obtenue pour chacune des approches considérées. Une comparaison des différentes approches est donnée. <br /><br />Dans la quatrième partie j'ai développé un code en Scilab qui facilite la construction informatique de grands réseaux de trafic routier. Il s'agit de définir des systèmes élémentaires et des opérateurs sur l'ensemble de ces systèmes, et puis de combiner des systèmes basique pour construire de grands systèmes.<br /><br />La dernière partie est sur la commande du trafic à deux modes: trafic des véhicules particulier, et trafic des véhicules de transport en commun. L'idée est de déterminer un plan de feux de signalisation qui favorise le trafic des véhicules de transport en commun.
256

Concurrence et Conscience de Groupe dans l'Édition Collaborative sur Réseaux Pair-à-Pair.

Alshattnawi, Sawsan 13 November 2008 (has links) (PDF)
Récemment, les wikis sont devenus les outils d'édition collaborative les plus populaires. Ils doivent maintenant faire face à une forte augmentation en quantité et complexité des données gérées en nombre d'utilisateurs. Pour répondre à ce problème, le passage d'une architecture client/serveur vers une architecture décentralisée sur réseau pair-à-pair est une voie possible. Elle pose cependant des problèmes liés à la concurrence des mises à jour sur des sites distants. Ce document décrit deux contributions à cette problématique. La première contribution propose un mécanisme totalement décentralisé pour la conscience de la concurrence dans une édition collaborative sur réseaux P2P. Son rôle est de permettre aux visiteurs d'un wiki d'avoir conscience du statut d'une page vis-à-vis de la concurrence - s'agit-il d'une page éditée ou fusionnée ? - et dans le cas d'une page fusionnée, d'avoir une vision des zones de la page touchées par la fusion. Ce mécanisme repose sur un détecteur de concurrence dont le principe consiste à étiqueter les patchs échangés entre les serveurs. La deuxième contribution porte sur la visualisation d'un historique concurrent. La visualisation proposée se base sur la visualisation linéaire classique: chaque site affiche la séquence locale de versions dans l'ordre où elles sont apparues, et complète cet historique avec des informations permettant de repérer les états édités et fusionnés et les parties concurrentes dans l'histoire.
257

Découverte et agrégation de topologies de réseaux: application au contrôle d'admission

Htira, Walid 12 November 2008 (has links) (PDF)
La thèse se situe dans le domaine de la conception des architectures capables de garantir la QoS dans des réseaux multi-domaines et multi-technologies. Elle porte plus particulièrement sur les problèmes liés à l'acquisition de topologie pour alimenter les fonctions de contrôle d'admission d'appel. En effet, il faut que l'entité responsable de la fonction de CAC (Call Admission Control) détienne une cartographie réelle et synchrone du domaine qu'elle gère. Si dans certains cas d'utilisation, la topologie peut être renseignée et gérée manuellement, il est impossible d'accomplir une telle tâche sur de grandes topologies. Différentes solutions existent. Bien que ces techniques soient efficaces dans certains cas d'utilisation, elles sont en fait soit incomplètes soit inadaptées à nos besoins. Pour répondre à cette problématique nous avons d'abord implémenté notre propre modèle d'acquisition intégrée des données topologiques des couches 2 et 3. Il s'agit du protocole STAMP (Simple Topology Annoucement and Management Protocol), un protocole de signalisation permettant la diffusion des informations de topologie et de qualité de service dans un réseau quelque soit sa taille. Pour généraliser et optimiser notre modèle, nous avons ensuite développé et proposé des nouvelles méthodes d'agrégation des topologies réseau, en particulier appliquées aux topologies précédemment obtenues, afin de réduire, en conservant les paramètres de QoS, la volumétrie de la base de données et améliorer les performances de la CAC.
258

ELKAR - Ré-Ingénierie d'applications pour la mise en oeuvre de la coopération : Méthodologie et Architecture

Roose, Philippe 14 December 2000 (has links) (PDF)
Il émerge des entreprises une forte demande d'évolution de leurs applications informatiques vers plus de coopération. Le problème est de réaliser cette migration tout en gardant la qualité de l'existant rompu aux difficultés rencontrées. Ceci suppose une ré-ingénierie de ces applications. Dans certains cas, des solutions provisoires et non satisfaisantes ont été apportées sous forme de coopération externe. Celle-ci consiste par des moyens humains, logiciels et matériels, à mettre en relation certaines entités produisant de l'information à celles la nécessitant. Cette coopération externe présente divers inconvénients : souvent lente, peu efficace, peu souple, et demandant des moyens parfois disproportionnés par rapport aux gains obtenus. En automatisant la coopération nous pensons pouvoir éliminer l'ensemble des problèmes énumérés ci-dessus tout en améliorant tant du point de vue qualitatif que quantitatif la part prise par la coopération. <br />Nous allons pour cela proposer une méthode basée sur une organisation de modules opératoires en groupes de travail dynamiques dont la composition peut évoluer au cours du temps. Cette méthode permettra également de mettre en évidence les éléments de coopération, de les mettre en relation et de les composer éventuellement afin d'en créer de nouveaux plus riches sémantiquement et donc plus à même d'être utilisés dans un environnement coopératif. <br />Afin de rendre opérationnelle notre méthode, la dernière étape proposée va permettre d'obtenir des règles de type ÉCA à partir d'un langage de spécification associé à la méthode. Ces règles permettront la mise en œuvre concrête de la coopération. Elles seront exécutées par la plate-forme coopérative distribuée que nous avons développée et qui permet à la fois la gestion des groupes de travail dynamiques et la circulation des éléments de coopération.<br />Notre approche globale permet la mise en œuvre de la coopération par ré-ingénierie de l'application sans modifier les modules opératoires existants. Nous proposons une méthode intégralement dérivable (après vérification formelle) en règles, elles même intégrées à une plate-forme qui permet la mise en coopération.
259

De la réutilisation à l'adaptabilité

Roose, Philippe 27 November 2008 (has links) (PDF)
Depuis plusieurs années, l'évolution naturelle des applications vers la distribution a mis en évidence le besoin d'informations autre que celles uniquement nécessaires aux traitements. C'est ainsi qu'au fil du temps, les concepteurs et développeurs ont dû intégrer à leurs applications des tâches d'acquisition de l'environnement d'exécution permettant ainsi aux applications dans un premier temps de prendre en compte le contexte, puis de devenir « sensibles au contexte » et d'adapter leurs traitements en conséquence puis, dans un second temps, d'évoluer par reconfigurations dynamiques de manière à répondre au mieux aux sollicitations.<br /><br />Le contexte peut se diviser en trois couches. La première appelée « type de contexte » permet de réaliser l'acquisition du contexte, la deuxième, appelée « moyens de mise en œuvre de la gestion du contexte » est chargée de la gestion du contexte, enfin, la troisième couche offre les mécanismes permettant l'adaptation au contexte.<br /><br />Le premier chapitre de ce mémoire est intitulé « Processus de réingénierie » porte principalement sur la première phase d'acquisition des informations contextuelles et plus particulièrement sur les applications totalement (réingénierie) ou partiellement existantes comme les COTS.<br />Dans un premier temps, l'objectif est de réaliser une analyse des informations produites par des modules logiciels afin de prendre en compte mais également de fabriquer (si nécessaire) automatiquement à l'aide de connecteurs - lorsque c'est possible - des informations contextuelles de plus haut niveau. Dans un second temps, je me suis intéressé à l'intégration de Composants sur Etagères (ou COTS Products). L'objectif est ici une analyse des assemblages de COTS sélectionnés afin de s'assurer de la faisabilité du déploiement, et donc de la réalisation de l'application. Nous nous situons ici également dans le domaine de l'acquisition des informations contextuelles dans le sens où nous ne gérons que la phase d'acquisition du contexte et de production d'informations permettant des prises de décisions concernant la possibilité d'assemblage des COTS Products. <br /><br />Le deuxième chapitre intitulé « Outils d'adaptation permettant la prise en compte du contexte » est transversal aux trois couches précédemment présentées. Un modèle de plate-forme de supervision réflexive (Kalinahia) y est présenté afin de proposer les services nécessaires à la gestion du contexte. Un modèle de composant supervisable (Osagaia) ainsi qu'un modèle de connecteur (Korrontea) y est également présenté. Ces deux modèles offrent les mécanismes d'adaptation, de migration et de composition nécessaires à l'adaptation de l'application. <br /><br />Le troisième chapitre intitulé « Contexte et Qualité de service » présente comment la notion de qualité de service, intimement liée à celle de contexte, est intégrée dans nos travaux. En effet, fournir la qualité de service adéquate à un utilisateur ou, plus généralement à une application, demande d'avoir une connaissance à la fois du contexte de l'application mais aussi du contexte de l'utilisateur. Aussi, je propose un modèle formel de la qualité de service selon les deux critères intrinsèques (fonctionnalité) et contextuels (dans et sous quelles conditions).<br /><br />Enfin, le quatrième chapitre « Représentation des applications et de leur qualité de service » a pour objectif de proposer une modélisation d'applications sensibles au contexte ayant pour but d'assurer une qualité de service aux utilisateurs. L'approche formelle utilise des graphes orientés et prend en considération la qualité de service. Les différents graphes proposés vont du niveau conceptuel au niveau d'implantation permettant de générer directement les graphes d'implantation et de déploiement qui seront ensuite utilisés par la plateforme Kalinahia pour la reconfiguration dynamique de l'application. <br />L'objectif étant d'assurer une qualité de service acceptable (la meilleure étant un problème NP-Complet), le contexte de qualité est également pris en compte tout au long de la démarche et surtout lors des étapes de reconfiguration puisque c'est une modification du contexte qui déclenchera la modification du déploiement de l'application. L'objectif est de continuer à assurer une qualité de service « acceptable » malgré le contexte mouvant en provoquant des reconfigurations dynamiques de l'application.
260

Fédération et amélioration des activités documentaires par la pratique d'annotation collective

Cabanac, Guillaume 05 December 2008 (has links) (PDF)
Les activités documentaires couramment réalisées sur les documents papier sont aujourd'hui transposées sur leurs homologues électroniques. Ainsi, une kyrielle de systèmes permet de mener à bien les activités liées aux documents. Ils permettent notamment de rechercher de l'information utilisée pour rédiger un document qui peut être ensuite diffusé, exploité et organisé par ses lecteurs dans leur espace documentaire. Notre étude des systèmes existants a permis de révéler deux limites principales. Premièrement, un système ne répond généralement qu'à une seule, voire à deux activités. Ce cloisonnement des activités est préjudiciable à la fois pour les usagers (qui doivent maîtriser et jongler entre de nombreux outils) et pour les systèmes (qui ne possèdent qu'une représentation parcellaire des besoins des usagers). Deuxièmement, les systèmes n'exploitent pas les résultats des activités documentaires des membres organisationnels.<br /><br />Notre contribution comprend deux volets. Premièrement, nous proposons un modèle fédérant les activités documentaires autour de la pratique d'annotation collective. Des processus collectifs y sont associés afin d'exploiter chaque activité documentaire pour enrichir les autres, apportant ainsi une assistance à chaque individu en tirant parti du groupe, et vice versa. Le but de cette approche originale est double : simplifier l'accès et l'appropriation des documents tout en anticipant les besoins de l'usager pour lui offrir une assistance non intrusive. Deuxièmement, nous proposons d'exploiter les espaces documentaires des membres organisationnels. Bien qu'ils contiennent des informations à haute valeur pour l'organisation, collectées au prix de coûteux efforts, ces espaces demeurent paradoxalement en sommeil. Afin de tirer parti de ces espaces documentaires, nous proposons une interface multi-facettes d'accès au capital documentaire d'une organisation. Cette interface permet l'exploration des documents et individus de l'organisation selon différents axes et niveaux de granularité. Nos propositions ont été validées par différentes expérimentations ainsi que par le développement du prototype TafAnnote qui souligne la faisabilité de notre approche fédérant les activités documentaires autour de l'annotation collective.

Page generated in 0.102 seconds