• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 12
  • 3
  • Tagged with
  • 52
  • 32
  • 32
  • 17
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Utilisation d'une ontologie et du réseau social Facebook pour la modélisation du contexte pour les applications mobiles dépendantes du contexte

Loubiri, Ahmed Said 11 1900 (has links) (PDF)
L'informatique dépendante du contexte est un paradigme de l'informatique qui tient en considération les éléments de l'environnement d'une entité (utilisateur, périphérique, etc.). Ce paradigme, qui prend une place de plus en plus importante grâce au développement rapide des technologies mobiles, a mené à la mise en place de différentes architectures et de divers modèles qui fournissent l'information sur le contexte. Au niveau des architectures plusieurs solutions ont été proposées mais présentent tout de même certaines limites notamment, au niveau de la modélisation du contexte. De nombreux modèles ont été proposés dépendamment des taches à réaliser, mais se concentrent sur les capteurs physiques comme source principales des données de contexte et ignorent les informations qu'on pourrait acquérir de la fouille des différents profils en ligne d'un utilisateur. Dans ce travail, nous proposons une architecture middleware pour le traitement et la gestion des informations du contexte pour un usager mobile en exploitant les données de Facebook comme source d'informations de contexte. Ainsi, nous analysons le réseau Facebook et le représentons sous forme de modèle ontologique. Nous fusionnons, ce modèle avec une ontologie du contexte relative à une simple application du domaine médical. Le modèle obtenu constitue notre solution proposée pour l'exploitation des données disponibles sur les réseaux en ligne dans la modélisation d'un contexte médical simplifié. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : informatique mobile, modélisation du contexte, application dépendantes du contexte, architecture middleware, réseaux sociaux, modélisation de l'ontologie, ontologie du contexte.
22

Une démarche à granularité extrêmement fine pour la construction de canevas intergiciels hautement adaptables : application aux services de transactions

Rouvoy, Romain 08 December 2006 (has links) (PDF)
Cette thèse adresse la problématique de la construction des intergiciels hautement adaptables. Ces intergiciels se caractérisent par une grande diversité des fonctionnalités fournies. Dans le domaine du transactionnel, cette diversité concerne non seulement les modèles de transactions, les protocoles de contrôle de concurrence et de reprise après défaillance, mais aussi les normes et les standards d'intégration. Notre proposition consiste à définir un canevas intergiciel capitalisant la diversité du domaine transactionnel, et permettant de construire des services de transactions hautement adaptables. Ce type de services requiert la mise en place d'une démarche de construction à granularité extrêmement fine afin de pouvoir adapter les nombreuses caractéristiques de l'intergiciel.<br /><br />Nous proposons donc de compléter l'approche issue des exogiciels avec quatre nouveaux éléments. Ainsi, nous définissons le modèle de programmation Fraclet à base d'annotations pour favoriser la programmation des abstractions fonctionnelles de l'intergiciel. Nous proposons ensuite un langage de description et de vérification de motifs d'architecture pour fiabiliser la modélisation des abstractions architecturales. Ces deux premiers éléments servent à la conception d'un canevas intergiciel à base de composants utilisant les motifs de conception comme structure architecturale extensible. Enfin, nous décrivons les configurations possibles en utilisant différents modèles de haut niveau dédiés aux caractéristiques de l'intergiciel. Nous illustrons ces concepts en présentant GoTM, un canevas intergiciel à composants pour la construction de services de transactions hautement adaptables.<br /><br />Notre approche est validée au travers de trois expériences originales. Tout d'abord, nous proposons de faciliter l'intégration des services de transactions dans les plates-formes intergicielles par la définition de politiques de démarcation transactionnelle indépendantes de la plate-forme et du type de service intégré. Ensuite, nous définissons un service de transactions composant plusieurs personnalités simultanément pour faciliter l'interopérabilité transactionnelle d'applications hétérogènes. Enfin, nous sommes en mesure de sélectionner différents protocoles de validation à deux phases pour optimiser le temps d'exécution des transactions face aux changements des conditions d'exécution de l'application.
23

Gestion de bout en bout de la qualité de contexte pour l'internet des objets : le cadriciel QoCIM / End-to-end management of quality of context for the internet of things : the QoCIM framework

Marie, Pierrick 30 November 2015 (has links)
Cette thèse se situe dans le cadre du projet INCOME (INfrastructure de gestion de COntexte Multi-Échelle pour l'Internet des Objets) financé par l'ANR (Appel INFRA 2011). L'objectif de ce projet est de fournir un cadriciel pour le développement et le déploiement d'un gestionnaire de contexte. Les entités logicielles d'acquisition, de traitement, de dissémination et de présentation d'informations de contexte, qui constituent un gestionnaire de contexte, doivent être construites et déployées au-dessus d'infrastructures technologiques hétérogènes et interconnectées. Ainsi, les cibles incluent les réseaux de capteurs, les systèmes ambiants, les dispositifs mobiles ou encore les serveurs du cloud, et de façon plus globale l'Internet des Objets (IoT). Les travaux menés dans cette thèse concernent plus particulièrement la gestion " de bout en bout " de la Qualité de Contexte (QoC) au sein de cette nouvelle génération de gestionnaires de contexte à déployer sur l'IoT à grande et multiples échelles. La qualité de l'information de contexte relevant de critères tels que la précision, la fraîcheur, la complétude, la granularité... Par gestion de la QoC, nous faisons référence à l'ensemble des opérations qui, tout le long du cycle de vie d'une information de contexte, permettent de gérer sa qualification, mais également d'influer, en fonction de cette qualité, sur sa dissémination et sa livraison aux applications sensibles au contexte. Actuellement des solutions de gestion de la QoC existent mais restent ad hoc à des environnements ambiants particuliers ou des applications spécifiques. Elles s'avèrent inadéquates en termes d'ouverture, de généricité et de calculabilité pour des environnements fortement hétérogènes et dynamiques tels que l'IoT où il n'y a plus de couplages forts et figés entre producteurs ou consommateurs d'informations de contexte. QoCIM (QoC Information Model) constitue le cœur de notre contribution. Il s'agit d'un méta-modèle dédié qui permet, de façon unifiée et ouverte, de définir des critères de QoC simples et composites. Basées sur QoCIM, des opérations de gestion de la QoC ont été identifiées et spécifiées. Elles permettent d'associer des critères de QoC, sous forme de métadonnées, à l'information de contexte, de caractériser les métriques et les unités pour leur valuation, d'inférer des critères de QoC de plus haut niveau d'abstraction, ou encore d'exprimer des conditions de filtrage portant sur de tels critères et/ou leurs valeurs. Un outillage logiciel d'édition de modèles QoCIM et une API en Java sont proposés aux développeurs pour facilement intégrer la gestion de tout critère de QoC lors du développement d'entités d'acquisition, de traitement, de livraison et de propagation d'informations de contexte et des applications sensibles au contexte. L'utilisation de ce cadriciel a été expérimentée, à la fois en phases de conception et d'exécution, sur un scénario de pollution urbaine. Des évaluations de performances ont été également menées et ont montré que le surcoût apporté par la prise en considération des niveaux de QoC pour le routage des informations de contexte était acceptable. Enfin, une solution d'auto-(re)configuration des opérations de gestion de la QoC a été également conçue et prototypée. / The objective of the ANR INCOME project is to provide a framework for the development and the deployment of a context manager. A context manager is composed of software entities, which acquire, process, disseminate or deliver context data. These software entities have to be built and deployed over interconnected heterogeneous ICT infrastructures, which include sensor networks, ambient systems, mobile devices, cloud servers and, more generally, the Internet of Things (IoT). Related to this project, the research work presented in this thesis concerns more specifically the end-to-end management of Quality of Context (QoC) within the new generation of context managers that have to be deployed at large and multiple scales over the IoT. Quality of context data refers to criteria like accuracy, freshness, completeness or granularity. As for QoC management, it deals with all the operations that allow, throughout the life cycle of context data, to manage their qualification, but also to impact, according to this quality, on its dissemination and delivery to context-aware applications. Current QoC management solutions are dedicated to particular ambient environments or to specific applications. They are limited in terms of openness, genericity and computationability, properties required by greatly heterogeneous and dynamic IoT-based environments, in which producers and consumers of context data are no more static and highly coupled. Our contribution relies on QoCIM (QoC Information Model), a meta-model dedicated to define, in a uniform and open way, any atomic or composite QoC criterion. Based on QoCIM, some QoC management operations have been identified and specified. These operations allow to associate criteria of QoC, in the form of metadata, with the information of context; to characterize the metrics and units for their valuation; to infer QoC criteria of a higher level of abstraction; or even to express filtering conditions for such criteria or their values. A software tool for editing QoCIM models and a Java API are provided to developers to easily implement the management of any QoC criterion for their software entities that acquire, process, deliver or propagate context data, or their context-sensititive application. The use of this framework was experimented, both at design time and at run time, on a scenario related to urban pollution. Benchmarking was also led and showed that the additional cost brought when considering QoC in context information routing was acceptable. Finally, a solution for self-(re)configuring QoC management operations was also designed and prototyped.
24

Toward an autonomic engine for scientific workflows and elastic Cloud infrastructure / Etude et conception d’un système de gestion de workflow autonomique

Croubois, Hadrien 16 October 2018 (has links)
Les infrastructures de calcul scientifique sont en constante évolution, et l’émergence de nouvelles technologies nécessite l’évolution des mécanismes d’ordonnancement qui leur sont associé. Durant la dernière décennie, l’apparition du modèle Cloud a suscité de nombreux espoirs, mais l’idée d’un déploiement et d’une gestion entièrement automatique des plates-formes de calcul est jusque la resté un voeu pieu. Les travaux entrepris dans le cadre de ce doctorat visent a concevoir un moteur de gestion de workflow qui intègre les logiques d’ordonnancement ainsi que le déploiement automatique d’une infrastructure Cloud. Plus particulièrement, nous nous intéressons aux plates-formes Clouds disposant de système de gestion de données de type DaaS (Data as a Service). L’objectif est d’automatiser l’exécution de workflows arbitrairement complexe, soumis de manière indépendante par de nombreux utilisateurs, sur une plate-forme Cloud entièrement élastique. Ces travaux proposent une infrastructure globale, et décrivent en détail les différents composants nécessaires à la réalisation de cette infrastructure :• Un mécanisme de clustering des tâches qui prend en compte les spécificités des communications via un DaaS ;• Un moteur décentralisé permettant l’exécution des workflows découpés en clusters de tâches ;• Un système permettant l’analyse des besoins et le déploiement automatique. Ces différents composants ont fait l’objet d’un simulateur qui a permis de tester leur comportement sur des workflows synthétiques ainsi que sur des workflows scientifiques réels issues du LBMC (Laboratoire de Biologie et Modélisation de la Cellule). Ils ont ensuite été implémentés dans l’intergiciel Diet. Les travaux théoriques décrivant la conception des composants, et les résultats de simulations qui les valident, ont été publié dans des workshops et conférences de portée internationale. / The constant development of scientific and industrial computation infrastructures requires the concurrent development of scheduling and deployment mechanisms to manage such infrastructures. Throughout the last decade, the emergence of the Cloud paradigm raised many hopes, but achieving full platformautonomicity is still an ongoing challenge. Work undertaken during this PhD aimed at building a workflow engine that integrated the logic needed to manage workflow execution and Cloud deployment on its own. More precisely, we focus on Cloud solutions with a dedicated Data as a Service (DaaS) data management component. Our objective was to automate the execution of workflows submitted by many users on elastic Cloud resources.This contribution proposes a modular middleware infrastructure and details the implementation of the underlying modules:• A workflow clustering algorithm that optimises data locality in the context of DaaS-centeredcommunications;• A dynamic scheduler that executes clustered workflows on Cloud resources;• A deployment manager that handles the allocation and deallocation of Cloud resources accordingto the workload characteristics and users’ requirements. All these modules have been implemented in a simulator to analyse their behaviour and measure their effectiveness when running both synthetic and real scientific workflows. We also implemented these modules in the Diet middleware to give it new features and prove the versatility of this approach.Simulation running the WASABI workflow (waves analysis based inference, a framework for the reconstruction of gene regulatory networks) showed that our approach can decrease the deployment cost byup to 44% while meeting the required deadlines.
25

Home SOA : Composition contextuelle de Services dans les Réseaux d'Equipements pervasifs

Bottaro, André 12 December 2008 (has links) (PDF)
Les équipements électroniques envahissent progressivement l'univers quotidien. D'aucuns souhaiteraient que ces équipements puissent intelligemment réagir à l'activité de l'utilisateur afin de l'assister dans ces activités de tous les jours. Le domaine de l'Informatique Pervasive adresse la vision de ce monde naturellement numérique assistant les individus sans être intrusif.<br /><br />Face aux défis de l'Informatique Pervasive dans les réseaux locaux, notamment la distribution, l'hétérogénéité et la dynamique des équipements, cette thèse répond par une ligne de conduite et l'approche logicielle Home SOA. Cette ligne de conduite distingue les situations où les solutions protocolaires sont pertinentes et ramène les autres situations à des problèmes de génie logiciel. Parmi les solutions protocolaires, la proposition d'une interface uniforme de gestion de cycle de vie logiciel dans le Comité de Travail UPnP Device Management est une des contributions importantes. <br /><br />Le Home SOA est l'association de technologies de développement modulaire et d'un ensemble de patrons de conception orientés objets. Au-delà de l'orientation objet, le Home SOA exploite les modèles récents de composants à services et le concept de plateforme de services. Les pilotes orientés service masquent les aspects distribués tout en réifiant la dynamique des entités pervasives sur la plateforme. Les pilotes raffinés adaptent les objets mandataires dans des interfaces à la sémantique du domaine d'application visé. La contextualisation des services de la plateforme alliée à une automatisation de la sélection de service achève de simplifier le développement d'applications pervasives. Le cadriciel est implémenté au-dessus de la plateforme OSGi et est validé par la réalisation d'applications conscientes du contexte et mixant des domaines d'applications distincts dans le réseau domestique.
26

Plate-forme de composants logiciels pour la coordination des adaptations multiples en environnement dynamique

Chefrour, Djalel 22 November 2005 (has links) (PDF)
L'objectif de cette thèse est de contribuer au développement de méthodes et d'outils<br />pour l'adaptation de composants logiciels et pour leur coordination en environnement<br />dynamique.<br />Nous proposons une capture des mécanismes de l'adaptabilité dans un modèle de<br />composants générique basé sur la réflexivité et les techniques objet. Ces composants<br />reposent sur un service de surveillance de l'environnement et sur un intergiciel de coordination<br />des adaptations. La coordination inclut la gestion des dépendances entre les<br />composants interagissants et/ou concurrents.<br />En instaurant la séparation des préoccupations, notre approche facilite la tâche du<br />développeur à qui nous offrons des langages déclaratifs pour spécifier les politiques qui<br />contrôlent les adaptations des composants et leur coordination dans des scripts séparés.<br />Nous avons montré l'utilité de notre modèle, appelé Aceel, en l'utilisant pour développer<br />une application vidéo et un navigateurWeb adaptables en environnement mobile.
27

Intergiciel pour l'exécution efficace et fiable d'applications distribuées dans des grilles dynamiques de très grande taille

Jeanvoine, Emmanuel 27 November 2007 (has links) (PDF)
L'émergence des grilles de calcul permet à la communauté scientifique d'envisager l'accès à une puissance de calcul jusqu'à présent inégalée. Toutefois, les caractéristiques d'une grille telles que la grande échelle, la volatilité des nœuds qui la composent ou encore leur hétérogénéité rendent son utilisation complexe. Cette thèse étudie la conception de services de niveau système pour l'exécution d'applications distribuées dans des grilles de très grande taille. Grâce à une approche complètement distribuée et générique, notre système peut fédérer les ressources de n'importe quel type de grille, même ceux composés de ressources volatiles et hétérogènes. Afin de simplifier l'utilisation d'une grille, nous proposons d'offrir aux utilisateurs une vue de type système à image unique qui permet d'occulter la distribution des ressources. Nous proposons également des services permettant d'exécuter une large gamme d'applications distribuées de façon efficace et fiable.
28

Contribution au Déploiement d'un Intergiciel Distribué et Hiérarchique, Appliqué aux Simulations Cosmologiques

Depardon, Benjamin 06 October 2010 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'exécution d'applications sur les environ- nements hétérogènes et distribués que sont les grilles de calcul. Nous étudions de bout en bout le processus permettant à des utilisateurs d'exécuter des applications scientifiques complexes. Les contributions de cette thèse se situent donc à plusieurs niveaux. 1) Déploiement d'inter- giciel hiérarchique : nous proposons dans un premier temps un modèle d'exécution pour les intergiciels hiérarchiques. À partir de ce modèle, nous présentons plusieurs heuristiques pour définir automatiquement la meilleure hiérarchie en fonction des exigences des utilisateurs et du type de plate-forme. Nous évaluons la qualité de ces heuristiques en conditions réelles avec l'intergiciel Diet. 2) Partitionnement de graphe : nous proposons un algorithme distribué et auto-stabilisant pour partitionner un graphe quelconque ayant des arêtes pondérées entre les nœuds. Le partitionnement est réalisé en fonction des distances pondérées entre les nœuds et forme des grappes au sein desquelles les nœuds sont à une distance maximale k d'un nœud élu dans la grappe. 3) Ordonnancement : nous étudions l'ordonnancement de tâches indépen- dantes sous des contraintes de limitation d'utilisation des ressources. Nous définissons des formulations en programme linéaire pour résoudre ce problème dans deux cas : lorsque les tâches arrivent toutes en même temps et lorsqu'elles ont des dates d'arrivée. 4) Simulations cosmologiques : nous avons étudié le comportement d'applications nécessaires à l'exécution de workflows de simulations cosmologiques. Puis, en se basant sur l'intergiciel de grille Diet, nous avons mis en place une infrastructure complète permettant à des utilisateurs non expérimentés de soumettre facilement des simulations cosmologiques sur une grille de calcul.
29

Méthodologie de développement des services de communication temps-réel d'un intergiciel embarqué dans l'automobile

Santos Marques, Ricardo 14 September 2006 (has links) (PDF)
Notre objectif est de proposer une méthodologie pour le développement d'un intergiciel embarqué dans l'automobile offrant des services de communication aux applications. Le cadre d'utilisation de nos travaux est la conception de systèmes embarqués dans les véhicules. Ces applications requièrent un intergiciel capable de fournir des services standards de communication, qui cachent la localisation des participants aux échanges, qui masquent l'hétérogénéité des plates-formes de communication, et qui garantissent le respect des contraintes temporelles imposées sur les échanges et sur l'exécution des participants.<br />La méthodologie proposée vise la conception d'un intergiciel optimisé et pour cela aborde deux aspects : la spécification d'une architecture d'implémentation, et la construction d'une configuration faisable. L'architecture d'implémentation est optimisée dans le sens où l'intergiciel est adapté à l'environnement d'exécution (le système d'exploitation OSEK/VDX OS), et minimise son utilisation des ressources disponibles. Elle apporte une réponse, d'une part, au niveau de la spécification d'une architecture logicielle (construite à l'aide de design patterns), et, d'autre part, à la manière dont cette architecture est déployée sur une plate-forme concrète (sous la forme d'un ensemble de tâches). La procédure proposée pour la construction de la configuration de l'intergiciel calcule les caractéristiques temporelles faisables de l'intergiciel et des trames émises par les stations d'un réseau CAN. Elle prévoit aussi une étape pour le calcul d'une allocation de priorités faisable pour les tâches de l'application sur chaque station. L'optimalité de la configuration est atteinte en assurant le respect de toutes les contraintes temporelles imposées sur les échanges et sur l'exécution des tâches de l'application et de l'intergiciel.
30

Vers un environnement pour le déploiement logiciel autonomique

Matougui, Mohammed el Amine 21 November 2013 (has links) (PDF)
Le déploiement de logiciels répartis dans des environnements à grande échelle et ouverts (tels les systèmes ubiquitaires, les systèmes mobiles et les systèmes P2P) est une problématique actuelle ouverte. Ces environnements sont distribués, hétérogènes et peuvent être de nature instable (dotés d'une topologie dynamique du réseau). Le déploiement dans ces environnements met en jeu un très grand nombre de machines, de liens réseau ainsi qu'un ensemble de contraintes de déploiement. Quelques solutions de déploiement existent aujourd'hui, mais ne sont exploitables que dans le cadre d'architectures figées et fiables. Dans la plupart des solutions, une personne en charge du déploiement doit décrire plus ou moins manuellement la topologie. En outre, la majorité de ces outils ne prennent pas en compte les problèmes dûs à la variabilité de la qualité de service du réseau, aux pannes des hôtes, aux défaillances des liens du réseau ou encore aux changements dynamiques de topologie, qui caractérisent les environnements ouverts. Dans ce mémoire, nous présentons les motivations de la réalisation d'une infrastructure de déploiement logiciel autonomique et les exigences sous-jacentes d'une telle plate-forme. Nous présentons un état de l'art du déploiement logiciel que nous analysons au regard du contexte visé. Ensuite, nous présentons notre contribution pour le déploiement autonomique. Notre proposition s'appuie sur une combinaison de technologies (composants logiciels, agents mobiles adaptables, intergiciel, langage dédié). Nous proposons j-ASD, un intergiciel qui exploite la complémentarité de ces technologies pour réaliser un déploiement logiciel autonomique. Le processus de déploiement contient trois étapes : description des contraintes de déploiement, résolution, et déploiement autonomique. Pour la première étape, nous avons défini un langage dédié (DSL) comme langage de haut niveau pour exprimer des contraintes de déploiement. Pour la deuxième, nous avons conçu une infrastructure répartie pour collecter les propriétés des sites cibles, ce qui permet de résoudre les contraintes de déploiement. Pour la troisième étape, nous proposons un intergiciel à base d'agents mobiles pour la réalisation et la supervision du déploiement autonomique. Enfin, nous donnons les éléments de conception du prototype que nous avons implémenté, ainsi que les résultats de certaines expérimentations pour montrer la validité de notre approche

Page generated in 0.0836 seconds