• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 9
  • 1
  • Tagged with
  • 20
  • 20
  • 13
  • 12
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Une approche autonome pour la gestion logicielle des espaces intelligents

Gouin-Vallerand, Charles 23 June 2011 (has links) (PDF)
Depuis une vingtaine d'années, les développements dans les technologies de l'information ont fait évoluer les paradigmes de l'informatique. L'arrivée d'approches telles que l'informatique diffuse ont fait émerger de nouvelles technologies permettant d'améliorer la qualité des interactions avec les systèmes informatisés. Toutefois, la démocratisation de l'informatique diffuse et la mise en place des espaces intelligents rencontrent un bon nombre de problèmes. Le nombre important de composantes matérielles et logicielles et leurs natures hétérogènes contribuent à la complexité de déploiement et de gestion de ces milieux, entraînant des coûts élevés. Cette thèse vise à contribuer à la gestion logicielle des espaces intelligents par la réduction de la complexité des tâches de gestion. Notre proposition consiste en une approche autonome de la gestion logicielle, fondée sur l'approche de l'informatique diffuse autonome. Dans le cadre de ce travail, nous proposons une solution utilisant les informations contextuelles des milieux, afin de déterminer quelle répartition des logiciels parmi les appareils des milieux correspond le mieux au besoin des applications, des caractéristiques propres des environnements et, non le moindre, des modalités et préférences d'interaction des utilisateurs de ces milieux. La solution proposée a été implémentée et évaluée à l'aide d'une série de tests et de mises en situation d'organisation logicielle.
12

Phronesis, a diagnosis and recovery tool for system administrators / Phronesis, un outil de diagnostic et de résolution pour les administrateurs systèmes

Haen, Christophe 24 October 2013 (has links)
Le système online de l'expérience LHCb repose sur une large infrastructure informatique hétérogène, composée de milliers de serveurs sur lesquels de nombreuses applications différentes sont exécutées. Certaines applications sont critiques (prise de données, contrôle du détecteur), d'autres secondaires (serveurs web). Administrer un tel système et s'assurer de son bon fonctionnement représente une lourde charge de travail pour une petite équipe d'experts. Des recherches ont été menées afin d'automatiser certaines tâches d'administration système. En 2001, IBM définit les « self-objectives » sensés conduire à l' «autonomic computing» (informatique autonome). Dans ce contexte, nous présentons un framework basé sur l'intelligence artificielle et l'apprentissage par renforcement pour surveiller et diagnostiquer de manière non intrusive les systèmes et logiciels basés sur Linux. De plus, notre approche d’expérience partagée ainsi que notre architecture suivant le paradigme Objet permettent d'augmenter considérablement la vitesse d'apprentissage et de corréler les problèmes. / The LHCb online system relies on a large and heterogeneous IT infrastructure made from thousands of servers on which many different applications are running. They run a great variety of tasks : critical ones such as data taking and secondary ones like web servers. The administration of such a system and making sure it is working properly represents a very important workload for the small expert-operator team. Research has been performed to try to automatize (some) system administration tasks, starting in 2001 when IBM defined the so-called “self objectives” supposed to lead to “autonomic computing”. In this context, we present a framework that makes use of artificial intelligence and machine learning to monitor and diagnose at a low level and in a non intrusive way Linux-based systems and their interaction with software. Moreover, the shared experience approach we use, coupled with an "object oriented paradigm" architecture increases a lot our learning speed, and highlight relations between problems.
13

A multimedia ontology-driven architecture for autonomic quality of service management in home networks

Gomez Montalvo, Jorge Ricardo 16 February 2012 (has links) (PDF)
Dans le contexte actuel de l'Internet, un enjeu de recherche majeur est de permettre aux applications et à leurs utilisateurs de disposer de systèmes de communication offrant une qualité de service (QdS) optimale. Ceci en fonction des ressources machine et réseau disponibles, dont les capacités et les performances, hétérogènes et variables, ne sont pas connues à l'avance. Le provisionnement optimal de la QdS dans ces futurs systèmes de communication autonomes nécessite d'une part la caractérisation des services et des ressources de communication disponibles, et d'autre part la prise en compte des expressions des besoins et des préférences des différents acteurs du système (utilisateurs, fournisseurs des services, etc.). Le sujet de la thèse porte sur la définition d'un cadre sémantique de QdS basé sur les ontologies pour la caractérisation des ressources et des services de communication dans le but de fournir la meilleure QdS au regard des besoins et des préférences des utilisateurs. Ce cadre sera utilisé dans la définition des objectifs et des contraintes de QdS et dans l'élaboration de modèles de décision. L'ensemble sera utilisé pour la mise en œuvre de QdS dans les systèmes de communication autonomes situés dans un contexte de réseaux domestiques.
14

Déploiement d’applications patrimoniales en environnements de type informatique dans le nuage / Deploying legacy applications in cloud computing environments

Etchevers, Xavier 12 December 2012 (has links)
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing. / Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: • a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; • an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; • mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations.
15

An approach for Self-healing Transactional Composite Services / Une approche auto-corrective pour des services composites transactionnels

Angarita Arocha, Rafael Enrique 11 December 2015 (has links)
Dans ce mémoire de thèse, nous présentons une approche d’exécution auto-corrective (self-healing) de services composites, basée sur des agents capables de prendre, de manière autonome, des décisions pendant l’exécution des services, à partir de leurs connaissances. Dans un premier temps, nous définissons, de manière formelle, en utilisant des réseaux de Petri colorés, les services composites, leur processus d’exécution, et leurs mécanismes de tolérance aux pannes. Notre approche offre plusieurs mécanismes de reprise sur panne alternatifs : la récupération en arrière avec compensation ; la récupération en avant avec ré-exécution et/ou remplacement de service ; et le point de contrôle (checkpointing), à partir duquel il est possible de reprendre l’exécution du service ultérieurement. Dans notre approche, les services sont contrôlés par des agents, i.e. des composants dont le rôle est de s’assurer que l’exécution des services soit tolérante aux pannes. Notre approche est également étendue afin de permettre un auto-recouvrement. Dans cette extension, les agents disposent d’une base de connaissances contenant à la fois des informations sur eux-mêmes et sur le contexte d’exécution. Pour prendre des décisions concernant la sélection des stratégies de récupération, les agents font des déductions en fonction des informations qu’ils ont sur l’ensemble du service composite, sur eux-mêmes, tout en prenant en compte également ce qui est attendu et ce qui se passe réellement lors de l’exécution. Finalement, nous illustrons notre approche par une évaluation expérimentale en utilisant un cas d’étude. / In this thesis, we present a self-healing approach for composite services supported by knowledge-based agents capable of making decisions at runtime. First, we introduce our formal definition of composite services, their execution processes, and their fault tolerance mechanisms using Colored Petri nets. We implement the following recovery mechanisms: backward recovery through compensation; forward recovery through service retry and service replacement; and checkpointing as an alternative strategy. We introduce the concept of Service Agents, which are software components in charge of component services and their fault tolerance execution control. We then extend our approach with self-healing capabilities. In this self-healing extension, Service Agents are knowledge-based agents; that is, they are self- and context-aware. To make decisions about the selection of recovery and proactive fault tolerance strategies, Service Agents make deductions based on the information they have about the whole composite service, about themselves, and about what is expected and what it is really happening at runtime. Finally, we illustrate our approach and evaluate it experimentally using a case study.
16

Gestion autonomique de l'élasticité multi-couche des applications dans le Cloud : vers une utilisation efficiente des ressources et des services du Cloud / Crosslayer elasticity management for Cloud : towards an efficient usage of Cloud resources and services

Dupont, Simon 26 April 2016 (has links)
L’informatique en nuage, au travers de son modèle en couche et de l’accès à ses services à la demande, a bouleversé la façon de gérer les infrastructures (IaaS) et la manière de produire les logiciels (SaaS). Grâce à l’élasticité de l’infrastructure, la quantité de ressource peut être ajustée automatiquement en fonction de la demande afin de satisfaire un certain niveau de qualité de service (QoS) aux clients tout en minimisant les coûts d’exploitation sous-jacents. Le modèle d’élasticité actuel qui consiste à ajuster les ressources IaaS au travers de services de dimensionnement automatique basiques montre ses limites en termes de réactivité et de granularité d’adaptation. De plus, bien qu’étant une caractéristique cruciale de l’informatique en nuage, l’élasticité est à ce jour pauvrement outillée empêchant ainsi les différents acteurs du Cloud de jouir pleinement de ses bienfaits. Dans ce travail de thèse, nous proposons d’étendre leconcept d’élasticité aux couches hautes du nuage, et plus précisément au niveau du SaaS. Nous présentons ainsi le nouveau concept d’élasticité logicielle que nous définissons comme la capacité d’un logiciel à s’adapter, idéalement de manière autonome, pour répondre aux changements de la demande et/ou aux limitations de l’élasticité des ressources de l’infrastructure. Il s’agit alors d’envisager l’élasticité de manière transverse et multi-couche en considérant l’adaptation des ressources Cloud au sens large. Pour ce faire, nous présentons un modèle pour la gestion autonome de l’élasticité multi-couche et le Framework ElaStuff associé. Dans le but d’outiller et d’industrialiser le processus de gestion de l’élasticité, nous proposons l’outil de surveillance perCEPtion basé sur le traitement des événements complexes et permettant à l’administrateur de mettre en place une observation avancée du système Cloud. De plus, un langage dédié à l’élasticité multi-couche nommé ElaScript est proposé pour exprimer simplement et efficacement des plans de reconfiguration orchestrant les actions d’élasticité de différents niveaux. Enfin, notre proposition d’étendre l’élasticité aux couches hautes du Cloud, et plus particulièrement au niveau SaaS, est validée expérimentalement selon plusieurs points devue (QoS, énergie, réactivité et précision du passage à l’échelle,etc.). / Cloud computing, through its layered model and access to its on-demand services, has changed the way of managing the infrastructures (IaaS) and how to produce software (SaaS). With the advent of IaaS elasticity, the amount of resources can be automatically adjusted according to the demand to satisfy a certain level of quality of service (QoS) to customers while minimizing underlying operating costs. The current elasticity model is based on adjusting the IaaS resources through basic autoscaling services, which reaches to its limit in terms of responsiveness and adaptation granularity. Although it is an essential feature for Cloud computing, elasticity remains poorly equipped which prevents the various actors of the Cloud to really enjoy its benefits. In this thesis, we propose to extend the concept of elasticity to higher layers of the cloud, and more precisely to the SaaS level. Then, we present the new concept of software elasticity by defining the ability of the software to adapt, ideally in an autonomous way, to cope with workload changes and/or limitations of IaaS elasticity. This predicament brings the consideration of Cloud elasticity in a multi-layer way through the adaptation of all kind of Cloud resources. To this end, we present a model for the autonomic management of multi-layer elasticity and the associated framework ElaStuff. In order to equip and industrialize the elasticity management process, we propose the perCEPtion monitoring tool, based on complex event processing, which enables the administrators to set up an advanced observation of the Cloud system. In addition, we propose a domain specific language (DSL) for the multi-layer elasticity, called ElaScript, which allows to simply and effectively express reconfiguration plans orchestrating the different levels of elasticity actions. Finally, our proposal to extend the Cloud elasticity to higher layers, particularly to SaaS,is validated experimentally from several perspectives (QoS,energy, responsiveness and accuracy of the scaling, etc.).
17

Une approche autonome pour la gestion logicielle des espaces intelligents / An autonomic approach for the software management of smart spaces

Gouin-Vallerand, Charles 23 June 2011 (has links)
Depuis une vingtaine d'années, les développements dans les technologies de l'information ont fait évoluer les paradigmes de l'informatique. L'arrivée d'approches telles que l'informatique diffuse ont fait émerger de nouvelles technologies permettant d'améliorer la qualité des interactions avec les systèmes informatisés. Toutefois, la démocratisation de l'informatique diffuse et la mise en place des espaces intelligents rencontrent un bon nombre de problèmes. Le nombre important de composantes matérielles et logicielles et leurs natures hétérogènes contribuent à la complexité de déploiement et de gestion de ces milieux, entraînant des coûts élevés. Cette thèse vise à contribuer à la gestion logicielle des espaces intelligents par la réduction de la complexité des tâches de gestion. Notre proposition consiste en une approche autonome de la gestion logicielle, fondée sur l'approche de l'informatique diffuse autonome. Dans le cadre de ce travail, nous proposons une solution utilisant les informations contextuelles des milieux, afin de déterminer quelle répartition des logiciels parmi les appareils des milieux correspond le mieux au besoin des applications, des caractéristiques propres des environnements et, non le moindre, des modalités et préférences d’interaction des utilisateurs de ces milieux. La solution proposée a été implémentée et évaluée à l’aide d’une série de tests et de mises en situation d’organisation logicielle / Since two decades, the developments in the information technologies have changed the computer science paradigms. The arrival of new approaches such as the pervasive computing create new technologies, which improved the quality of the interactions with the I.T. systems, However, the broad utilization of the pervasive computing and the development of smart spaces are facing several challenges. The large number of hardware and software components and their heterogeneous natures, contributes to the complexity of deploying and managing these environments, resulting in high costs. This thesis contributes to the software management of the smart spaces by reducing the complexity of the management tasks. Our proposal consists of an autonomic approach to software management based on the autonomic pervasive computing. As part of this work, we propose a solution using the environment’s contextual information to determine the software distribution among the environment’s devices, which best fits the needs of the software, environments and the interaction modalities and preferences of the environment’s users. The proposed solution was implemented and evaluated using a series of tests and software organization scenarios
18

A Multimedia Ontology-Driven Architecture for Autonomic Quality of Service Management in Home Networks / Une Architecture Multimédia Dirigée par les Ontologies pour la Gestion Autonome de la Qualité de Service dans les Réseaux Domestiques

Gomez montalvo, Jorge 16 February 2012 (has links)
Dans le contexte actuel de l’Internet, un enjeu de recherche majeur est de permettre aux applications et à leurs utilisateurs de disposer de systèmes de communication offrant une qualité de service (QdS) optimale. Ceci en fonction des ressources machine et réseau disponibles, dont les capacités et les performances, hétérogènes et variables, ne sont pas connues à l’avance. Le provisionnement optimal de la QdS dans ces futurs systèmes de communication autonomes nécessite d’une part la caractérisation des services et des ressources de communication disponibles, et d’autre part la prise en compte des expressions des besoins et des préférences des différents acteurs du système (utilisateurs, fournisseurs des services, etc.). Le sujet de la thèse porte sur la définition d’un cadre sémantique de QdS basé sur les ontologies pour la caractérisation des ressources et des services de communication dans le but de fournir la meilleure QdS au regard des besoins et des préférences des utilisateurs. Ce cadre sera utilisé dans la définition des objectifs et des contraintes de QdS et dans l’élaboration de modèles de décision. L'ensemble sera utilisé pour la mise en œuvre de QdS dans les systèmes de communication autonomes situés dans un contexte de réseaux domestiques / In the current context of the Internet, a major research challenge is to enable applications and users to have their communications systems with an optimal quality of service (QoS). Indeed, QoS provisioning should take into account the available machine and network resources, which capacities and performances are heterogeneous, variable, and not known in advance. The optimal QoS provisioning for the future autonomous communication systems requires the characterization of available services and communication resources and also taking into account the expressions of needs and preferences of different actors in the system (users, service providers, etc.). The subject of this thesis deals with the definition of a QoS ontology-based semantic framework for the characterization of network resources and communication services in order to provide better QoS according to the needs and preferences of users. This framewor! k will be used in the definition of objectives and QoS constraints as well as in the development of decision models in order to provide QoS for autonomous communication systems located in the context of home networks
19

A holistic approach to green networking in wireless networks : collaboration among autonomic systems as a mean towards efficient resource-sharing / Une approche holistique pour les réseaux sans fil économes en énergie

Peres, Martin 19 December 2014 (has links)
Les vingt dernières années ont vu l’émergence de systèmes sans fil dans la vie de tous les jours. Ils ont rendu possible la création de technologies telles que les téléphones portables, le WiFi ou l’internet mobile qui sont maintenant tenus pour acquis dans la société actuelle. L’impact environnemental des technologies de l’information et des communications connaît une croissance exponentielle et a atteint l’impact de l’industrie du transport aérien. L’initiative d’informatique verte a été lancée en réponse à cette observation pour réduire de 15 à 30% les émissions de gaz à effet de serre en 2020 comparé aux prédictions faites en 2002 afin de garder le réchauffement climatique inférieur à 2°C. Dans cette thèse, nous avons étudié des techniques d’économie d’énergie dans les réseaux sans fil et comment elles interagissent entre elles afin de donner une vue holistique des réseaux verts. Nous prenons également en compte l’usage du spectre radio fréquence qui est le moyen le plus utilisé pour les communications entre systèmes sans fil et qui devient une ressource rare à cause du besoin grandissant de notre société pour de la bande passante en mobilité. Cette thèse suit les couches réseaux avant de remonter les piles matérielleset logicielles. Des contributions ont été apportées à la plupart des couches afin de proposer un réseau sans fil autonome où les noeuds peuvent collaborer pour améliorer les performances du réseau, réduire de façon globale l’utilisation du spectre radio tout en limitant la consommation énergétique du réseau. / The last twenty years saw the emergence of wireless systems in everyday’s life. They made possible technologies such as mobile phones, WiFi or mobile Internet which are now taken for granted in today’s society. The environmental impact of Information and Communications Technology (ICT) has been raising exponentially to equate the impact of the airline industry. The green computing initiative has been created in response to this observation in order to meet the 15%-30% reduction in green-house gases by 2020 compared to estimations made in 2002 to keep the global temperature increasebelow 2°C. In this thesis, we studied power-saving techniques in wireless networks and how they interact with each others to provide a holistic view of green networking. We also take into account the radio frequency resource which is the most commonly usedcommunication medium for wireless systems and is becoming a scarce resource due to our society’s ever-increasing need for mobile bandwidth. This thesis goes down the network stacks before going up the hardware and software stack. Contributions have been madeat most layers in order to propose an autonomic wireless network where nodes can work collaboratively to improve the network’s performance, globally reduce the radio frequency spectrum usage while also increasing their battery life.
20

Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique / Self-adaptive deployment for middleware on elastic platform

Faye, Maurice-Djibril 10 November 2015 (has links)
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines). / We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on.

Page generated in 0.4713 seconds