Spelling suggestions: "subject:"génie logiciel"" "subject:"génie progiciel""
171 |
Introduction de raisonnement dans un outil industriel de gestion des connaissancesCarloni, Olivier 24 November 2008 (has links) (PDF)
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
|
172 |
Vers une meilleure compréhension de la consommation énergétique des systèmes logicielsNoureddine, Adel 19 March 2014 (has links) (PDF)
Avec l'augmentation de l'utilisation des ordinateurs et des appareils mobiles, et la hausse du prix de l'électricité, la gestion énergétique des logiciels est devenue une nécessité pour des logiciels, appareils et services durables. La consommation énergétique augmente dans les technologies informatiques, notamment à cause de l'augmentation de l'utilisation des services web et distribuée, l'informatique dans les nuages, ou les appareils mobiles. Par conséquent, des approches de gestion de l'énergie ont été développées, de l'optimisation du code des logiciels, à des stratégies d'adaptation basées sur l'utilisation des ressources matérielles. Afin de répondre à ces lacunes, nous présentons dans cette thèse, des modèles énergétiques, approches et outils pour estimer fidèlement la consommation énergétique des logiciels, au niveau de l'application, et au niveau du code, et pour inférer le modèle d'évolution énergétique des méthodes basé sur leurs paramètres d'entrées. Nous proposons aussi Jalen et Jalen Unit, des frameworks énergétiques pour estimer la consommation énergétique de chaque portion de code de l'application, et pour inférer le modèle d'évolution énergétique des méthodes en se basant sur des études et expériences empiriques. En utilisant des modèles énergétiques et d'outils d'estimations logicielles, nous pouvons proposer des informations énergétiques précises sans avoir besoin de wattmètres ou d'investissement de matériels de mesures énergétiques. Les informations énergétiques que nous proposons, offrent aussi aux approches de gestion énergétique des mesures directes et précises pour leurs approches d'adaptations et d'optimisations énergétiques. Ces informations énergétiques établissent aussi un modèle d'évolution énergétique des logiciels en se basant sur leurs paramètres d'entrées. Cela offre aux développeurs une connaissance plus profonde sur l'efficacité énergétique dans les logiciels. Cette connaissance amènera les développeurs à choisir un certain code au lieu d'un autre en se basant sur son efficacité énergétique. Les expérimentations utilisant l'implémentation de nos modèles énergétiques offrent des informations importantes sur comment et où l'énergie est consommée dans les logiciels. Plus particulièrement, nous proposons des comparaisons empiriques des langages de programmation (LP), des implémentations d'algorithmes, du coût de l'utilisation d'une machine virtuelle dans les LP, des options des compilateurs, et des primitives d'entrées/sorties. Nos outils permettent aussi de détecter les hotspots énergétiques dans les logiciels, permettant ainsi de focaliser sur les principaux endroits où davantage d'études sont nécessaires pour l'optimisation énergétique. Finalement, nous démontrons comment notre framework d'étude empirique permet de détecter les modèles d'évolution énergétique en se basant sur les stratégies d'évolution des paramètres d'entrées. Grâce à notre contribution, nous visons d'évoluer la connaissance dans le domaine de la consommation énergétique dans les logiciels, en proposant des modèles, des approches et des outils pour mesurer avec précision la consommation énergétique à des grains plus fins. En un mot, nous avons construit un microscope logiciel et énergétique, et avons mener des expérimentations afin de comprendre comment l'énergie est consommée dans les logiciels, et les chemins à prendre pour produire des logiciels optimisés énergétiquement.
|
173 |
Ordonnancement des systemes flexibles de production sous contraintes de disponibilite des ressources / Scheduling flexible production systems under resource availability constraintsAzem, Sadia 22 June 2010 (has links)
La majeure partie des travaux sur les problèmes d’ordonnancement se placent dans le contexte où les ressources sont disponibles en permanence. Ce qui en réalité n’est pas toujours le cas. Nous nous plaçons dans le contexte d’indisponibilités connues ; nous nous intéressons plus particulièrement aux problèmes de type job shop avec des périodes d’indisponibilité flexibles et des tâches pouvant éventuellement être interrompues par les périodes d’indisponibilité. L’intégration de ces contraintes rend les problèmes d’ordonnancement nettement plus difficiles à résoudre. La flexibilité que nous considérons peut être relative à au moins l’un des points suivants : déplacement de la période d’indisponibilité dans une fenêtre de temps, modification de la durée de la période d’indisponibilité, interruption d’une tâche par une période d’indisponibilité, ensuite reprise avec une éventuelle pénalité.Dans cette thèse, nous avons proposé des modèles mathématiques pour le problème. En plus de la résolution des problèmes considérés, le but de ces modélisations est de permettre d’analyser l'impact des différentes contraintes et d'évaluer la qualité des méthodes approchées que nous proposons. Ces dernières permettent de construire très rapidement un ordonnancement en se basant sur des règles de priorité. Les solutions sont aussi utilisées pour notre approche basée sur la génération de colonnes. Cette approche s’adapte bien à différents fonctions objectif et permet d'intégrer relativement facilement plusieurs contraintes. De nombreuses expérimentations ont été menées pour valider les méthodes proposées. / In most of the machine scheduling literature, resources are assumed to be continuously available which is not always true. We deal with the context of unavailability known a priori; we are particularly interested in job-shop scheduling problems with flexible unavailability periods and tasks that can eventually be interrupted by unavailability periods. Integrating these constraints increase the complexity of the scheduling problems. We deal with flexibility that is related to at least one of the following points: moving the unavailability period in a time window, modification of the duration of the unavailability period, interruption of a task by an unavailability period, then resumed with a possible penalty.In this thesis, we propose mathematical models for the problem. In addition to the resolution of the considered problems, the aim of this modeling is to allow for the analysis of the impact of different constraints and evaluation of the quality of the approximate methods and the column generation approach we develop. The approximate methods construct in very short time a schedule based on priority rules. The solutions are also used in our column generation approach. This approach adapts well to various objective functions and allows relatively easily for the integration of several constraints. Many experiments have been performed to validate the designed methods.
|
174 |
Modelling software quality : a multidimensional approachVaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et
évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction.
Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous
avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles.
Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels.
Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement.
Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement.
Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels.
To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques.
To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems.
Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches.
To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random.
Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research.
|
175 |
Intégration de services de raisonnement automatique basés sur les logiques de description dans les applications d’entrepriseBergeron, Jacques 04 1900 (has links)
Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet,
l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles.
Ce patron utilise un reasoner basé sur les logiques de description (web sémantique)
pour procéder à la classification des objets dans les hiérarchies. La création des
objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron
permet l’utilisation effective du raisonnement automatique dans un contexte d’applications
d’entreprise.
Les concepts requis pour la compréhension du patron et des outils sont présentés. Les
conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche
pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une
méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des
logiques de description dans le même contexte sont discutées. / This master thesis presents a software architectural pattern for use in an object oriented
environment to simultaneously access objects in multiple functional hierarchies. A Description
Logics (Semantic Web) reasoner is used to classify the objects in the hierarchies.
Object creation is simplifed by the use of an ORM - Object Relational Mapper.
The pattern effectively allows automatic reasoning procedures to be used in an enterprise
application context.
All concepts required to understand the architectural pattern and the tools are presented.
Usage conditions for the pattern are discussed and research projects are presented to
widen the pattern’s applicability. A prototype applying the pattern on a simple problem is
presented. A methodology is also presented. Finally, other potential uses of Description
Logics based automatic reasoning procedures are discussed.
|
176 |
A Framework for Autonomous Generation of Strategies in Satisfiability Modulo Theories / Un cadre pour la génération autonome de stratégies dans la satisfiabilité modulo des théoriesGalvez Ramirez, Nicolas 19 December 2018 (has links)
La génération de stratégies pour les solveurs en Satisfiabilité Modulo des Théories (SMT) nécessite des outils théoriques et pratiques qui permettent aux utilisateurs d’exercer un contrôle stratégique sur les aspects heuristiques fondamentaux des solveurs de SMT, tout en garantissant leur performance. Nous nous intéressons dans cette thèse au solveur Z3 , l’un des plus efficaces lors des compétitions SMT (SMT-COMP). Dans les solveurs SMT, la définition d’une stratégie repose sur un ensemble de composants et paramètres pouvant être agencés et configurés afin de guider la recherche d’une preuve de (in)satisfiabilité d’une instance donnée. Dans cette thèse, nous abordons ce défi en définissant un cadre pour la génération autonome de stratégies pour Z3, c’est-à-dire un algorithme qui permet de construire automatiquement des stratégies sans faire appel à des connaissances d’expertes. Ce cadre général utilise une approche évolutionnaire (programmation génétique), incluant un système à base de règles. Ces règles formalisent la modification de stratégies par des principes de réécriture, les algorithmes évolutionnaires servant de moteur pour les appliquer. Cette couche intermédiaire permettra d’appliquer n’importe quel algorithme ou opérateur sans qu’il soit nécessaire de modifier sa structure, afin d’introduire de nouvelles informations sur les stratégies. Des expérimentations sont menées sur les jeux classiques de la compétition SMT-COMP. / The Strategy Challenge in Satisfiability Modulo Theories (SMT) claims to build theoretical and practical tools allowing users to exert strategic control over core heuristic aspects of high-performance SMT solvers. In this work, we focus in Z3 Theorem Prover: one of the most efficient SMT solver according to the SMT Competition, SMT-COMP. In SMT solvers, the definition of a strategy relies on a set of tools that can be scheduled and configured in order to guide the search for a (un)satisfiability proof of a given instance. In this thesis, we address the Strategy Challenge in SMT defining a framework for the autonomous generation of strategies in Z3, i.e. a practical system to automatically generate SMT strategies without the use of expert knowledge. This framework is applied through an incremental evolutionary approach starting from basic algorithms to more complex genetic constructions. This framework formalise strategies modification as rewriting rules, where algorithms acts as enginess to apply them. This intermediate layer, will allow apply any algorithm or operator with no need to being structurally modified, in order to introduce new information in strategies. Validation is done through experiments on classic benchmarks of the SMT-COMP.
|
177 |
Concevoir des services collaboratifs adaptés à des pratiques métier : une méthode centrée usages : application au domaine de la construction / Designing collaborative services adapted to business practices : a usage-centered method : Application to the construction sectorZignale, Daniel 17 July 2013 (has links)
Dans le domaine du projet de conception-construction architecturale, la gestion de la collaboration entre les différents acteurs d'un projet est un enjeu important. D'un projet à un autre, en fonction du projet, mais aussi des acteurs qui y interviennent, les pratiques de travail varient. Parallèlement, de nombreux services sont proposés et utilisés pour assister la collaboration, certains sur un modèle « grand public » et d'autres plus orientés vers un usage professionnel. L'expérience CRTI-weB est un projet de développement d'un collecticiel mené avec et pour les professionnels du secteur au Luxembourg. Malgré l'étude des besoins métiers menée en amont du développement, l'outil présente cependant des manques d'adaptation. Ce constat d'inadaptation n'est pas un cas isolé, il reflète une lacune générale de ce genre d'outils à satisfaire pleinement les attentes des professionnels. C'est pourquoi ce travail doctoral propose un cadre d'analyse supporté par la modélisation des comportements des utilisateurs. Nous adoptons alors plusieurs points de vue relatifs à différents champs de recherches : le génie logiciel, la conception d'interfaces homme-machine, l'entreprise orientée services et la conception de système d'information, et enfin le travail collaboratif assisté par ordinateur (TCAO). Nous proposons la méthode PUSH (Practices and Usages based Services enHancement) qui orchestre ces différents points de vue et permet de générer un ensemble d'exigences pour le développement de services dits « adaptés ». Communication et traçabilité sont les maitres mots de cette méthode de conception. Le contexte d'étude à la fois orienté recherche et développement nous a permis d'évaluer et d'améliorer la définition des concepts mis en avant ainsi que la mise en place de la méthode PUSH à travers trois expérimentations / In the sector of the architectural design-construction project, the management of the collaboration between the different actors of a project is an important issue. From a project to another, considering the project type and also the actors involved, business practices vary. In parallel, many services are proposed and used to assist the collaboration, some of them being generic and others more specific to professional usage. The CRTI-weB experience is a groupware development project lead with and for professionals of the Luxembourgish sector. Despite the analysis of business needs lead before development, the tool has some lacks of adaptation. This statement isn't isolated; in general, this type of tools doesn't fully satisfy professionals' expectations. This doctoral work proposes an analysis framework supported by users' behaviors modeling. We adopt several viewpoints related to several research fields: software engineering, human-computer interactions design, service-oriented enterprise and information system design, and finally computer-supported collaborative work (CSCW We propose the PUSH method (Practice and Usages based Service enhancement) that orchestrates the different viewpoints to generate an amount of requirements for the development of adapted services. The communication and the traceability are supported by this design method. The context of study, both research and development-oriented (through the collaboration of the MAP-CRAI laboratory in Nancy and the CRP Henri Tudor in Luxembourg) allows us evaluating and enhancing the definition of our concepts and the applicability of the PUSH method through three experimentations
|
178 |
Une approche logicielle du traitement de la dyslexie : étude de modèles et applications / A software approach for treating dyslexia : model study and applicationsGarcia, Geoffrey 07 December 2015 (has links)
Les troubles neuropsychologiques sont très répandus et posent de réels problèmes de santé publique. En particulier, dans notre société moderne où la communication écrite est omniprésente, la dyslexie peut s’avérer excessivement handicapante. On remarque néanmoins que le diagnostic et la remédiation de cette pathologie restent délicats et manquent d’uniformisation. Ceci semble malheureusement inhérent à la caractérisation clinique par exclusion de la dyslexie, à la multitude de praticiens différents impliqués dans une telle prise en charge ainsi qu’au manque d’objectivité de certaines méthodes existantes. A ce titre, nous avons décidé d’investiguer les possibilités offertes par l’informatique actuelle pour surmonter ces barrières. Effectivement, nous avons supposé que la démocratisation des systèmes informatiques et leur puissance de calcul pourraient en faire un outil de choix pour pallier les difficultés rencontrées lors de la prise en charge de la dyslexie. Cette recherche nous a ainsi mené à étudier les techniques, aussi bien logicielles que matérielles, pouvant conduire au développement d’un système bon marché et évolutif qui serait capable d’assister un changement bénéfique et progressif des pratiques qui entourent cette pathologie. Avec ce projet, nous nous plaçons définitivement dans un courant innovant au service de la qualité des soins et des aides apportées aux personnes souffrant d’un handicap. Notre travail a ainsi consisté à identifier différents axes d’amélioration que l’utilisation de l’outil informatique rend possible. Chacun de ces axes a alors pu faire l’objet de recherches exhaustives, de modélisations et de développements de prototypes. Nous avons également réfléchi à la méthodologie à mettre en œuvre pour concevoir un tel système dans sa globalité. En particulier, nos réflexions et ces différents accomplissements nous ont permis de définir un framework logiciel propice à l’implémentation d’une plate-forme logicielle que nous avons appelée la PAMMA. Cette plate-forme devrait théoriquement pouvoir disposer de tous les outils permettant le développement souple et efficace d’applications médicales intégrant des processus métiers. Il est ainsi attendu de ce système qu’il permette le développement d’applications, pour la prise en charges des patients dyslexiques, conduisant à un diagnostic plus rapide et plus précis ainsi qu’à une remédiation plus adaptée et plus efficace. De notre effort d’innovation ressortent des perspectives encourageantes. Cependant, ce type d’initiative ne peut se concrétiser qu’autour de collaborations pluridisciplinaires disposant de nombreux moyens fonctionnels, techniques et financiers. La constitution d’un tel consortium semble donc être la prochaine étape nécessaire à l’obtention des financements pour réaliser un premier prototype fonctionnel de la PAMMA, ainsi que de premières applications. Des études cliniques pourront être alors menées pour prouver indubitablement l’efficacité d’une telle approche dans le cadre de la prise en charge de la dyslexie, ainsi qu’éventuellement d’autres troubles neuropsychologiques. / Neuropsychological disorders are widespread and generate real public health problems. In particular in our modern society, where written communication is ubiquitous, dyslexia can be extremely disabling. Nevertheless we can note that the diagnosis and remediation of this pathology are fastidious and lack of standardization. Unfortunately it seems inherent to the clinical characterization of dyslexia by exclusion, to the multitude of different practitioners involved in such treatment and to the lack of objectivity of some existing methods. In this respect, we decided to investigate the possibilities offered by modern computing to overcome these barriers. Indeed we have assumed that the democratization of computer systems and their computing power could make of them a perfect tool to alleviate the difficulties encountered in the treatment of dyslexia. This research has led us to study the techniques software as well as hardware, which can conduct to the development of an inexpensive and scalable system able to attend a beneficial and progressive changing of practices in this pathology field. With this project we put ourselves definitely in an innovative stream serving quality of care and aid provided to people with disabilities. Our work has been identifying different improvement areas that the use of computers enables. Then each of these areas could then be the subject of extensive research, modeling and prototype developments. We also considered the methodology for designing this kind of system as a whole. In particular our thoughts and these accomplishments have allowed us to define a software framework suitable for implementing a software platform that we called the PAMMA. This platform should theoretically have access to all the tools required for the flexible and efficient development of medical applications integrating business processes. In this way it is expected that this system allows the development of applications for caring dyslexic patients thus leading to a faster and more accurate diagnosis and a more appropriate and effective remediation. Of our innovation efforts emerge encouraging perspectives. However such initiatives can only be achieved within multidisciplinary collaborations with many functional, technical and financial means. Creating such a consortium seems to be the next required step to get a funding necessary for realizing a first functional prototype of the PAMMA, as well as its first applications. Some clinical studies may be conducted to prove undoubtedly the effectiveness of such an approach for treating dyslexia and eventually other neuropsychological disorders.
|
179 |
Meta-analysis applied to Multi-agent Software Engineering / Méta-analyse pour le génie logiciel des systèmes multi-agentsRazo Ruvalcaba, Luis Alfonso 23 July 2012 (has links)
Considérant un point de vue général de cette thèse aborde le problème de trouver, à partir d'un ensemble de blocs de construction, un sous-ensemble qui procure une solution à un problème donné. Ceci est fait en tenant compte de la compatibilité de chacun des blocs de construction par rapport au problème et l'aptitude d'interaction entre ces parties pour former ensemble une solution. Dans la perspective notamment de la thèse sont les blocs de construction de méta-modèles et le problème donné est une description d'un problème peut être résolu en utilisant un logiciel et d'être résolu en utilisant un système multi-agents. Le noyau de la proposition de thèse est un processus qui analyse un problème donné et puis il proposé une solution possible basée sur système multi-agents pour ce problème. Il peut également indiquer que le problème ne peut être résolu par ce paradigme. Le processus adressée par la thèse consiste en les étapes principales suivantes: (1) A travers un processus de caractérisation on analyse la description du problème pour localiser le domaine de solutions, puis choisissez une liste de candidats des méta-modèles. (2) Les caractérisations de méta-modèles candidats sont prises, ils sont définis dans plusieurs domaines de la solution. On fait la chois parmi le domaine trouvé dans la étape précédant. (3) On crée un système multi-agents où chaque agent représente un candidat méta-modèle. Dans cette société les agents interagissent les uns avec les autres pour trouver un groupe de méta-modèles qui est adapté pour représenter une solution donnée. Les agents utilisent des critères appropriés pour chaque méta-modèle à représenter. Il évalue également la compatibilité des groupes créés pour résoudre le problème de décider le groupe final qui est la meilleure solution. Cette thèse se concentre sur la fourniture d'un processus et un outil prototype pour résoudre plutôt la dernière étape de la liste. Par conséquent, le chemin proposé a été créé à l'aide de plusieurs concepts de la méta-analyse, l'intelligence artificielle de coopération, de la cognition bayésienne, incertitude, la probabilité et statistique. / From a general point of view this thesis addresses an automatic path to build a solution choosing a compatible set of building blocks to provide such a solution to solve a given problem. To create the solution it is considered the compatibility of each available building block with the problem and also the compatibility between each building block to be employed within a solution all together. In the particular perspective of this thesis the building blocks are meta-models and the given problem is a description of a problem that can be solved using software using a multi-agent system paradigm. The core of the thesis proposal is the creation of a process based on a multi-agent system itself. Such a process analyzes the given problem and the available meta-models then it matches both and thus it suggests one possible solution (based on meta-models) for the problem. Nevertheless if no solution is found it also indicates that the problem can not be solved through this paradigm using the available meta-models. The process addressed by the thesis consists of the following main steps: (1) Through a process of characterization the problem description is analyzed in order to locate the solution domain and therefore employ it to choose a list of most domain compatible meta-models as candidates. (2) There are required also meta-model characterization that evaluate each meta-model performance within each considered domain of solution. (3) The matching step is built over a multi-agent system where each agent represents a candidate meta-model. Within this multi-agent system each agent interact with each other in order to find a group of suitable meta-models to represent a solution. Each agent use as criteria the compatibility between their represented candidate meta-model with the other represented meta-models. When a group is found the overall compatibility with the given problem is evaluated. Finally each agent has a solution group. Then these groups are compared between them in order to find the most suitable to solve the problem and then to decide the final group. This thesis focuses on providing a process and a prototype tool to solve the last step. Therefore the proposed path has been created using several concepts from meta-analysis, cooperative artificial intelligence, Bayesian cognition, uncertainty, probability and statistics.
|
180 |
Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles.Chazalet, Antonin 21 November 2008 (has links) (PDF)
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres : <br>- au développement d'applications à services métiers [ML07], <br>- à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a] <br>- à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici : <br>- d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application), <br>- de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications, <br>- d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services.
|
Page generated in 0.0463 seconds