• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 5
  • 4
  • Tagged with
  • 23
  • 23
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Supporting integration activities in object-oriented applications / Aide à l'intégration des applications orientées objets

Uquillas Gómez, Verónica Isabel 04 October 2012 (has links)
Les développeurs doivent souvent intégrer des modifications dans les versions en production de leurs applications. Des techniques de fusion avancée et automatique les aident dans cette intégration. Cependant ces techniques ne permettent pas de garantir un système fonctionnel et ne supportent pas une adaptation à la carte. Les techniques de pointe sont pour la plus part des outils textuels qui ne fournissent pas un aperçu global des modifications. En même temps, les outils existants n'offrent pas la possibilité de comprendre les changements au sein de leur contexte spécifique. Les développeurs doivent lire le code changé, vérifier les `diffs', se construire une idée d'un changement par eux-mêmes et comprendre le contexte pour évaluer l'impact des modifications.Cela peut être compliqué dans l'intégration de grands systèmes avec des modifications dans différentes `branches'. La fusion textuelle automatique ne prend pas en compte les entités de programme qu’une modification affecte ou leurs dépendances. Les développeurs doivent comparer manuellement chaque des changements et leur source d'origine. Cette thèse présente une solution pour les activités d'intégration, comme aider à comprendre l'effet d'un changement au sein d'une longue liste de changements dans un `commit'. Nous proposons une représentation de l'histoire du code source et des modifications d'un logiciel. Nous calculons les dépendances logiques entre les changements. Avec le soutien d'un outil visuel pour la caractérisation des changements et des dépendances, il est possible de fournir une approche globale pour aider les développeurs à comprendre les changements et de les guider au cours des processus d’intégration. / Developers deal with the integration of source code changes into the system release. Automatic and advanced merging techniques help them to merge their modifications. While these techniques help to merge changes, they do not guarantee to have a functional system, and they do not support performing cherry picking. Current state-of-the-art consists mostly of textual diff tools that do not provide an overview of the changes (how changes are distributed? what groups of entities did change?). At the same time, existing tools do not offer the possibility to understand changes within their specific context. Developers need to manually read the changed code, check the diffs to build an idea of a change, understand its context and assess its impact. This can be more complicated when developing large systems and the integration of streams of changes between branches is needed. Merging changes does not take into account the program entities they affect or their dependencies. Developers are responsible for performing manual and tedious comparison within the input stream of changes and also with their originating source. This dissertation presents a solution that supports the integration activities, such as aiding in understanding changes within a commit or within a stream of changes. We propose a first-class representation of the source code history and changes of a software system to enable the calculation of dependencies between changes. This combined with visual tool support for characterizing changes and dependencies, makes it possible to provide encompassing support for software integration aiding developers in understanding changes and guiding them during the merging processes.
2

Supporting software integration activities with first-class code changes / Aide à l'intégration de branches grâce à la réification des changements

Dias, Victor 27 November 2015 (has links)
Les développeurs changent le code source en parallèle les uns des autres, ce qui fait diverger les bases de code. Ces divergences se doivent d'être réintégrées. L'intégration de bases de code divergentes est une activité complexe. Par exemple, réunir deux bases de code indépendamment correctes peut générer des problèmes. L'intégration peut être difficile avec les outils existants, qui, au lieu de gérer l'évolution des entités réelles du programme modifié, gère les changements de code au niveau des lignes de texte dans les fichiers sources. Les outils sont importants: les outils de développement de logiciels se sont grandement améliorés en passant par exemple d'éditeurs de texte génériques à des IDEs qui fournissent de la manipulation de code de haut niveau tels que la refactorisation automatique et la complétion de code. Cette amélioration a été possible grâce à la réification des entités de programme. Néanmoins, les outils d'intégration n'ont pas profité d'une réification similaire des entités de changement pour améliorer l'intégration. Dans cette thèse nous avons d'abord conduit une étude auprès de développeurs pour comprendre quelles sont les activités menées durant une intégration qui sont peu supportées par les outils. L'une d'elle est la détection de commits mêlés (qui contiennent des tâches non liées telles qu'une correction de bug et une refactorisation).Ensuite, nous proposons Epicea, un modèle de changement réifié et des outils d'IDE associés, et EpiceaUntangler, une approche pour aider les développeurs à démêler les commits en se basant sur Epicea. Les résultats de nos évaluations avec des études de cas issues du monde réel montrent l’utilité de nos approches. / Developers typically change codebases in parallel from each other, which results in diverging codebases. Such diverging codebases must be integrated when finished. Integrating diverging codebases involves difficult activities. For example, two changes that are correct independently can introduce subtle bugs when integrated together. Integration can be difficult with existing tools, which, instead of dealing with the evolution of the actual program entities being changed, handle code changes as lines of text in files. Tools are important: software development tools have greatly improved from generic text editors to IDEs by providing high-level code manipulation such as automatic refactorings and code completion. This improvement was possible by the reification of program entities. Nevertheless, integration tools did not benefit from a similar reification of change entities to improve productivity in integration. In this work we first conducted a study to learn which integration activities are important and have little tool support. We discovered that one of such activities is the detection of tangled commits (that contain unrelated tasks such as a bug fix and a refactoring). Then we proposed Epicea, a reified change model and associated IDE tools, and EpiceaUntangler, an approach to help developers share untangled commits based on Epicea. The results of our evaluations with real-world studies show the usefulness of our approaches.
3

Apport de la méta-modélisation formelle pour la conception des Systèmes Automatisés de Production

Piétrac, Laurent 12 January 1999 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'étude des langages et méthodes de conception des Systèmes Automatisés de Conception (SAP). Notre objectif est l'amélioration de la rigueur de la définition de ces langages et méthodes. Le moyen retenu est l'utilisation d'un langage formel, le langage Z, pour les méta-modéliser. Dans un premier temps, nous présentons les travaux existants sur l'étude de l'activité de modélisation, afin de montrer l'intérêt de la méta-modélisation vis-à-vis de notre objectif. Dans un deuxième temps, nous caractérisons les différents aspects que doit couvrir un méta-modèle pour représenter avec rigueur un langage ou une méthode. Dans un troisième temps, nous présentons de quelle façon le langage Z permet de couvrir l'ensemble de ces besoins. Nous validons alors notre approche sur deux exemples. Le premier exemple est un langage de conception des systèmes à événements discrets : les réseaux de Petri généralisés. Le deuxième exemple est une méthode de conception de la commande des systèmes hybrides intégrant deux langages : les réseaux de Petri temporels à événements et les équations différentielles.
4

Optimisation de placement des puits

Bouzarkouna, Zyed 03 April 2012 (has links) (PDF)
La quantité d'hydrocarbures récupérés peut être considérablement augmentée si un placement optimal des puits non conventionnels à forer, peut être trouvé. Pour cela, l'utilisation d'algorithmes d'optimisation, où la fonction objectif est évaluée en utilisant un simulateur de réservoir, est nécessaire. Par ailleurs, pour des réservoirs avec une géologie complexe avec des hétérogénéités élevées, le problème d'optimisation nécessite des algorithmes capables de faire face à la non-régularité de la fonction objectif. L'objectif de cette thèse est de développer une méthodologie efficace pour déterminer l'emplacement optimal des puits et leurs trajectoires, qui offre la valeur liquidative maximale en utilisant un nombre techniquement abordable de simulations de réservoir.Dans cette thèse, nous montrons une application réussie de l'algorithme "Covariance Matrix Adaptation - Evolution Strategy" (CMA-ES) qui est reconnu comme l'un des plus puissants optimiseurs sans-dérivés pour l'optimisation continue. Par ailleurs, afin de réduire le nombre de simulations de réservoir (évaluations de la fonction objectif), nous concevons deux nouveaux algorithmes. Premièrement, nous proposons une nouvelle variante de la méthode CMA-ES avec des méta-modèles, appelé le nouveau-local-méta-modèle CMA-ES (nlmm-CMA), améliorant la variante déjà existante de la méthode local-méta-modèle CMA-ES (lmm-CMA) sur la plupart des fonctions de benchmark, en particulier pour des tailles de population plus grande que celle par défaut. Ensuite, nous proposons d'exploiter la séparabilité partielle de la fonction objectif durant le processus d'optimisation afin de définir un nouvel algorithme appelé la partiellement séparable local-méta-modèle CMAES (p-sep lmm-CMA), conduisant à une réduction importante en nombre d'évaluations par rapport à la méthode CMA-ES standard.Dans cette thèse, nous appliquons également les algorithmes développés (nlmm-CMA et p-sep lmm-CMA) sur le problème de placement des puits pour montrer, à travers plusieurs exemples, une réduction significative du nombre de simulations de réservoir nécessaire pour trouver la configuration optimale des puits. Les approches proposées sont révélées prometteuses en considérant un budget restreint de simulations de réservoir, qui est le contexte imposé dans la pratique.Enfin, nous proposons une nouvelle approche pour gérer l'incertitude géologique pour le problème d'optimisation de placement des puits. L'approche proposée utilise seulement une réalisation, ainsi que le voisinage de chaque configuration, afin d'estimer sa fonction objectif au lieu d'utiliser multiples réalisations. L'approche est illustrée sur un cas de réservoir de benchmark, et se révèle être en mesure de capturer l'incertitude géologique en utilisant un nombre réduit de simulations de réservoir.
5

Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle, modèles et outils

Lefèvre, Marie 01 December 2009 (has links) (PDF)
Cette thèse en informatique se situe dans le domaine des Environnements Informatiques pour l'Apprentissage Humain (EIAH). Dans ce cadre, nous avons abordé la question de la personnalisation de l'apprentissage. Nos travaux de recherche consistaient à identifier un processus qui permette à la fois de personnaliser des séances de travail sur papier et des séances de travail sur des logiciels pédagogiques. Nous souhaitions que ce processus permette de prendre en compte les spécificités de chaque apprenant en s'appuyant sur son profil, mais qu'il prenne également en compte les buts et les habitudes pédagogiques des enseignants. Enfin, nous souhaitions que ce processus soit implémentable dans un système externe aux logiciels à personnaliser. Notre problématique s'est donc décomposée en trois points : comment exploiter les profils d'apprenants pour prendre en compte les individualités des apprenants ? Comment adapter une activité pour prendre en compte les besoins et habitudes pédagogiques d'un enseignant ? Et enfin, comment attribuer une activité à un apprenant ? Pour répondre au premier point, nous avons proposé le modèle cPMDL. Ce complément du langage de modélisation des profils PMDL permet de contraindre les profils des apprenants afin de sélectionner ceux ayant les caractéristiques requises par les contraintes. cPMDL nous permet donc d'exploiter les informations contenues dans les profils au sein du processus de personnalisation. Pour répondre au deuxième point, nous avons proposé l'approche GEPPETO. Cette approche s'appuie sur des modèles et des processus génériques permettant d'adapter les activités en fonction des intentions pédagogiques des enseignants grâce à la définition de contraintes sur les activités. Nous avons décliné cette approche pour permettre l'adaptation des activités papier (GEPPETOP), ainsi que pour l'adaptation des activités logicielles et de la configuration des environnements qui les supportent (GEPPETOS). Pour répondre au troisième point, nous avons proposé le modèle PERSUA2 qui permet de lier les contraintes sur profils de cPMDL aux contraintes sur activités de GEPPETO. Ces liens, nommés règles d'affectation, sont ensuite hiérarchisés selon leur degré de priorité pour former une stratégie pédagogique qui sera associée { un ou plusieurs contextes d'utilisation. Nous avons mis en oeuvre ces différentes contributions théoriques dans Adapte, un module de l'environnement informatique du projet PERLEA. Le rôle de cet environnement est d'assister l'enseignant dans la gestion de profils créés par l'enseignant lui-même ou issus de logiciels pédagogiques. Adapte est l'une des exploitations possibles des profils : le module réalisé permet de fournir à chaque apprenant des activités adaptées à son profil tout en respectant les choix pédagogiques de son enseignant. Ces activités peuvent être des activités papier proposées par le système ou des activités logicielles personnalisées par Adapte, mais effectuées dans un autre EIAH. Ce module, pleinement opérationnel, a montré la faisabilité technique de nos contributions théoriques et nous a permis de conduire des mises à l'essai auprès d'enseignants
6

Optimisation de placement des puits / Well placement optimization

Bouzarkouna, Zyed 03 April 2012 (has links)
La quantité d’hydrocarbures récupérés peut être considérablement augmentée si un placement optimal des puits non conventionnels à forer, peut être trouvé. Pour cela, l’utilisation d’algorithmes d’optimisation, où la fonction objectif est évaluée en utilisant un simulateur de réservoir, est nécessaire. Par ailleurs, pour des réservoirs avec une géologie complexe avec des hétérogénéités élevées, le problème d’optimisation nécessite des algorithmes capables de faire face à la non-régularité de la fonction objectif. L’objectif de cette thèse est de développer une méthodologie efficace pour déterminer l’emplacement optimal des puits et leurs trajectoires, qui offre la valeur liquidative maximale en utilisant un nombre techniquement abordable de simulations de réservoir.Dans cette thèse, nous montrons une application réussie de l’algorithme “Covariance Matrix Adaptation - Evolution Strategy” (CMA-ES) qui est reconnu comme l’un des plus puissants optimiseurs sans-dérivés pour l’optimisation continue. Par ailleurs, afin de réduire le nombre de simulations de réservoir (évaluations de la fonction objectif), nous concevons deux nouveaux algorithmes. Premièrement, nous proposons une nouvelle variante de la méthode CMA-ES avec des méta-modèles, appelé le nouveau-local-méta-modèle CMA-ES (nlmm-CMA), améliorant la variante déjà existante de la méthode local-méta-modèle CMA-ES (lmm-CMA) sur la plupart des fonctions de benchmark, en particulier pour des tailles de population plus grande que celle par défaut. Ensuite, nous proposons d’exploiter la séparabilité partielle de la fonction objectif durant le processus d’optimisation afin de définir un nouvel algorithme appelé la partiellement séparable local-méta-modèle CMAES (p-sep lmm-CMA), conduisant à une réduction importante en nombre d’évaluations par rapport à la méthode CMA-ES standard.Dans cette thèse, nous appliquons également les algorithmes développés (nlmm-CMA et p-sep lmm-CMA) sur le problème de placement des puits pour montrer, à travers plusieurs exemples, une réduction significative du nombre de simulations de réservoir nécessaire pour trouver la configuration optimale des puits. Les approches proposées sont révélées prometteuses en considérant un budget restreint de simulations de réservoir, qui est le contexte imposé dans la pratique.Enfin, nous proposons une nouvelle approche pour gérer l’incertitude géologique pour le problème d’optimisation de placement des puits. L’approche proposée utilise seulement une réalisation, ainsi que le voisinage de chaque configuration, afin d’estimer sa fonction objectif au lieu d’utiliser multiples réalisations. L’approche est illustrée sur un cas de réservoir de benchmark, et se révèle être en mesure de capturer l’incertitude géologique en utilisant un nombre réduit de simulations de réservoir. / The amount of hydrocarbon recovered can be considerably increased by finding optimal placement of non-conventional wells. For that purpose, the use of optimization algorithms, where the objective function is evaluated using a reservoir simulator, is needed. Furthermore, for complex reservoir geologies with high heterogeneities, the optimization problem requires algorithms able to cope with the non-regularity of the objective function. The goal of this thesis was to develop an efficient methodology for determining optimal well locations and trajectories, that offers the maximum asset value using a technically feasible number of reservoir simulations.In this thesis, we show a successful application of the Covariance Matrix Adaptation - Evolution Strategy (CMA-ES) which is recognized as one of the most powerful derivative-free optimizers for continuous optimization. Furthermore, in order to reduce the number of reservoir simulations (objective function evaluations), we design two new algorithms. First, we propose a new variant of CMA-ES with meta-models, called the newlocal-meta-model CMA-ES (nlmm-CMA), improving over the already existing variant of the local-meta-model CMA-ES (lmm-CMA) on most benchmark functions, in particular for population sizes larger than the default one. Then, we propose to exploit the partial separability of the objective function in the optimization process to define a new algorithm called the partially separable local-meta-model CMA-ES (p-sep lmm-CMA), leading to an important speedup compared to the standard CMA-ES.In this thesis, we apply also the developed algorithms (nlmm-CMA and p-sep lmm-CMA) on the well placement problem to show, through several examples, a significant reduction of the number of reservoir simulations needed to find optimal well configurations. The proposed approaches are shown to be promising when considering a restricted budget of reservoir simulations, which is the imposed context in practice.Finally, we propose a new approach to handle geological uncertainty for the well placement optimization problem. The proposed approach uses only one realization together with the neighborhood of each well configuration in order to estimate its objective function instead of using multiple realizations. The approach is illustrated on a synthetic benchmark reservoir case, and is shown to be able to capture the geological uncertainty using a reduced number of reservoir simulations.
7

Une approche déclarative pour la génération de modèles / A Declarative Approach for Model Generation

Ferdjoukh, Adel 20 October 2016 (has links)
Disposer de données dans le but de valider ou tester une approche ou un concept est d'une importance primordiale dans beaucoup de domaines différents. Malheureusement, ces données ne sont pas toujours disponibles, sont coûteuses à obtenir, ou bien ne répondent pas à certaines exigences de qualité ce qui les rend inutiles dans certains cas de figure.Un générateur automatique de données est un bon moyen pour obtenir facilement et rapidement des données valides, de différentes tailles, pertinentes et diversifiées. Dans cette thèse, nous proposons une nouvelle approche complète, dirigée par les modèles et basée sur la programmation par contraintes pour la génération de données. / Owning data is useful in many different fields. Data can be used to test and to validate approaches, algorithms and concepts. Unfortunately, data is rarely available, is cost to obtain, or is not adapted to most of cases due to a lack of quality.An automated data generator is a good way to generate quickly and easily data that are valid, in different sizes, likelihood and diverse.In this thesis, we propose a novel and complete model driven approach, based on constraint programming for automated data generation.
8

Méthodes avancées d'optimisation par méta-modèles – Applicationà la performance des voiliers de compétition / Advanced surrogate-based optimization methods - Application to racing yachts performance

Sacher, Matthieu 10 September 2018 (has links)
L’optimisation de la performance des voiliers est un problème difficile en raison de la complexité du systèmemécanique (couplage aéro-élastique et hydrodynamique) et du nombre important de paramètres à optimiser (voiles, gréement,etc.). Malgré le fait que l’optimisation des voiliers est empirique dans la plupart des cas aujourd’hui, les approchesnumériques peuvent maintenant devenir envisageables grâce aux dernières améliorations des modèles physiques et despuissances de calcul. Les calculs aéro-hydrodynamiques restent cependant très coûteux car chaque évaluation demandegénéralement la résolution d’un problème non linéaire d’interaction fluide-structure. Ainsi, l’objectif central de cette thèseest de proposer et développer des méthodes originales dans le but de minimiser le coût numérique de l’optimisation dela performance des voiliers. L’optimisation globale par méta-modèles Gaussiens est utilisée pour résoudre différents problèmesd’optimisation. La méthode d’optimisation par méta-modèles est étendue aux cas d’optimisations sous contraintes,incluant de possibles points non évaluables, par une approche de type classification. L’utilisation de méta-modèles à fidélitésmultiples est également adaptée à la méthode d’optimisation globale. Les applications concernent des problèmesd’optimisation originaux où la performance est modélisée expérimentalement et/ou numériquement. Ces différentes applicationspermettent de valider les développements des méthodes d’optimisation sur des cas concrets et complexes, incluantdes phénomènes d’interaction fluide-structure. / Sailing yacht performance optimization is a difficult problem due to the high complexity of the mechanicalsystem (aero-elastic and hydrodynamic coupling) and the large number of parameters to optimize (sails, rigs, etc.).Despite the fact that sailboats optimization is empirical in most cases today, the numerical optimization approach is nowconsidered as possible because of the latest advances in physical models and computing power. However, these numericaloptimizations remain very expensive as each simulation usually requires solving a non-linear fluid-structure interactionproblem. Thus, the central objective of this thesis is to propose and to develop original methods aiming at minimizing thenumerical cost of sailing yacht performance optimization. The Efficient Global Optimization (EGO) is therefore appliedto solve various optimization problems. The original EGO method is extended to cases of optimization under constraints,including possible non computable points, using a classification-based approach. The use of multi-fidelity surrogates isalso adapted to the EGO method. The applications treated in this thesis concern the original optimization problems inwhich the performance is modeled experimentally and/or numerically. These various applications allow for the validationof the developments in optimization methods on real and complex problems, including fluid-structure interactionphenomena.
9

Optimisation de Forme Multi-Objectif sur Machines Parallèles avec<br />Méta-Modèles et Coupleurs. Application aux Chambres de Combustion Aéronautiques.

Duchaine, Florent 15 November 2007 (has links) (PDF)
Les normes drastiques sur les émissions d'espèces polluantes et la volonté de réduire les délais de mise sur le marché incitent les motoristes à repenser les concepts de la nouvelle génération de chambres de combustion ainsi que leurs méthodes de conception. Les codes de simulation numérique des écoulements turbulents réactifs, basés sur une approche de moyenne de Reynolds (RANS), sont utilisés depuis quelques années par les ingénieurs dans les phases de conception des foyers aéronautiques. Leur emploi a permis de réduire les temps et les coûts de conception en diminuant notamment le nombre d'essais expérimentaux. La manière d'utiliser ces outils demeure un point clé pour élaborer des environnements performants d'aide à la décision.<br /><br />Le but de ces travaux de thèse est de fournir une méthodologie basée sur des considérations issues de l'optimisation multi-objectif pour développer un outil de conception automatisé qui intègre des codes de simulation numérique pour évaluer les configurations. En premier lieu, les études concernent l'automatisation des procédures de simulation en insistant sur les aspects de génération automatique de maillage. Ensuite, le problème des temps de restitution liés à l'utilisation conjointe de techniques d'optimisation et de codes de calcul coûteux en ressources informatiques est adressé en proposant un algorithme basé sur des méta-modèles. L'outil final est construit à partir d'un coupleur de codes parallèles, lui conférant ainsi des caractéristiques intéressantes de performance et de flexibilité. Finalement, après divers tests de validation et d'évaluation, une application sur une chambre de combustion industrielle montre les capacités de la méthode à identifier des configurations prometteuses.
10

SAIA: Un style architectural pour assurer l'indépendance vis-à-vis d'entrées / sorties soumises à des contraintes temporelles

Deantoni, Julien 12 October 2007 (has links) (PDF)
Du fait de leur complexité croissante, le développement des systèmes embarqués et temps réel nécessitent conjointement l'application de principes de génie logiciel et l'application de techniques formelles. Le travail développé pendant cette thèse propose une approche et des outils basés sur les modèles. Ces modèles, basés sur UML (Unified Modeling Language), permettent de définir un style architectural appelé SAIA (Sensors Actuators Independent Architecture) dont l'objectif est le développement et la mise au point de systèmes temps réel en intégrant l'évolution et la variabilité des plateformes. On entend ici par plateforme les services de communication entre le système et son environnement physique, c'est-à-dire des opérations de lecture et d'écriture via les capteurs et les actionneurs.<br /><br />Pour répondre à cet objectif, l'idée de SAIA est de séparer clairement le modèle de plateforme du modèle de l'application. À cette fin, SAIA propose l'introduction d'une plateforme de communication abstraite avec le processus. Cette plateforme abstraite est composée d'entrées et de sorties utiles pour effectuer le contrôle, mais indépendantes d'une technologie de capteurs/actionneurs particulière. L'application est développée en se basant sur les services fournis par la plateforme abstraite.%Une application temps réel ne peut pas être validée en ne considérant que ses aspects fonctionnels.<br />La stabilité d'une application de contrôle et sa qualité de contrôle sont, entre autres, dépendantes des caractéristiques temporelles de la plateforme abstraite. Cette dernière est donc composée d'un ensemble de services ainsi que d'une description de ses caractéristiques temporelles (notées QoS pour Quality of Service). La description de la QoS de la plateforme abstraite reflète le comportement temporel, sous forme de omega-expression régulière de la plateforme abstraite pour laquelle l'application a le comportement souhaité. Ainsi, nous avons d'un côté un modèle de la plateforme abstraite et de la QoS permettant la correction de l'application et de l'autre un modèle de la plateforme réelle dont la QoS a été analysée. Afin de connecter la plateforme abstraite à la plateforme réelle, SAIA s'appuie sur un connecteur complexe. Ce connecteur complexe est un assemblage de composants, décrit formellement par des automates temporisés réalisant des services de formatage, d'interprétation, de fusion de données et enfin d'adaptation de la QoS.<br />Le connecteur complexe possède un comportement et modifie donc la QoS de la plateforme réelle. Afin d'évaluer l'impact du connecteur complexe sur la QoS de la plateforme réelle, une analyse formelle basée sur la simulation exhaustive du connecteur complexe est réalisée. Il est alors nécessaire de s'assurer que cette QoS nouvellement évaluée satisfait la QoS de la plateforme abstraite et permet ainsi la réalisation d'un système correct. La vérification de cette satisfaction est basée sur l'établissement d'un contrat de QoS. Dans SAIA, l'établissement d'un contrat de QoS est basé sur une relation de satisfaction (équivalence de trace) entre systèmes à transitions étiquetés. Enfin, SAIA a été mis en oeuvre à plusieurs reprises dont, lors de deux concours d'implémentation de robots d'exploration terrestre dans le cadre de workshop satellites de RTSS (Real Time System Symposium).

Page generated in 0.0494 seconds