Spelling suggestions: "subject:"ingénierie dirigées para les modèles,"" "subject:"ingénieries dirigées para les modèles,""
101 |
Model-Driven Software Engineering for Virtual Machine Images Provisioning in Cloud ComputingLe Nhan, Tam 10 December 2013 (has links) (PDF)
La couche Infrastructure- as-a-Service (IaaS) de Cloud Computing offre un service de déploiement des images de machines virtuelles (VMIs) à la demande. Ce service fournit une plate-forme flexible pour les utilisateurs de cloud computing pour développer , déployer et tester leurs applications. Le déploiement d'une VMI implique généralement le démarrage de l'image, l'installation et la configuration des paquets de logiciels. Dans l'approche traditionnelle, lorsqu'un utilisateur de cloud demande une nouvelle plate-forme, le fournisseur de cloud sélectionne une image de modèle approprié pour cloner et déployer sur les nœuds de cloud. L'image de modèle contient des paquets de logiciel pré-installés. Si elle ne correspond pas aux exigences, alors elle sera personnalisée ou la nouvelle image sera créé à partir de zéro pour s'adapter à la demande. Dans le cadre de la gestion des services de cloud, l'approche traditionnelle face aux questions difficiles de la manipulation de la complexité de l'interdépendance entre les paquets de logiciel, mise à l'échelle et le maintien de l' image déployée à l'exécution. Les fournisseurs de cloud souhaitent automatiser ce processus pour améliorer la performance de processus d'approvisionnement des VMIs, et de donner aux utilisateurs de cloud plus de flexibilité pour la sélection ou la création des images appropriées, tout en maximisant les avantages pour les fournisseurs en termes de temps, de ressources et de coût opérationnel. Cette thèse propose une approche pour gérer l'interdépendance des paquets de logiciels, pour modéliser et automatiser le processus de déploiement VMIs, et pour soutenir la reconfiguration VMIS à l'exécution, appelée l'approche dirigée par les modèle (Model-Driven approach). Nous nous adressons particulièrement aux défis suivants: (1) la modélisation de la variabilité des configurations d'image de machine virtuelle , (2) la réduction la quantité de transfert de données à travers le réseau , (3) l'optimisation de la consommation d'énergie des machines virtuelles ; (4) la facilité à utiliser pour les utilisateurs de cloud; (5) l'automatisation du déploiement des VMIs; (6) le support de la mise à l'échelle et la reconfiguration de VMIS à l'exécution ; (7) la manipulation de la topologie de déploiement complexe des VMIs . Dans notre approche, nous utilisons des techniques d'ingénierie dirigée par les modèles pour modéliser les représentations d'abstraction des configurations de VMI, le déploiement et les processus de reconfiguration d'image de machine virtuelle. Nous considérons que les VMIS comme une gamme de produits et utiliser les modèles de caractère pour représenter les configurations de VMIs. Nous définissons également le déploiement , les processus de reconfiguration et leurs facteurs (par exemple: les images de machines virtuelles, les paquets de logiciel, la plate-forme, la topologie de déploiement, etc.) comme les modèles. D'autre part, l'approche dirigée par les modèles s'appuie sur les abstractions de haut niveau de la configuration de VMIs et le déploiement de VMIs pour rendre la gestion d'images virtuelles dans le processus d'approvisionnement pour être plus flexible et plus facile que les approches traditionnelles.
|
102 |
INCREMENT une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûretéSannier, Nicolas 13 December 2013 (has links) (PDF)
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d'exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu.
|
103 |
A l'interface de l'ingénierie et de l'analyse environnementale, fédération pour une éco-conception proactiveRio, Maud 07 December 2012 (has links) (PDF)
Malgré le développement rapide d'outils et de méthodes appropriés, la pratique de l'éco-conception reste difficile en industrie. En particulier par le manque de dynamisme et de flexibilité des échanges d'informations entre les concepteurs multi-métier et l'expert environnement durant le processus de conception. Ainsi, ces recherches proposent une méthode leur permettant d'améliorer l'interopérabilité de leurs outils en utilisant la fédération fondée sur l'approche d'Ingénierie Dirigée par les Modèles (IDM). La méthode se décline en une étape de création de modèles associés aux outils des concepteurs et de l'expert environnement, et en une étape d'utilisation des modèles pour déployer le processus de conception suivant la tactique définie par les chefs de département. La proposition a été expérimentée sur deux cas d'études des entreprises Parkeon et Quiksilver. Les résultats des expérimentations montrent que la méthode est applicable au milieu industriel et confère trois propriétés : (1) la capacité de s'adapter aux différents contextes que nécessite la pratique de l'éco-conception (2) l'échange dynamique des données disponibles entre les concepteurs et l'expert environnement et (3) la capacité de l'expert environnement à répondre de manière adaptée aux concepteurs afin qu'ils réitèrent leurs choix en faveur de la composante environnementale. Enfin, la méthode contribue à construire une pro-activité des métiers durant le processus de conception. Cette dynamique facilite l'application de la tactique et de la stratégie environnementale.
|
104 |
De la Conception à l'Exploitation des Travaux Pratiques en Ligne : Application d'une Approche Générique à l'Enseignement de l'InformatiqueBouabid, Mohamed El-Amine 07 December 2012 (has links) (PDF)
La mise en ligne des travaux pratiques est une problématique de recherche étudiée depuis plus d'une décennie en raison des enjeux pédagogiques et économiques qu'elle engendre. En effet, il s'agit d'une catégorie d'enseignements indispensables aux disciplines scientifiques, technologiques et mathématiques et d'ingenierie visant à atteindre des objectifs d'apprentissage particuliers liés à l'acquisition de compétences professionnelles et scientifiques, mais aussi au travail de groupe et de communication. Des recherches dans le domaine des télé-TPs ont permis de mettre en évidence des problèmes d'ordre pédagogiques et techniques qui entravent le développement et l'acceptation des télé-TPs par les acteurs de la formation, dont nos travaux tentent d'apporter des réponses. En particulier, cette thèse traite les problématiques liées (1) aux fondements théoriques de l'apprentissage en ligne dans le cadre de télé-TPs, (2) aux avancées tant techniques que pédagogiques des Environnements Informatiques pour l'Apprentissage Humain (EIAH), et (3) aux avancées techniques et technologiques pour la mise en ligne de dispositifs de laboratoires distribués et mutualisés. En d'autres termes, il s'agit d'atteindre l'efficacité pédagogique des télé-TPs tout en les intégrant aux EIAHs utilisés pour les autres types d'activités d'apprentissage. Nos propositions s'articulent autour de deux éléments clés : (1) une architecture structurée en couches assurant une communication transparente entre les contextes d'apprentissage (EIAH) et d'expérimentation (laboratoires en ligne), et (2) un méta-modèle qui, d'une part, décrit de façon formelle les éléments inhérents à l'activité de télé-TP (laboratoires, dispositifs et expériences) ainsi que les activités réalisées par les utilisateurs sur ces entités, et d'autre part dirige le contrôle et la supervision des expériences et laboratoires. D'un point de vue technique, nos contributions concernent la proposition d'un méta-modèle standard pour le pilotage et la gestion du cycle de vie des expériences qui facilite la représentation homogène des dispositifs hétérogènes de laboratoires tout en favorisant le déploiement et l'exploitation d'expériences distribuées sur plusieurs sites, ainsi que l'introduction d'interfaces de contrôle et de supervision uniformes masquant les détails spécifiques des laboratoires distants aux applications de haut niveau telles que les EIAHs. D'un point de vue pédagogique, nous introduisons l'objet pédagogique " Expérience " afin d'encourager la pratique, le partage et la réutilisation des télé-TPs dans les cursus en ligne, et supportons différentes fonctions pédagogiques telles que l'apprentissage collaboratif et le tutorat (synchrone et asynchrone) à travers un ensemble d'IHMs adaptées dont le développement est rendu aisé par la décomposition du système global en différentes couches. Nos propositions ont été expérimentées dans le cadre de télé-TPs relatifs à notre domaine d'enseignement, l'informatique. Les différents méta-modèles génériques ont été spécialisés pour décrire et superviser l'environnement d'expérimentation ainsi que les expériences qui y prennent place, mais également afin de modéliser, stocker et exploiter les traces des interactions entre les utilisateurs et ces expériences. Enfin, des composants spécifiques assurent le lien entre les modèles abstraits et les ressources de bas niveau, alors que des outils et IHMs de haut niveau supportent différentes fonctions pédagogiques : * La conception pédagogique est étendue à la conception des expériences en ligne à travers une IHM intuitive proposée aux enseignants, qui leur permet de concevoir et de tester des expériences avec un niveau de complexité arbitraire. * L'apprentissage en ligne est supporté par une interface Homme-Machine réaliste qui assure à la fois la réalisation d'opérations sur les expériences distantes, une navigation efficace parmi les composants d'une expérience en ligne, mais également l'apprentissage collaboratif. * Le tutorat en ligne est supporté par une interface qui étend l'IHM d'apprentissage avec des privilèges élargis et des outils supplémentaires permettant aux tuteurs distants de détecter les situations de blocage, de venir en aide aux apprenants en difficulté, et enfin d'évaluer les travaux de ces apprenants.
|
105 |
Développement d'Applications à Grande Echelle par Composition de Méta-ModèlesVega Baez, German Eduardo 08 December 2005 (has links) (PDF)
Parmi les approches de génie logiciel, l'Ingénierie Dirigée par les Modèles (IDM) vise à fournir un cadre qui permet de s'attaquer à la complexité croissante du développement des logiciels dans un paradigme unificateur : elle conçoit l'intégralité du cycle de vie du logiciel comme un processus de production, de raffinement itératif et d'intégration de modèles.<br />Les travaux de cette thèse se placent dans cette mouvance. Nous nous intéressons particulièrement à la problématique de la gestion de la complexité et de la diversité de domaines métier impliqués dans les applications de grande taille, et nous proposons de l'approcher sous une optique IDM.<br />Un domaine est un champ d'expertise, potentiellement partagé par de multiples applications. La connaissance et le savoir-faire développé au sein de ce domaine deviennent des atouts majeurs. Cette expertise peut être formalisée, et surtout réutilisé, sous la forme d'un langage de modélisation dédié, un Domain Specific Language (DSL).<br />Nous proposons une démarche basée sur la description d'un système par divers modèles exprimés dans des langages de modélisation dédiés différents. La composition de modèles permet de modéliser des applications complexes couvrant plusieurs domaines simultanément.<br />L'originalité de notre démarche est que, d'une part, chaque DSL est spécifié par un méta-modèle suffisamment précis pour pouvoir construire, de façon semi-automatique, une machine virtuelle spécialisée du domaine ; c'est cette machine virtuelle qui permet l'exécution des modèles associés. D'autre part, il est possible de composer ces méta-modèles pour définir de nouveaux domaines plus complexes. La composition de méta-modèles permet d'améliorer la modularité, d'obtenir de taux de réutilisation plus importants, et surtout d'obtenir des fonctionnalités plus vastes et sophistiquées que celles des domaines composés.
|
106 |
Modèles, outils et plate-forme d'exécution pour les applications à services dynamiquesMoreno, Diana 22 February 2013 (has links) (PDF)
L'essor de l'Internet et l'évolution des dispositifs communicants ont permis l'intégration du monde informatique et du monde réel, ouvrant ainsi la voie à de nouveaux types d'applications, tels que les applications ubiquitaires et pervasives. Ces applications doivent s'exécuter dans des contextes hétérogènes, distribués et ouverts qui sont en constante évolution. Dans de tels contextes, la disponibilité des services et des dispositifs, les préférences et la localisation des utilisateurs peuvent varier à tout moment pendant l'exécution des applications. La variabilité des contextes d'exécution fait que l'exécution d'une application dépend, par exemple, des services disponibles ou des dispositifs accessibles à l'exécution. En conséquence, l'architecture d'une telle application ne peut pas être connue statiquement à la conception, au développement ou au déploiement, ce qui impose de redéfinir ce qu'est une application dynamique : comment la concevoir, la développer, l'exécuter et la gérer à l'exécution. Dans cette thèse, nous proposons une approche dirigée par les modèles pour la conception, le développement et l'exécution d'applications dynamiques. Pour cela, nous avons défini un modèle de composants à services permettant d'introduire des propriétés de dynamisme au sein d'un modèle de composants. Ce modèle permet de définir une application en intention, par un ensemble de propriétés, de contraintes et de préférences de composition. Une application est ainsi spécifiée de façon abstraite ce qui permet de contrôler la composition graduelle de l'application lors de son développement et de son exécution. Notre approche vise à effacer la frontière entre les activités effectuées avant et pendant l'exécution des applications. Pour ce faire, le même modèle et les mêmes mécanismes de composition sont utilisés de la conception jusqu'à l'exécution des applications. A l'exécution, le processus de composition considère, en plus, les services disponibles dans la plate-forme d'exécution permettant la composition opportuniste des applications ; ainsi que la variabilité du contexte d'exécution permettant l'adaptation dynamique des compositions. Nous avons mis en oeuvre notre approche à travers le prototype nommé COMPASS, qui s'appuie sur les plates-formes CADSE pour la réalisation d'environnements logiciels de conception et de développement, et APAM pour la réalisation d'un environnement d'exécution d'applications à services dynamiques.
|
107 |
A Model Driven Method to Design and Analyze Secure System-of-Systems Architectures : Application to Predict Cascading Attacks in Smart Buildings. / Une Méthode Dirigée par les Modèles pour la Conception et l'Analyse des Architectures Sécurisées des Systèmes-de-Systèmes : Application à la Prédiction des Attaques en Cascade dans les Bâtiments Intelligents.El Hachem, Jamal 07 December 2017 (has links)
Le Système-de-Systèmes (SdS) devient l'un des principaux paradigmes pour l'ingénieriedes solutions de la prochaine génération, telles que les villes intelligentes, les bâtiments intelligents,les systèmes médicaux, les systèmes d'interventions d'urgence et les systèmes de défense. Parconséquent, l'intérêt apporté aux SdS, leur architecture et surtout leur sécurité est en croissancecontinue. Cependant, les caractéristiques de différenciation des SdS, telles que le comportementémergent et l'indépendance managériale et opérationnelle de ses constituants, peuvent introduiredes problèmes spécifiques qui rendent leurs modélisation, simulation et analyse de sécurité un déficritique. Dans cette thèse, nous étudions comment les approches du génie logiciel peuvent êtreétendues pour modéliser et analyser les architectures sécurisées de SdS, afin de découvrir lesattaques à fort impact (attaques en cascade) tôt à la phase d'architecture. Pour atteindre notreobjectif, nous proposons une méthode d'Ingénierie Dirigée par les Modèles (IDM), nommée Systems-of-Systems Security (SoSSec), qui comprend: (1) un langage de modélisation (SoSSecML) pour lamodélisation des architectures sécurisées des SdS, et une extension des Systèmes Multi-Agents(SMA) pour l'analyse des architectures sécurisées des SdS; (2) les outils correspondants: un éditeurgraphique, un générateur de code, une extension de la plate-forme Java Agent Development (JADE)pour la simulation des SMA, un outil personnalisé pour l'enregistrement des résultats de simulation;et (3) un processus pour guider l'utilisation de la méthode SoSSec. Pour illustrer notre approche,nous avons réalisé un cas d'étude sur un bâtiment intelligent réel, le bâtiment de l'école de santé del'Université d'Adélaïde (AHMS). / Systems-of-Systems (SoS) is becoming one of the major paradigm forengineering next generation solutions such as smart cities, smart buildings, health-care, emergencyresponse and defense. Therefore, there is a growing interest in SoS, their architecture and speciallytheir security. However, SoS differentiating characteristics, such as emergent behavior andmanagerial and operational independence of its constituents, may introduce specific issues thatmake their security modeling, simulation and analysis a critical challenge. In this thesis we investigatehow Software Engineering approaches can be extended to model and analyze secure SoS solutionsfor discovering high impact attacks (cascading attacks) at the architecture stage. In order to achieveour objective, we propose a Model Driven Engineering method, Systems-of-Systems Security(SoSSec), that comprises: (1) a modeling description language (SoSSecML) for secure SoS modelingand an extension of Multi-Agent Systems (MAS) for secure SoS architecture analysis, (2) thecorresponding tools: a graphical editor, a code generator, an extension of the Java AgentDevelopment (JADE) MAS simulation framework, a custom logging tool, (3) an utilization process toguide the use of the SoSSec method. To illustrate our approach we conducted a case study on a reallifesmart building SoS, the Adelaide University Health and Medical School (AHMS).
|
108 |
Modeling of Secure Dependable (S&D) applications based on patterns for Resource-Constrained Embedded Systems (RCES) / Modélisation des applications "sécurisées et sûres" (S&D) à base de patrons pour des systèmes embarqués contraints en ressources (RCES)Ziani, Adel 19 September 2013 (has links)
La complexité croissante du matériel et du logiciel dans le développement des applications pour les systèmes embarqués induit de nouveaux besoins et de nouvelles contraintes en termes de fonctionnalités, de capacité de stockage, de calcul et de consommation d'énergie. Cela entraîne des difficultés accrues pour les concepteurs alors que les contraintes commerciales liées aux développement et à la production de ces systèmes demeurent impondérables. Un autre défi qui s'ajoute à cette complexité est le développement des applications avec de fortes exigences de sécurité et de fiabilité (S&D) pour des systèmes embarqués contraints en ressources (RCES). De ce fait, nous recommandons d'aborder cette complexité via la réutilisation d'un ensemble d'artefacts de modélisation dédiés. Le "patron" constitue l'artefact de base pour représenter des solutions S&D, à spécifier par les experts de ces aspects et à réutiliser par les ingénieurs pour résoudre les problèmes de l'ingénierie système/logicielle du domaine confrontée à ces aspects. Dans le cadre de cette thèse, nous proposons une approche d'ingénierie à base de modèles pour la spécification, le packaging et la réutilisation de ces artefacts pour modéliser et analyser ces systèmes. Le fondement de notre approche est un ensemble de langages de modélisation et des règles de transformation couplés à un référentiel orienté modèles et de moteurs de recherche et d'instantiation. Ces langages de modélisation permettent de spécifier les patrons, les systèmes de patrons et un ensemble de modèles de propriétés et de ressources. Ces modèles permettent de gouverner l'utilisation des patrons, leur organisation et leur analyse pour d'éventuel réutilisation. Pour les transformations, nous avons conçu un ensemble de règles pour l'analyse de la satisfiabilité des architectures logicielles à base de patrons S&D pour des plateformes matérielles à base de modèles de ressources. Pour le développement du référentiel, nous proposons un processus de spécification et de génération basé sur les langages de modélisation décrits au préalable. Les moteurs permettent de retrouver pour ensuite instantier ces artefacts vers des environnements de développement spécifiques.Dans le cadre de l'assistance pour le développement des applications S&D pour les RCES, nous avons implémenté une suite d'outils, basés sur Eclipse EMF/QVTO, pour supporter la spécification de ces artefacts et l'analyse des applications S&D autour d'un référentiel. Afin de faciliter l'utilisation de l'approche proposée, nous préconisons un ensemble de méthodes pour favoriser l'utilisation de cette suite d'outils tout au long du processus de développement. En outre, nous avons abordé la construction par génération automatique de référentiels orientés modèles, basée sur Eclipse EMF/QVTO et la plateforme Eclispe CDO, accompagné d'un ensemble d'outils pour le peuplement, l'accès et la gestion de ce référentiel. Les problèmes étudiés dans ce travail ont été identifiés dans le contexte du projet européen FP7 TERESA. Les solutions proposées ont ainsi été démontrées et évaluées dans le cadre de ce projet à travers un cas d'étude d'une application de contrôle, exhibant des exigences de fiabilité et de sécurité, pour les systèmes ferroviaires. / Non-functional requirements such as Security and Dependability (S&D) become more and more important as well as more and more difficult to achieve, particularly in embedded systems development. Such systems come with a large number of common characteristics, including real-time and temperature constraints, security and dependability as well as efficiency requirements. In particular, the development of Resource Constrained Embedded Systems (RCES) has to address constraints regarding memory, computational processing power and/or energy consumption. In this work, we propose a modeling environment which associates model-driven paradigm and a model-based repository, to support the design and the packaging of S&D patterns, resource models and their property models. The approach is based on a set of modeling languages coupled with a model-repository, search and instantiation engines towards specific development environments. These modeling languages allow to specify patterns, resources and a set of property models. These property models will allow to govern the use of patterns and their analysis for reuse. In addition, we propose a specification and generation process of repositories. As part of the assistance for the development of S&D applications, we have implemented a suite of tool-chain based on the Eclipse platform to support the different activities around the repository, including the analysis activities. The proposed solutions were evaluated in the TERESA project through a case study from the railway domain.
|
109 |
Intégration de l'analyse de propriétés non-fonctionnelles dans l'Ingénierie Dirigée par les Modèles pour les systèmes embarqués / Integration of the Analysis of Non-Functional Properties in Model-Driven Engineering for Embedded SystemsBrau, Guillaume 13 March 2017 (has links)
L'ingénierie des systèmes embarqués repose sur deux activités complémentaires : la modélisation d'une part permet dereprésenter le système, l'analyse d’autre part permet d'évaluer les diverses propriétés non-fonctionnelles (par exemple despropriétés temporelles via l'analyse d’ordonnancement temps réel). Cette thèse s'intéresse à l'intégration entre ces modèleset analyses: comment appliquer une analyse sur une modèle ? Comment gérer le processus d’analyse ? La première partie de cette thèse présente une approche globale afin de répondre à ces questions. Cette approche s'organise autour de quatre couches applicatives: (1) les modèles qui représentent le système, (2) les accesseurs qui permettent d'extraire des données à partir d'un modèle, (3) l'analyse qui traite des données en entrée pour produire des données ou propriétés en sortie, (4) des contrats qui décrivent les interfaces d'une analyse et permettent d'orchestrer le processus d'analyse. La seconde partie de cette thèse est dédiée à l'expérimentation de cette approche sur des systèmes réels provenant du domaine aérospatial : un drone, un robot explorateur et un système de gestion de vol. Nous montrons que les accesseurs permettent d’appliquer diverses analyses d’ordonnancement temps réel sur des modèles architecturaux hétérogènes, par exemples décrits avec le standard industriel AADL (Architecture Analysis and Design Language) ou le nouveau langage dirigé par le temps CPAL (Cyber-Physical Action Language). En outre, nous montrons que les contrats peuvent être utilisés afin d’automatiser des procédures d'analyse complexes : quelle analyse peut être appliquée sur unmodèle ? Quelles analyses remplissent les objectifs visés ? Peut-on combiner des analyses ? Y-a-t-il des interférences entreles analyses ? Etc. / The engineering of embedded systems relies on two complementary activities: modeling on the one hand enables torepresent the system, analysis on the other hand makes it possible to evaluate the various non-functional properties (forexample, temporal properties with the real-time scheduling analysis). This thesis deals with the integration between thesemodels and analyses: how to apply an analysis on a model? How to manage the analysis process? The first part of this thesis presents a comprehensive approach to answer these questions. This approach is based on four application layers: (1) models to represent the system, (2) accessors to extract data from a model, (3) analyses to computeoutput data and/or properties from input data (4) contracts to represent the analysis interfaces and orchestrate the analysisprocess. The second part of this thesis deals with the experimentation of this approach with concrete systems coming fromthe aerospace: a drone, an exploratory robot and a flight management system. We demonstrate that the accessors enable toapply various real-time scheduling analyses on heterogeneous architectural models, for example written with the industrystandard AADL (Architecture Analysis and Design Language) or the new time-triggered language CPAL (Cyber-PhysicalAction Language). In addition, contracts make it possible to automate complex analysis procedures: which analysis can beapplied on a given model? Which are the analyses that meet a given goal? Are there analyses to be combined? Are thereinterferences between analyses? Etc.
|
110 |
Modèles, outils et plate-forme d’exécution pour les applications à service dynamiques / Models, tools and execution platform for dynamique service-oriented applicationsMoreno-Garcia, Diana 22 February 2013 (has links)
L'essor de l'Internet et l'évolution des dispositifs communicants ont permis l'intégration du monde informatique et du monde réel, ouvrant ainsi la voie à de nouveaux types d'applications, tels que les applications ubiquitaires et pervasives. Ces applications doivent s'exécuter dans des contextes hétérogènes, distribués et ouverts qui sont en constante évolution. Dans de tels contextes, la disponibilité des services et des dispositifs, les préférences et la localisation des utilisateurs peuvent varier à tout moment pendant l'exécution des applications. La variabilité des contextes d'exécution fait que l'exécution d'une application dépend, par exemple, des services disponibles ou des dispositifs accessibles à l'exécution. En conséquence, l'architecture d'une telle application ne peut pas être connue statiquement à la conception, au développement ou au déploiement, ce qui impose de redéfinir ce qu'est une application dynamique : comment la concevoir, la développer, l'exécuter et la gérer à l'exécution. Dans cette thèse, nous proposons une approche dirigée par les modèles pour la conception, le développement et l'exécution d'applications dynamiques. Pour cela, nous avons défini un modèle de composants à services permettant d'introduire des propriétés de dynamisme au sein d'un modèle de composants. Ce modèle permet de définir une application en intention, via un ensemble de propriétés, de contraintes et de préférences de composition. Une application est ainsi spécifiée de façon abstraite ce qui permet de contrôler la composition graduelle de l'application lors de son développement et de son exécution. Notre approche vise à effacer la frontière entre les activités effectuées avant et pendant l'exécution des applications. Pour ce faire, le même modèle et les mêmes mécanismes de composition sont utilisés de la conception jusqu'à l'exécution des applications. A l'exécution, le processus de composition considère, en plus, les services disponibles dans la plate-forme d'exécution permettant la composition opportuniste des applications ; ainsi que la variabilité du contexte d'exécution permettant l'adaptation dynamique des compositions. Nous avons mis en œuvre notre approche via un prototype nommé COMPASS, qui s'appuie sur les plates-formes CADSE pour la réalisation d'environnements logiciels de conception et de développement, et APAM pour la réalisation d'un environnement d'exécution d'applications à services dynamiques. / The growth of the Internet and the evolution of communicating devices have allow the integration of the computer world and the real world, paving the way for developing new types of applications such as pervasive and ubiquitous ones. These applications must run in heterogeneous, distributed and open environments that evolve constantly. In such environments, the availability of services and devices, the preferences and location of users may change at any time during the execution of applications. The variability of the execution context makes the execution of an application dependent on the available services and devices. Building applications capable of evolving dynamically to their execution context is a challenging task. In fact, the architecture of such an application cannot be fully known nor statically specified at design, development or deployment times. It is then needed to redefine the concept of dynamic application in order to cover the design, development, execution and management phases, and to enable thus the dynamic construction and evolution of applications. In this dissertation, we propose a model-driven approach for the design, development and execution of dynamic applications. We defined a component service model that considers dynamic properties within a component model. This model allows defining an application by its intention (its goal) through a set of composition properties, constraints and preferences. An application is thus specified in an abstract way, which allows controlling its gradual composition during development and execution times. Our approach aims to blur the boundary between development-time and runtime. Thus, the same model and the same composition mechanisms are used from design to runtime. At runtime, the composition process considers also the services available in the execution platform in order to compose applications opportunistically; and the variability of the execution context in order to adapt compositions dynamically. We implemented our approach through a prototype named COMPASS, which relies on the CADSE platform for building software design and development environments, and on the APAM platform for building an execution environment for dynamic service-based applications.
|
Page generated in 0.09 seconds