81 |
Modeling of Secure Dependable (S&D) applications based on patterns for Resource-Constrained Embedded Systems (RCES) / Modélisation des applications "sécurisées et sûres" (S&D) à base de patrons pour des systèmes embarqués contraints en ressources (RCES)Ziani, Adel 19 September 2013 (has links)
La complexité croissante du matériel et du logiciel dans le développement des applications pour les systèmes embarqués induit de nouveaux besoins et de nouvelles contraintes en termes de fonctionnalités, de capacité de stockage, de calcul et de consommation d'énergie. Cela entraîne des difficultés accrues pour les concepteurs alors que les contraintes commerciales liées aux développement et à la production de ces systèmes demeurent impondérables. Un autre défi qui s'ajoute à cette complexité est le développement des applications avec de fortes exigences de sécurité et de fiabilité (S&D) pour des systèmes embarqués contraints en ressources (RCES). De ce fait, nous recommandons d'aborder cette complexité via la réutilisation d'un ensemble d'artefacts de modélisation dédiés. Le "patron" constitue l'artefact de base pour représenter des solutions S&D, à spécifier par les experts de ces aspects et à réutiliser par les ingénieurs pour résoudre les problèmes de l'ingénierie système/logicielle du domaine confrontée à ces aspects. Dans le cadre de cette thèse, nous proposons une approche d'ingénierie à base de modèles pour la spécification, le packaging et la réutilisation de ces artefacts pour modéliser et analyser ces systèmes. Le fondement de notre approche est un ensemble de langages de modélisation et des règles de transformation couplés à un référentiel orienté modèles et de moteurs de recherche et d'instantiation. Ces langages de modélisation permettent de spécifier les patrons, les systèmes de patrons et un ensemble de modèles de propriétés et de ressources. Ces modèles permettent de gouverner l'utilisation des patrons, leur organisation et leur analyse pour d'éventuel réutilisation. Pour les transformations, nous avons conçu un ensemble de règles pour l'analyse de la satisfiabilité des architectures logicielles à base de patrons S&D pour des plateformes matérielles à base de modèles de ressources. Pour le développement du référentiel, nous proposons un processus de spécification et de génération basé sur les langages de modélisation décrits au préalable. Les moteurs permettent de retrouver pour ensuite instantier ces artefacts vers des environnements de développement spécifiques.Dans le cadre de l'assistance pour le développement des applications S&D pour les RCES, nous avons implémenté une suite d'outils, basés sur Eclipse EMF/QVTO, pour supporter la spécification de ces artefacts et l'analyse des applications S&D autour d'un référentiel. Afin de faciliter l'utilisation de l'approche proposée, nous préconisons un ensemble de méthodes pour favoriser l'utilisation de cette suite d'outils tout au long du processus de développement. En outre, nous avons abordé la construction par génération automatique de référentiels orientés modèles, basée sur Eclipse EMF/QVTO et la plateforme Eclispe CDO, accompagné d'un ensemble d'outils pour le peuplement, l'accès et la gestion de ce référentiel. Les problèmes étudiés dans ce travail ont été identifiés dans le contexte du projet européen FP7 TERESA. Les solutions proposées ont ainsi été démontrées et évaluées dans le cadre de ce projet à travers un cas d'étude d'une application de contrôle, exhibant des exigences de fiabilité et de sécurité, pour les systèmes ferroviaires. / Non-functional requirements such as Security and Dependability (S&D) become more and more important as well as more and more difficult to achieve, particularly in embedded systems development. Such systems come with a large number of common characteristics, including real-time and temperature constraints, security and dependability as well as efficiency requirements. In particular, the development of Resource Constrained Embedded Systems (RCES) has to address constraints regarding memory, computational processing power and/or energy consumption. In this work, we propose a modeling environment which associates model-driven paradigm and a model-based repository, to support the design and the packaging of S&D patterns, resource models and their property models. The approach is based on a set of modeling languages coupled with a model-repository, search and instantiation engines towards specific development environments. These modeling languages allow to specify patterns, resources and a set of property models. These property models will allow to govern the use of patterns and their analysis for reuse. In addition, we propose a specification and generation process of repositories. As part of the assistance for the development of S&D applications, we have implemented a suite of tool-chain based on the Eclipse platform to support the different activities around the repository, including the analysis activities. The proposed solutions were evaluated in the TERESA project through a case study from the railway domain.
|
82 |
Optimisation de l’architecture de systèmes embarqués par une approche basée modèle / Architecture Optimization of Embedded Systems with a Model Based ApproachLeserf, Patrick 02 May 2017 (has links)
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus. / Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV).
|
83 |
Une modélisation de la variabilité multidimensionnelle pour une évolution incrémentale des lignes de produits / A multidimensionnal variability modeling for an incremental product line evolutionCreff, Stephen 09 December 2013 (has links)
Le doctorat s'inscrit dans le cadre d'une bourse CIFRE et d'un partenariat entre l'ENSTA Bretagne, l'IRISA et Thales Air Systems. Les préoccupations de ce dernier, et plus particulièrement de l'équipe de rattachement, sont de réaliser des systèmes à logiciels prépondérants embarqués. La complexité de ces systèmes et les besoins de compétitivité associés font émerger la notion de "Model-Based Product Lines(MBPLs)". Celles-ci tendent à réaliser une synergie de l'abstraction de l'Ingénierie Dirigée par les Modèles (IDM) et de la capacité de gestion de la capitalisation et réutilisation des Lignes de Produits (LdPs). La nature irrévocablement dynamique des systèmes réels induit une évolution permanente des LdPs afin de répondre aux nouvelles exigences des clients et pour refléter les changements des artefacts internes de la LdP. L'objectif de cette thèse est unique, maîtriser des incréments d'évolution d'une ligne de produits de systèmes complexes, les contributions pour y parvenir sont duales. La thèse est que 1) une variabilité multidimensionnelle ainsi qu'une modélisation relationnelle est requise dans le cadre de lignes de produits de systèmes complexes pour en améliorer la compréhension et en faciliter l'évolution (proposition d'un cadre générique de décomposition de la modélisation et d'un langage (DSML) nommé PLiMoS, dédié à l'expression relationnelle et intentionnelle dans les MBPLs), et que 2) les efforts de spécialisation lors de la dérivation d'un produit ainsi que l'évolution de la LdP doivent être guidé par une architecture conceptuelle (introduction de motifs architecturaux autour de PLiMoS et du patron ABCDE) et capitalisés dans un processus outillé semi-automatisé d'évolution incrémentale des lignes de produits par extension. / The PhD (CIFRE fundings) was supported by a partnership between three actors: ENSTA Bretagne, IRISA and Thales Air Systems. The latter's concerns, and more precisely the ones from the affiliation team, are to build embedded software-intensive systems. The complexity of these systems, combined to the need of competitivity, reveal the notion of Model-Based Product Lines (MBPLs). They make a synergy of the capabilities of modeling and product line approaches, and enable more efficient solutions for modularization with the distinction of abstraction levels and separation of concerns. Besides, the dynamic nature of real-world systems induces that product line models need to evolve continually to meet new customer requirements and to reflect changes in product line artifacts. The aim of the thesis is to handle the increments of evolution of complex systems product lines, the contributions to achieve it are twofolds. The thesis claims that i) a multidimensional variability and a relational modeling are required within a complex system product line in order to enhance comprehension and ease the PL evolution (Conceptual model modularization framework and PliMoS Domain Specific Modeling Language proposition; the language is dedicated to relational and intentional expressions in MBPLs), and that ii) specialization efforts during product derivation have to be guided by a conceptual architecture (architectural patterns on top of PLiMoS, e.g.~ABCDE) and capitalized within a semi-automatic tooled process allowing the incremental PL evolution by extension.
|
84 |
Langage contrôlé pour la spécification des règles métier dans le contexte de la modélisation des systèmes d'information / Controlled natural language for business rules specification inthe context of information systems modellingFeuto Njonko, Paul Brillant 25 November 2014 (has links)
Notre thèse s’inscrit dans le cadre des langages contrôlés pour le génie logiciel. Elle a pour but de faciliter l’adoption de l’approche par règles métier (ARM) par les entreprises en créant un langage contrôlé en vue d’aider à la spécification des règles métier par les experts métier. Notre solution va permettre de réduire la distance sémantique entre les experts métier et les experts système afin de répondre non seulement au besoin d’intercompréhension entre ces derniers mais aussi pour réaliser un transfert automatique de la description des règles métier vers les systèmes d’information (SI). Ce langage contrôlé que nous avons créé permettra d’assurer en plus la consistance et la traçabilité de ces règles avec leur implantation / Our thesis focuses on controlled natural languages (CNL) for software engineering. It aims at facilitating the adoption of the business rule approach (BRA) by companies by creating a CNL in order to help business experts in the specification of their business rules. Our solution will allow reducing the semantic gap between business experts and system experts to meet not only the need for mutual understanding between them but also to achieve an automatic transfer of the description of business rules to information systems (IS). The CNL that we have created will also ensure the consistency and the traceability of these rules together with their implementation
|
85 |
Intégration des techniques de vérification formelle dans une approche de conception des systèmes de contrôle-commande : application aux architectures SCADA / Integration of formal verification techniques into a control-command system design approach : application to SCADA architecturesKesraoui, Soraya 11 May 2017 (has links)
La conception des systèmes de contrôle-commande souffre souvent des problèmes de communication et d’interprétation des spécifications entre les différents intervenants provenant souvent de domaines techniques très variés. Afin de cadrer la conception de ces systèmes, plusieurs démarches ont été proposées dans la littérature. Parmi elles, la démarche dite mixte (ascendante/descendante), qui voit la conception réalisée en deux phases. Dans la première phase (ascendante), un modèle du système est défini à partir d’un ensemble de composants standardisés. Ce modèle subit, dans la deuxième phase (descendante), plusieurs raffinages et transformations pour obtenir des modèles plus concrets (codes,applicatifs, etc.). Afin de garantir la qualité des systèmes conçus par cette démarche, nous proposons dans cette thèse, deux approches de vérification formelle basées sur le Model-Checking. La première approche porte sur la vérification des composants standardisés et permet la vérification d’une chaîne de contrôle-commande élémentaire complète. La deuxième approche consiste en la vérification des modèles d’architecture (P&ID) utilisés pour la génération des programmes de contrôle-commande. Cette dernière est basée sur la définition d’un style architectural en Alloy pour la norme ANSI/ISA-5.1. Pour supporter les deux approches, deux flots de vérification formelle semi-automatisés basés sur les concepts de l’IDM ont été proposés. L’intégration des méthodes formelles dans un contexte industriel est facilitée, ainsi, par la génération automatique des modèles formels à partir des modèles de conception maîtrisés par les concepteurs métiers. Nos deux approches ont été validées sur un cas industriel concret concernant un système de gestion de fluide embarqué dans un navire. / The design of control-command systems often suffers from problems of communication and interpretation of specifications between the various designers, frequently coming from a wide range of technical fields. In order to address the design of these systems, several methods have been proposed in the literature. Among them, the so-called mixed method (bottom-up/top-down), which sees the design realized in two steps. In the first step (bottom-up), a model of the system is defined from a set of standardized components. This model undergoes, in the second (top-down) step, several refinements and transformations to obtain more concrete models (codes, applications, etc.). To guarantee the quality of the systems designed according to this method, we propose two formal verification approaches,based on Model-Checking, in this thesis. The first approach concerns the verification of standardized components and allows the verification of a complete elementary control-command chain. The second one consists in verifying the model of architecture (P&ID) used for the generation of control programs.The latter is based on the definition of an architectural style in Alloy for the ANSI/ISA-5.1 standard. To support both approaches, two formal semi-automated verification flows based on Model-Driven Engineering have been proposed. This integration of formal methods in an industrial context is facilitated by the automatic generation of formal models from design models carried out by business designers. Our two approaches have been validated on a concrete industrial case of a fluid management system embedded in a ship.
|
86 |
Entwurf und Evaluierung einer prädiktiven Fahrstrategie auf Basis von Ampel-Fahrzeug-KommunikationsdatenSchubert, Torsten 08 August 2010 (has links)
In der vorliegenden Arbeit wird eine prädiktive Fahrstrategie vorgestellt, die auf Basis von Ampel-Fahrzeug-Kommunikationsdaten generiert wird. Dazu wird ein aktueller Ansatz für eine prädiktive Fahrstrategie zur Annäherung an eine Lichtsignalanlage (LSA) untersucht. Es werden verschiedene Optimierungsansätze deutlich, von denen ein großer Teil bei der Systemerweiterung berücksichtigt wird.
Bei der Analyse konnte gezeigt werden, dass die bisherige Strategieempfehlung durch den Einfluss vorausfahrender Verkehrsteilnehmer eingeschränkt wird. Es ergaben sich potentielle Problemsituationen, welche sich im realen Straßenverkehr negativ auf die Funktionalität des Fahrerassistenzsystems (FAS) auswirken. Für Anfragen des Öffentlichen Personen Nachverkehrs (ÖPNV) wurde ermittelt, dass keine allgemeingültigen Aussagen über die Eignung der Assistenzfunktion gegeben werden können.
Die wesentliche Neuerung zu bisheriger Strategieansätze für die Annäherung an Knotenpunkte mit LSA ist die Berücksichtigung anderer Verkehrsteilnehmer. Dazu werden die neuen Größen effektive Freigabezeit und virtuelle Position der Haltelinie eingeführt, auf Basis derer die Strategieempfehlung des FAS an die Anzahl wartender Fahrzeug angepasst wird.
Zur Untersuchung des möglichen Energieeinsparpotentials durch den Einsatz eines FAS wurde ein Simulationsmodell in MATLAB/SIMULINK entwickelt. Mit dessen Hilfe konnten verschiedene Situationen dargestellt werden, an denen der Einfluss der Funkreichweite sowie die Auswirkungen der Warteschlange auf das FAS verdeutlicht werden. Ferner kann der positive Effekt auf den Kraftstoffverbrauch und die Haltezeit an der LSA bestätigt werden. Das Simulationsmodell stellt eine gute Grundlage für weiterführende Untersuchung dar und kann an unterschiedliche Situationen angepasst werden.
Um den Nutzen auch praktisch zu verifizieren wird eine Reihe von Fahrversuchen durchgeführt. Dem Fahrer wird dabei die Strategie in einem Display visualisiert. Für Situationen, in denen der Fahrzeugstillstand vermeidbar ist erhält dieser eine Geschwindigkeitsempfehlung. Ist ein Stillstand nicht vermeidbar, so erfolgt unmittelbar vor der Haltelinie, die Ausgabe der Restlaufzeit der Rotphase. Bei der Versuchsauswertung wird das Einsparpotential deutlich. Durch eine entwickelte GUI wird dem Fahrer eine Strategie auf dem Display visualisiert. Innerhalb mehrerer Versuchsfahrten konnten das FAS erprobt und in der anschließenden Versuchsauswertung klar die Verbesserungen aufgezeigt werden.:Abkürzungsverzeichnis
Symbolverzeichnis
1 Einleitung
1.1 Motivation
1.2 Zielsetzung der Arbeit
1.3 Aufbau der Arbeit
2 Stand der Technik
2.1 System Fahrer-Fahrzeug-Verkehr
2.2 Fahrerassistenzsysteme
2.2.1 Klassifizierung nach Art der Fahrerunterstützung
2.2.2 Klassifizierung nach Fahraufgabenebene
2.2.3 Prädiktive Fahrerassistenzsysteme
2.2.4 Kreuzungsassistenz
2.3 Kooperative Systeme
2.3.1 Forschungsaktivitäten in Europa
2.3.2 Fahrerassistenzsysteme zur Reduktion der Fahrzeugemissionen
2.4 Berechnung des Kraftstoffverbrauches
2.5 Positionsbestimmung im Strassenverkehr
2.5.1 Aufbau eines Satellitennavigationssystems
2.5.2 Ablauf einer Positionsbestimmung
2.5.3 Fehlerquellen und Ursachen bei der Positionsbestimmung
2.5.4 Genauigkeit der Positionsbestimmung
2.5.5 Verarbeitung der Positionsdaten
2.6 Lichtsignalanlagen (LSA)
2.6.1 Definition wichtiger Begriffe
2.6.2 Überblick über Steuerungsverfahren
2.6.3 Umschaltung zwischen Signalprogrammen
2.6.4 Bevorrechtigungsarten für den ÖPNV
3 Analyse des bestehenden Systems
3.1 Fahrprofile zur Annäherung an LSA
3.2 Nutzen des Assistenzsystems
3.3 Ausgangslage des bisherigen Fahrerassistenzsystems
3.3.1 Phasenzyklus
3.3.2 Fahrzeugortung
3.3.3 Kommunikationsdaten des Ampelmoduls
3.3.4 Strategieansatz
3.4 Analyse der Strategieempfehlung
3.5 Optimierungsansätze
4 Erweiterter Systementwurf
4.1 Rahmenbedingungen und Vorgaben
4.2 Entscheidungssystem
4.3 Einfluss von Fahrzeugkolonnen
4.4 Effektive Freigabezeit und Rückstaulänge
4.5 Untersuchung der Geschwindigkeitsregelgrenzen
4.6 ÖPNV - Umgang mit dynamischen Signallaufzeiten
4.7 Ermittlung einer Fahrstrategie
4.8 Zusammenfassung der Optimierung
5 Simulative Untersuchung
5.1 Longitudinalmodell - Intelligent Driver Model – IDM
5.2 Modell zur Schätzung des Kraftstoffverbrauches
5.3 Aufbau des SIMULINK-Modells
5.4 Parametervariation und Ergebnisse
5.4.1 Rahmenbedingungen und Vorgaben
5.4.2 Einfluss der Funkreichweite
5.4.3 Einfluss der Pulklänge
5.5 Zusammenfassung
6 Experimentelle Untersuchung
6.1 Versuchsaufbau
6.2 Mensch Maschine Schnittstelle
6.3 Programmstruktur
6.4 Versuchsdurchführung
6.5 Ergebnis und Zusammenfassung
7 Zusammenfassung und Ausblick
A Abbildungsverzeichnis
B Tabellenverzeichnis
C Literaturverzeichnis
D Anhang / In this paper a predictive driving strategy is presented, which is generated based on car to infrastructure communication data. An actual approach for a driver assistance system has been analyzed to identify room for improvements. The additional benefit of the presented work is the consideration of other road users driving ahead of the ego-vehicle in the process of finding the optimal speed for approaching the traffic-light.
A MATLAB/SIMULINK model has been developed, which allows the simulation of different traffic situations to investigate the fuel consumption benefit of a vehicle equipped with the considered system. It illustrates the influence of the radio range and the length of the queue in front of the stop line. Furthermore the positive effect to the fuel consumption of the developed system could be evaluated. The simulation model is a good basis for further tests and could be easily adapted to various situations and vehicles.
In addition to the simulation, a human machine interface was developed for evaluating the advanced driver assistance system in test runs. The driver assistance system was tested in several situations to show the benefit of the system. It has been tested via multiple test runs. In the following test evaluation the improvement could clearly be shown.:Abkürzungsverzeichnis
Symbolverzeichnis
1 Einleitung
1.1 Motivation
1.2 Zielsetzung der Arbeit
1.3 Aufbau der Arbeit
2 Stand der Technik
2.1 System Fahrer-Fahrzeug-Verkehr
2.2 Fahrerassistenzsysteme
2.2.1 Klassifizierung nach Art der Fahrerunterstützung
2.2.2 Klassifizierung nach Fahraufgabenebene
2.2.3 Prädiktive Fahrerassistenzsysteme
2.2.4 Kreuzungsassistenz
2.3 Kooperative Systeme
2.3.1 Forschungsaktivitäten in Europa
2.3.2 Fahrerassistenzsysteme zur Reduktion der Fahrzeugemissionen
2.4 Berechnung des Kraftstoffverbrauches
2.5 Positionsbestimmung im Strassenverkehr
2.5.1 Aufbau eines Satellitennavigationssystems
2.5.2 Ablauf einer Positionsbestimmung
2.5.3 Fehlerquellen und Ursachen bei der Positionsbestimmung
2.5.4 Genauigkeit der Positionsbestimmung
2.5.5 Verarbeitung der Positionsdaten
2.6 Lichtsignalanlagen (LSA)
2.6.1 Definition wichtiger Begriffe
2.6.2 Überblick über Steuerungsverfahren
2.6.3 Umschaltung zwischen Signalprogrammen
2.6.4 Bevorrechtigungsarten für den ÖPNV
3 Analyse des bestehenden Systems
3.1 Fahrprofile zur Annäherung an LSA
3.2 Nutzen des Assistenzsystems
3.3 Ausgangslage des bisherigen Fahrerassistenzsystems
3.3.1 Phasenzyklus
3.3.2 Fahrzeugortung
3.3.3 Kommunikationsdaten des Ampelmoduls
3.3.4 Strategieansatz
3.4 Analyse der Strategieempfehlung
3.5 Optimierungsansätze
4 Erweiterter Systementwurf
4.1 Rahmenbedingungen und Vorgaben
4.2 Entscheidungssystem
4.3 Einfluss von Fahrzeugkolonnen
4.4 Effektive Freigabezeit und Rückstaulänge
4.5 Untersuchung der Geschwindigkeitsregelgrenzen
4.6 ÖPNV - Umgang mit dynamischen Signallaufzeiten
4.7 Ermittlung einer Fahrstrategie
4.8 Zusammenfassung der Optimierung
5 Simulative Untersuchung
5.1 Longitudinalmodell - Intelligent Driver Model – IDM
5.2 Modell zur Schätzung des Kraftstoffverbrauches
5.3 Aufbau des SIMULINK-Modells
5.4 Parametervariation und Ergebnisse
5.4.1 Rahmenbedingungen und Vorgaben
5.4.2 Einfluss der Funkreichweite
5.4.3 Einfluss der Pulklänge
5.5 Zusammenfassung
6 Experimentelle Untersuchung
6.1 Versuchsaufbau
6.2 Mensch Maschine Schnittstelle
6.3 Programmstruktur
6.4 Versuchsdurchführung
6.5 Ergebnis und Zusammenfassung
7 Zusammenfassung und Ausblick
A Abbildungsverzeichnis
B Tabellenverzeichnis
C Literaturverzeichnis
D Anhang
|
87 |
Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis managementFertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
|
88 |
Évolution et transformation automatisée de modèles de systèmes d’information : une approche guidée par l’analyse formelle de concepts et l’analyse relationnelle de concepts / Evolution and Transformation automated models Information SystemsOsman Guedi, Abdoulkader 10 July 2013 (has links)
L'évolution rapide des besoins dus entre autres à l'innovation technique, la concurrence ou la réglementation conduit souvent à décrire le cadre d'étude des systèmes d'information dans des modèles conceptuels, pour faciliter l'évolution du fonctionnement des systèmes. La mise au point de ces modèles s'effectue en plusieurs phase au cours desquelles collaborent plusieurs équipes de nature différente, chaque intervenant apportant sa perception du système à construire en se limitant à la partie de son domaine de spécialisation. Il faut alors concilier les différentes perceptions. L'objectif essentiel de la thèse est de concevoir les mécanismes permettant d'une part d'obtenir le modèle factorisant les concepts communs à plusieurs modèles et, d'autre part, de proposer aux concepteurs une méthodologie de suivi de l'évolution de la factorisation. Pour réaliser la factorisation, nous avons mis en œuvre l'Analyse Formelle de Concepts et l'Analyse Relationnelle de Concepts (ARC) qui sont des méthodes d'analyse de données basées sur la théorie des treillis. Dans un ensemble d'entités décrites par des caractéristiques, les deux méthodes extraient des concepts formels qui associent un ensemble maximal d'entités à un ensemble maximal de caractéristiques partagées. Ces concepts formels sont structurés dans un ordre partiel de spécialisation qui les munit d'une structure de treillis. L'ARC permet de compléter la description des entités par des relations entre entités. La première contribution de la thèse est une méthode d'analyse de l'évolution de la factorisation d'un modèle basée sur l'AFC et l'ARC. Cette méthode s'appuie la capacité de l'AFC et de l'ARC à faire émerger au sein d'un modèle des abstractions thématiques de niveau supérieur, améliorant ainsi la sémantique des modèles. Nous montrons que ces méthodes peuvent aussi être employées pour suivre l'évolution du processus d'analyse avec des acteurs. Nous introduisons des métriques sur les éléments de modélisation et sur les treillis de concepts qui servent de base à l'élaboration de recommandations. Nous effectuons une expérimentation dans laquelle nous étudions l'évolution des 15 versions du modèle de classes du système d'information SIE-Pesticides. La seconde contribution de la thèse est une étude approfondie du comportement de l'ARC sur des modèles UML. Nous montrons l'influence de la structure des modèles sur différentes variables étudiées (comme les temps d'exécution et la mémoire occupée) au travers de plusieurs expérimentations sur les 15 versions du modèle SIE-Pesticides. Pour cela, nous étudions plusieurs configurations (choix d'éléments et de relations dans le méta-modèle) et plusieurs paramètres (choix d'utiliser les éléments non nommés, choix d'utiliser la navigabilité). Des métriques sont introduites pour guider le concepteur dans le pilotage du processus de factorisation et des recommandations sur les configurations et paramétrages à privilégier sont faites. La dernière contribution est une approche de factorisation inter-modèles afin de regrouper au sein d'un modèle l'ensemble des concepts communs à différents modèles sources conçus par différents experts. Outre le regroupement des concepts communs, cette analyse produit de nouvelles abstractions généralisant des concepts thématiques existants. Nous appliquons notre approche sur les 15 versions du modèle du SIE-Pesticides. L'ensemble de ces travaux s'inscrit dans un cadre de recherche dont l'objectif est de factoriser des concepts thématiques au sein d'un même modèle et de contrôler par des métriques la profusion de concepts produits par l'AFC et surtout par l'ARC. / The rapidly changing needs among other things due to technical innovation, competition and regulation often leads to describe the context for the study of conceptual models in information systems to facilitate the evolution of operating systems. The development of these models is carried out in several phases during which several working teams of different nature, providing each participant's perception of the system to be built is limited to the part of his area of specialization. It must then reconcile the different perceptions.The main objective of the thesis is to design mechanisms to obtain a share of the model factoring concepts common to several models and, secondly, to provide designers with a methodology for monitoring the evolution of factorization.To perform the factorization, we have implemented the Formal Concept Analysis and Relational Concepts Analysis (RCA), which are methods of analysis based on the theory of lattice data. In a set of entities described by features, both methods extract formal concepts that combine a maximum of entities to a maximum set of shared characteristics together. These formal concepts are structured in a partial order of specialization that provides with a lattice structure.The CRA can complement the description of the entities by relationships between entities.The first contribution of the thesis is a textbf {method a model for analyzing the evolution of the factorization based on the FCA and the RCA}. This method builds the capacity of the AFC and the CRA to emerge in a model of thematic abstractions higher level, improving semantic models. We show that these methods can also be used to monitor the analytical process with stakeholders. We introduce metrics on the design elements and the concept lattices which are the basis for the development of recommendations. We conduct an experiment in which we study the evolution of the 15 versions of the model class of information-Pesticides EIS system.The second contribution of this thesis is a textbf {depth study of the behavior of the RCA on UML models.} We show the influence of model structure on different variables studied (such as execution time and memory used) through several experiments on 15 versions of the EIS-Pesticides model. For this, we study several configurations (choice of elements and relations in the meta-model) and several parameters (choice of using unnamed elements, choice of using airworthiness). Metrics are introduced to guide the designer in managing the process of factoring and recommendations on the preferred configurations and settings are made.The last contribution is a textbf {approach to inter-model factorization} to group in a model all the concepts common to different source models designed by different experts. In addition to the consolidation of common concepts, this analysis produces new abstractions generalizing existing thematic concepts. We apply our approach on 15 versions of the model EIS-Pesticides.All this work is part of a research framework which aims to factor thematic concepts within a model and control metrics by the profusion of concepts produced by the FCA and especially by RCA.
|
89 |
Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métierOuraiba, El Amine 19 September 2012 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
|
90 |
Une Méthodologie pour le Développement d'Applications Hautes Performances sur des Architectures GPGPU: Application à la Simulation des Machines ÉléctriquesAntonio Wendell, De Oliveira Rodrigues 26 January 2012 (has links) (PDF)
Les phénomènes physiques complexes peuvent être simulés numériquement par des techniques mathématiques basées souvent sur la discrétisation des équations aux dérivées partielles régissant ces phénomènes. Ces simulations peuvent mener ainsi à la résolution de très grands systèmes. La parallélisation des codes de simulation numérique, c'est-à-dire leur adaptation aux architectures des calculateurs parallèles, est alors une nécessité pour parvenir à faire ces simulations en des temps non-exorbitants. Le parallélisme s'est imposé au niveau des architectures de processeurs et les cartes graphiques sont maintenant utilisées pour des fins de calcul généraliste, aussi appelé "General-Purpose computation on Graphics Processing Unit (GPGPU)", avec comme avantage évident l'excellent rapport performance/prix. Cette thèse se place dans le domaine de la conception de ces applications hautes-performances pour la simulation des machines électriques. Nous fournissons une méthodologie basée sur l'Ingénierie Dirigées par les Modèles (IDM) qui permet de modéliser une application et l'architecture sur laquelle l'exécuter afin de générer un code OpenCL. Notre objectif est d'aider les spécialistes en algorithmes de simulations numériques à créer un code efficace qui tourne sur les architectures GPGPU. Pour cela, une chaine de compilation de modèles qui prend en compte les plusieurs aspects du modèle de programmation OpenCL est fournie. De plus, pour rendre le code raisonnablement efficace par rapport à un code développé à la main, nous fournissons des transformations de modèles qui regardent des niveaux d'optimisations basées sur les caractéristiques de l'architecture (niveau de mémoire par exemple). Comme validation expérimentale, la méthodologie est appliquée à la création d'une application qui résout un système linéaire issu de la Méthode des Éléments Finis pour la simulation de machines électriques. Dans ce cas nous montrons, entre autres, la capacité de la méthodologie de passer à l'échelle par une simple modification de la multiplicité des unités GPU disponibles.
|
Page generated in 0.0415 seconds