• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 24
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 92
  • 40
  • 36
  • 35
  • 34
  • 29
  • 25
  • 23
  • 22
  • 20
  • 19
  • 19
  • 18
  • 15
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Optimisation de l’architecture de systèmes embarqués par une approche basée modèle / Architecture Optimization of Embedded Systems with a Model Based Approach

Leserf, Patrick 02 May 2017 (has links)
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus. / Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV).
82

Une modélisation de la variabilité multidimensionnelle pour une évolution incrémentale des lignes de produits / A multidimensionnal variability modeling for an incremental product line evolution

Creff, Stephen 09 December 2013 (has links)
Le doctorat s'inscrit dans le cadre d'une bourse CIFRE et d'un partenariat entre l'ENSTA Bretagne, l'IRISA et Thales Air Systems. Les préoccupations de ce dernier, et plus particulièrement de l'équipe de rattachement, sont de réaliser des systèmes à logiciels prépondérants embarqués. La complexité de ces systèmes et les besoins de compétitivité associés font émerger la notion de "Model-Based Product Lines(MBPLs)". Celles-ci tendent à réaliser une synergie de l'abstraction de l'Ingénierie Dirigée par les Modèles (IDM) et de la capacité de gestion de la capitalisation et réutilisation des Lignes de Produits (LdPs). La nature irrévocablement dynamique des systèmes réels induit une évolution permanente des LdPs afin de répondre aux nouvelles exigences des clients et pour refléter les changements des artefacts internes de la LdP. L'objectif de cette thèse est unique, maîtriser des incréments d'évolution d'une ligne de produits de systèmes complexes, les contributions pour y parvenir sont duales. La thèse est que 1) une variabilité multidimensionnelle ainsi qu'une modélisation relationnelle est requise dans le cadre de lignes de produits de systèmes complexes pour en améliorer la compréhension et en faciliter l'évolution (proposition d'un cadre générique de décomposition de la modélisation et d'un langage (DSML) nommé PLiMoS, dédié à l'expression relationnelle et intentionnelle dans les MBPLs), et que 2) les efforts de spécialisation lors de la dérivation d'un produit ainsi que l'évolution de la LdP doivent être guidé par une architecture conceptuelle (introduction de motifs architecturaux autour de PLiMoS et du patron ABCDE) et capitalisés dans un processus outillé semi-automatisé d'évolution incrémentale des lignes de produits par extension. / The PhD (CIFRE fundings) was supported by a partnership between three actors: ENSTA Bretagne, IRISA and Thales Air Systems. The latter's concerns, and more precisely the ones from the affiliation team, are to build embedded software-intensive systems. The complexity of these systems, combined to the need of competitivity, reveal the notion of Model-Based Product Lines (MBPLs). They make a synergy of the capabilities of modeling and product line approaches, and enable more efficient solutions for modularization with the distinction of abstraction levels and separation of concerns. Besides, the dynamic nature of real-world systems induces that product line models need to evolve continually to meet new customer requirements and to reflect changes in product line artifacts. The aim of the thesis is to handle the increments of evolution of complex systems product lines, the contributions to achieve it are twofolds. The thesis claims that i) a multidimensional variability and a relational modeling are required within a complex system product line in order to enhance comprehension and ease the PL evolution (Conceptual model modularization framework and PliMoS Domain Specific Modeling Language proposition; the language is dedicated to relational and intentional expressions in MBPLs), and that ii) specialization efforts during product derivation have to be guided by a conceptual architecture (architectural patterns on top of PLiMoS, e.g.~ABCDE) and capitalized within a semi-automatic tooled process allowing the incremental PL evolution by extension.
83

Langage contrôlé pour la spécification des règles métier dans le contexte de la modélisation des systèmes d'information / Controlled natural language for business rules specification inthe context of information systems modelling

Feuto Njonko, Paul Brillant 25 November 2014 (has links)
Notre thèse s’inscrit dans le cadre des langages contrôlés pour le génie logiciel. Elle a pour but de faciliter l’adoption de l’approche par règles métier (ARM) par les entreprises en créant un langage contrôlé en vue d’aider à la spécification des règles métier par les experts métier. Notre solution va permettre de réduire la distance sémantique entre les experts métier et les experts système afin de répondre non seulement au besoin d’intercompréhension entre ces derniers mais aussi pour réaliser un transfert automatique de la description des règles métier vers les systèmes d’information (SI). Ce langage contrôlé que nous avons créé permettra d’assurer en plus la consistance et la traçabilité de ces règles avec leur implantation / Our thesis focuses on controlled natural languages (CNL) for software engineering. It aims at facilitating the adoption of the business rule approach (BRA) by companies by creating a CNL in order to help business experts in the specification of their business rules. Our solution will allow reducing the semantic gap between business experts and system experts to meet not only the need for mutual understanding between them but also to achieve an automatic transfer of the description of business rules to information systems (IS). The CNL that we have created will also ensure the consistency and the traceability of these rules together with their implementation
84

Intégration des techniques de vérification formelle dans une approche de conception des systèmes de contrôle-commande : application aux architectures SCADA / Integration of formal verification techniques into a control-command system design approach : application to SCADA architectures

Kesraoui, Soraya 11 May 2017 (has links)
La conception des systèmes de contrôle-commande souffre souvent des problèmes de communication et d’interprétation des spécifications entre les différents intervenants provenant souvent de domaines techniques très variés. Afin de cadrer la conception de ces systèmes, plusieurs démarches ont été proposées dans la littérature. Parmi elles, la démarche dite mixte (ascendante/descendante), qui voit la conception réalisée en deux phases. Dans la première phase (ascendante), un modèle du système est défini à partir d’un ensemble de composants standardisés. Ce modèle subit, dans la deuxième phase (descendante), plusieurs raffinages et transformations pour obtenir des modèles plus concrets (codes,applicatifs, etc.). Afin de garantir la qualité des systèmes conçus par cette démarche, nous proposons dans cette thèse, deux approches de vérification formelle basées sur le Model-Checking. La première approche porte sur la vérification des composants standardisés et permet la vérification d’une chaîne de contrôle-commande élémentaire complète. La deuxième approche consiste en la vérification des modèles d’architecture (P&ID) utilisés pour la génération des programmes de contrôle-commande. Cette dernière est basée sur la définition d’un style architectural en Alloy pour la norme ANSI/ISA-5.1. Pour supporter les deux approches, deux flots de vérification formelle semi-automatisés basés sur les concepts de l’IDM ont été proposés. L’intégration des méthodes formelles dans un contexte industriel est facilitée, ainsi, par la génération automatique des modèles formels à partir des modèles de conception maîtrisés par les concepteurs métiers. Nos deux approches ont été validées sur un cas industriel concret concernant un système de gestion de fluide embarqué dans un navire. / The design of control-command systems often suffers from problems of communication and interpretation of specifications between the various designers, frequently coming from a wide range of technical fields. In order to address the design of these systems, several methods have been proposed in the literature. Among them, the so-called mixed method (bottom-up/top-down), which sees the design realized in two steps. In the first step (bottom-up), a model of the system is defined from a set of standardized components. This model undergoes, in the second (top-down) step, several refinements and transformations to obtain more concrete models (codes, applications, etc.). To guarantee the quality of the systems designed according to this method, we propose two formal verification approaches,based on Model-Checking, in this thesis. The first approach concerns the verification of standardized components and allows the verification of a complete elementary control-command chain. The second one consists in verifying the model of architecture (P&ID) used for the generation of control programs.The latter is based on the definition of an architectural style in Alloy for the ANSI/ISA-5.1 standard. To support both approaches, two formal semi-automated verification flows based on Model-Driven Engineering have been proposed. This integration of formal methods in an industrial context is facilitated by the automatic generation of formal models from design models carried out by business designers. Our two approaches have been validated on a concrete industrial case of a fluid management system embedded in a ship.
85

Entwurf und Evaluierung einer prädiktiven Fahrstrategie auf Basis von Ampel-Fahrzeug-Kommunikationsdaten

Schubert, Torsten 08 August 2010 (has links)
In der vorliegenden Arbeit wird eine prädiktive Fahrstrategie vorgestellt, die auf Basis von Ampel-Fahrzeug-Kommunikationsdaten generiert wird. Dazu wird ein aktueller Ansatz für eine prädiktive Fahrstrategie zur Annäherung an eine Lichtsignalanlage (LSA) untersucht. Es werden verschiedene Optimierungsansätze deutlich, von denen ein großer Teil bei der Systemerweiterung berücksichtigt wird. Bei der Analyse konnte gezeigt werden, dass die bisherige Strategieempfehlung durch den Einfluss vorausfahrender Verkehrsteilnehmer eingeschränkt wird. Es ergaben sich potentielle Problemsituationen, welche sich im realen Straßenverkehr negativ auf die Funktionalität des Fahrerassistenzsystems (FAS) auswirken. Für Anfragen des Öffentlichen Personen Nachverkehrs (ÖPNV) wurde ermittelt, dass keine allgemeingültigen Aussagen über die Eignung der Assistenzfunktion gegeben werden können. Die wesentliche Neuerung zu bisheriger Strategieansätze für die Annäherung an Knotenpunkte mit LSA ist die Berücksichtigung anderer Verkehrsteilnehmer. Dazu werden die neuen Größen effektive Freigabezeit und virtuelle Position der Haltelinie eingeführt, auf Basis derer die Strategieempfehlung des FAS an die Anzahl wartender Fahrzeug angepasst wird. Zur Untersuchung des möglichen Energieeinsparpotentials durch den Einsatz eines FAS wurde ein Simulationsmodell in MATLAB/SIMULINK entwickelt. Mit dessen Hilfe konnten verschiedene Situationen dargestellt werden, an denen der Einfluss der Funkreichweite sowie die Auswirkungen der Warteschlange auf das FAS verdeutlicht werden. Ferner kann der positive Effekt auf den Kraftstoffverbrauch und die Haltezeit an der LSA bestätigt werden. Das Simulationsmodell stellt eine gute Grundlage für weiterführende Untersuchung dar und kann an unterschiedliche Situationen angepasst werden. Um den Nutzen auch praktisch zu verifizieren wird eine Reihe von Fahrversuchen durchgeführt. Dem Fahrer wird dabei die Strategie in einem Display visualisiert. Für Situationen, in denen der Fahrzeugstillstand vermeidbar ist erhält dieser eine Geschwindigkeitsempfehlung. Ist ein Stillstand nicht vermeidbar, so erfolgt unmittelbar vor der Haltelinie, die Ausgabe der Restlaufzeit der Rotphase. Bei der Versuchsauswertung wird das Einsparpotential deutlich. Durch eine entwickelte GUI wird dem Fahrer eine Strategie auf dem Display visualisiert. Innerhalb mehrerer Versuchsfahrten konnten das FAS erprobt und in der anschließenden Versuchsauswertung klar die Verbesserungen aufgezeigt werden.:Abkürzungsverzeichnis Symbolverzeichnis 1 Einleitung 1.1 Motivation 1.2 Zielsetzung der Arbeit 1.3 Aufbau der Arbeit 2 Stand der Technik 2.1 System Fahrer-Fahrzeug-Verkehr 2.2 Fahrerassistenzsysteme 2.2.1 Klassifizierung nach Art der Fahrerunterstützung 2.2.2 Klassifizierung nach Fahraufgabenebene 2.2.3 Prädiktive Fahrerassistenzsysteme 2.2.4 Kreuzungsassistenz 2.3 Kooperative Systeme 2.3.1 Forschungsaktivitäten in Europa 2.3.2 Fahrerassistenzsysteme zur Reduktion der Fahrzeugemissionen 2.4 Berechnung des Kraftstoffverbrauches 2.5 Positionsbestimmung im Strassenverkehr 2.5.1 Aufbau eines Satellitennavigationssystems 2.5.2 Ablauf einer Positionsbestimmung 2.5.3 Fehlerquellen und Ursachen bei der Positionsbestimmung 2.5.4 Genauigkeit der Positionsbestimmung 2.5.5 Verarbeitung der Positionsdaten 2.6 Lichtsignalanlagen (LSA) 2.6.1 Definition wichtiger Begriffe 2.6.2 Überblick über Steuerungsverfahren 2.6.3 Umschaltung zwischen Signalprogrammen 2.6.4 Bevorrechtigungsarten für den ÖPNV 3 Analyse des bestehenden Systems 3.1 Fahrprofile zur Annäherung an LSA 3.2 Nutzen des Assistenzsystems 3.3 Ausgangslage des bisherigen Fahrerassistenzsystems 3.3.1 Phasenzyklus 3.3.2 Fahrzeugortung 3.3.3 Kommunikationsdaten des Ampelmoduls 3.3.4 Strategieansatz 3.4 Analyse der Strategieempfehlung 3.5 Optimierungsansätze 4 Erweiterter Systementwurf 4.1 Rahmenbedingungen und Vorgaben 4.2 Entscheidungssystem 4.3 Einfluss von Fahrzeugkolonnen 4.4 Effektive Freigabezeit und Rückstaulänge 4.5 Untersuchung der Geschwindigkeitsregelgrenzen 4.6 ÖPNV - Umgang mit dynamischen Signallaufzeiten 4.7 Ermittlung einer Fahrstrategie 4.8 Zusammenfassung der Optimierung 5 Simulative Untersuchung 5.1 Longitudinalmodell - Intelligent Driver Model – IDM 5.2 Modell zur Schätzung des Kraftstoffverbrauches 5.3 Aufbau des SIMULINK-Modells 5.4 Parametervariation und Ergebnisse 5.4.1 Rahmenbedingungen und Vorgaben 5.4.2 Einfluss der Funkreichweite 5.4.3 Einfluss der Pulklänge 5.5 Zusammenfassung 6 Experimentelle Untersuchung 6.1 Versuchsaufbau 6.2 Mensch Maschine Schnittstelle 6.3 Programmstruktur 6.4 Versuchsdurchführung 6.5 Ergebnis und Zusammenfassung 7 Zusammenfassung und Ausblick A Abbildungsverzeichnis B Tabellenverzeichnis C Literaturverzeichnis D Anhang / In this paper a predictive driving strategy is presented, which is generated based on car to infrastructure communication data. An actual approach for a driver assistance system has been analyzed to identify room for improvements. The additional benefit of the presented work is the consideration of other road users driving ahead of the ego-vehicle in the process of finding the optimal speed for approaching the traffic-light. A MATLAB/SIMULINK model has been developed, which allows the simulation of different traffic situations to investigate the fuel consumption benefit of a vehicle equipped with the considered system. It illustrates the influence of the radio range and the length of the queue in front of the stop line. Furthermore the positive effect to the fuel consumption of the developed system could be evaluated. The simulation model is a good basis for further tests and could be easily adapted to various situations and vehicles. In addition to the simulation, a human machine interface was developed for evaluating the advanced driver assistance system in test runs. The driver assistance system was tested in several situations to show the benefit of the system. It has been tested via multiple test runs. In the following test evaluation the improvement could clearly be shown.:Abkürzungsverzeichnis Symbolverzeichnis 1 Einleitung 1.1 Motivation 1.2 Zielsetzung der Arbeit 1.3 Aufbau der Arbeit 2 Stand der Technik 2.1 System Fahrer-Fahrzeug-Verkehr 2.2 Fahrerassistenzsysteme 2.2.1 Klassifizierung nach Art der Fahrerunterstützung 2.2.2 Klassifizierung nach Fahraufgabenebene 2.2.3 Prädiktive Fahrerassistenzsysteme 2.2.4 Kreuzungsassistenz 2.3 Kooperative Systeme 2.3.1 Forschungsaktivitäten in Europa 2.3.2 Fahrerassistenzsysteme zur Reduktion der Fahrzeugemissionen 2.4 Berechnung des Kraftstoffverbrauches 2.5 Positionsbestimmung im Strassenverkehr 2.5.1 Aufbau eines Satellitennavigationssystems 2.5.2 Ablauf einer Positionsbestimmung 2.5.3 Fehlerquellen und Ursachen bei der Positionsbestimmung 2.5.4 Genauigkeit der Positionsbestimmung 2.5.5 Verarbeitung der Positionsdaten 2.6 Lichtsignalanlagen (LSA) 2.6.1 Definition wichtiger Begriffe 2.6.2 Überblick über Steuerungsverfahren 2.6.3 Umschaltung zwischen Signalprogrammen 2.6.4 Bevorrechtigungsarten für den ÖPNV 3 Analyse des bestehenden Systems 3.1 Fahrprofile zur Annäherung an LSA 3.2 Nutzen des Assistenzsystems 3.3 Ausgangslage des bisherigen Fahrerassistenzsystems 3.3.1 Phasenzyklus 3.3.2 Fahrzeugortung 3.3.3 Kommunikationsdaten des Ampelmoduls 3.3.4 Strategieansatz 3.4 Analyse der Strategieempfehlung 3.5 Optimierungsansätze 4 Erweiterter Systementwurf 4.1 Rahmenbedingungen und Vorgaben 4.2 Entscheidungssystem 4.3 Einfluss von Fahrzeugkolonnen 4.4 Effektive Freigabezeit und Rückstaulänge 4.5 Untersuchung der Geschwindigkeitsregelgrenzen 4.6 ÖPNV - Umgang mit dynamischen Signallaufzeiten 4.7 Ermittlung einer Fahrstrategie 4.8 Zusammenfassung der Optimierung 5 Simulative Untersuchung 5.1 Longitudinalmodell - Intelligent Driver Model – IDM 5.2 Modell zur Schätzung des Kraftstoffverbrauches 5.3 Aufbau des SIMULINK-Modells 5.4 Parametervariation und Ergebnisse 5.4.1 Rahmenbedingungen und Vorgaben 5.4.2 Einfluss der Funkreichweite 5.4.3 Einfluss der Pulklänge 5.5 Zusammenfassung 6 Experimentelle Untersuchung 6.1 Versuchsaufbau 6.2 Mensch Maschine Schnittstelle 6.3 Programmstruktur 6.4 Versuchsdurchführung 6.5 Ergebnis und Zusammenfassung 7 Zusammenfassung und Ausblick A Abbildungsverzeichnis B Tabellenverzeichnis C Literaturverzeichnis D Anhang
86

Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis management

Fertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
87

Évolution et transformation automatisée de modèles de systèmes d’information : une approche guidée par l’analyse formelle de concepts et l’analyse relationnelle de concepts / Evolution and Transformation automated models Information Systems

Osman Guedi, Abdoulkader 10 July 2013 (has links)
L'évolution rapide des besoins dus entre autres à l'innovation technique, la concurrence ou la réglementation conduit souvent à décrire le cadre d'étude des systèmes d'information dans des modèles conceptuels, pour faciliter l'évolution du fonctionnement des systèmes. La mise au point de ces modèles s'effectue en plusieurs phase au cours desquelles collaborent plusieurs équipes de nature différente, chaque intervenant apportant sa perception du système à construire en se limitant à la partie de son domaine de spécialisation. Il faut alors concilier les différentes perceptions. L'objectif essentiel de la thèse est de concevoir les mécanismes permettant d'une part d'obtenir le modèle factorisant les concepts communs à plusieurs modèles et, d'autre part, de proposer aux concepteurs une méthodologie de suivi de l'évolution de la factorisation. Pour réaliser la factorisation, nous avons mis en œuvre l'Analyse Formelle de Concepts et l'Analyse Relationnelle de Concepts (ARC) qui sont des méthodes d'analyse de données basées sur la théorie des treillis. Dans un ensemble d'entités décrites par des caractéristiques, les deux méthodes extraient des concepts formels qui associent un ensemble maximal d'entités à un ensemble maximal de caractéristiques partagées. Ces concepts formels sont structurés dans un ordre partiel de spécialisation qui les munit d'une structure de treillis. L'ARC permet de compléter la description des entités par des relations entre entités. La première contribution de la thèse est une méthode d'analyse de l'évolution de la factorisation d'un modèle basée sur l'AFC et l'ARC. Cette méthode s'appuie la capacité de l'AFC et de l'ARC à faire émerger au sein d'un modèle des abstractions thématiques de niveau supérieur, améliorant ainsi la sémantique des modèles. Nous montrons que ces méthodes peuvent aussi être employées pour suivre l'évolution du processus d'analyse avec des acteurs. Nous introduisons des métriques sur les éléments de modélisation et sur les treillis de concepts qui servent de base à l'élaboration de recommandations. Nous effectuons une expérimentation dans laquelle nous étudions l'évolution des 15 versions du modèle de classes du système d'information SIE-Pesticides. La seconde contribution de la thèse est une étude approfondie du comportement de l'ARC sur des modèles UML. Nous montrons l'influence de la structure des modèles sur différentes variables étudiées (comme les temps d'exécution et la mémoire occupée) au travers de plusieurs expérimentations sur les 15 versions du modèle SIE-Pesticides. Pour cela, nous étudions plusieurs configurations (choix d'éléments et de relations dans le méta-modèle) et plusieurs paramètres (choix d'utiliser les éléments non nommés, choix d'utiliser la navigabilité). Des métriques sont introduites pour guider le concepteur dans le pilotage du processus de factorisation et des recommandations sur les configurations et paramétrages à privilégier sont faites. La dernière contribution est une approche de factorisation inter-modèles afin de regrouper au sein d'un modèle l'ensemble des concepts communs à différents modèles sources conçus par différents experts. Outre le regroupement des concepts communs, cette analyse produit de nouvelles abstractions généralisant des concepts thématiques existants. Nous appliquons notre approche sur les 15 versions du modèle du SIE-Pesticides. L'ensemble de ces travaux s'inscrit dans un cadre de recherche dont l'objectif est de factoriser des concepts thématiques au sein d'un même modèle et de contrôler par des métriques la profusion de concepts produits par l'AFC et surtout par l'ARC. / The rapidly changing needs among other things due to technical innovation, competition and regulation often leads to describe the context for the study of conceptual models in information systems to facilitate the evolution of operating systems. The development of these models is carried out in several phases during which several working teams of different nature, providing each participant's perception of the system to be built is limited to the part of his area of specialization. It must then reconcile the different perceptions.The main objective of the thesis is to design mechanisms to obtain a share of the model factoring concepts common to several models and, secondly, to provide designers with a methodology for monitoring the evolution of factorization.To perform the factorization, we have implemented the Formal Concept Analysis and Relational Concepts Analysis (RCA), which are methods of analysis based on the theory of lattice data. In a set of entities described by features, both methods extract formal concepts that combine a maximum of entities to a maximum set of shared characteristics together. These formal concepts are structured in a partial order of specialization that provides with a lattice structure.The CRA can complement the description of the entities by relationships between entities.The first contribution of the thesis is a textbf {method a model for analyzing the evolution of the factorization based on the FCA and the RCA}. This method builds the capacity of the AFC and the CRA to emerge in a model of thematic abstractions higher level, improving semantic models. We show that these methods can also be used to monitor the analytical process with stakeholders. We introduce metrics on the design elements and the concept lattices which are the basis for the development of recommendations. We conduct an experiment in which we study the evolution of the 15 versions of the model class of information-Pesticides EIS system.The second contribution of this thesis is a textbf {depth study of the behavior of the RCA on UML models.} We show the influence of model structure on different variables studied (such as execution time and memory used) through several experiments on 15 versions of the EIS-Pesticides model. For this, we study several configurations (choice of elements and relations in the meta-model) and several parameters (choice of using unnamed elements, choice of using airworthiness). Metrics are introduced to guide the designer in managing the process of factoring and recommendations on the preferred configurations and settings are made.The last contribution is a textbf {approach to inter-model factorization} to group in a model all the concepts common to different source models designed by different experts. In addition to the consolidation of common concepts, this analysis produces new abstractions generalizing existing thematic concepts. We apply our approach on 15 versions of the model EIS-Pesticides.All this work is part of a research framework which aims to factor thematic concepts within a model and control metrics by the profusion of concepts produced by the FCA and especially by RCA.
88

Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métier

Ouraiba, El Amine 19 September 2012 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
89

Une Méthodologie pour le Développement d'Applications Hautes Performances sur des Architectures GPGPU: Application à la Simulation des Machines Éléctriques

Antonio Wendell, De Oliveira Rodrigues 26 January 2012 (has links) (PDF)
Les phénomènes physiques complexes peuvent être simulés numériquement par des techniques mathématiques basées souvent sur la discrétisation des équations aux dérivées partielles régissant ces phénomènes. Ces simulations peuvent mener ainsi à la résolution de très grands systèmes. La parallélisation des codes de simulation numérique, c'est-à-dire leur adaptation aux architectures des calculateurs parallèles, est alors une nécessité pour parvenir à faire ces simulations en des temps non-exorbitants. Le parallélisme s'est imposé au niveau des architectures de processeurs et les cartes graphiques sont maintenant utilisées pour des fins de calcul généraliste, aussi appelé "General-Purpose computation on Graphics Processing Unit (GPGPU)", avec comme avantage évident l'excellent rapport performance/prix. Cette thèse se place dans le domaine de la conception de ces applications hautes-performances pour la simulation des machines électriques. Nous fournissons une méthodologie basée sur l'Ingénierie Dirigées par les Modèles (IDM) qui permet de modéliser une application et l'architecture sur laquelle l'exécuter afin de générer un code OpenCL. Notre objectif est d'aider les spécialistes en algorithmes de simulations numériques à créer un code efficace qui tourne sur les architectures GPGPU. Pour cela, une chaine de compilation de modèles qui prend en compte les plusieurs aspects du modèle de programmation OpenCL est fournie. De plus, pour rendre le code raisonnablement efficace par rapport à un code développé à la main, nous fournissons des transformations de modèles qui regardent des niveaux d'optimisations basées sur les caractéristiques de l'architecture (niveau de mémoire par exemple). Comme validation expérimentale, la méthodologie est appliquée à la création d'une application qui résout un système linéaire issu de la Méthode des Éléments Finis pour la simulation de machines électriques. Dans ce cas nous montrons, entre autres, la capacité de la méthodologie de passer à l'échelle par une simple modification de la multiplicité des unités GPU disponibles.
90

Methods and tools for the integration of formal verification in domain-specific languages / Méthodes et outils pour l’intégration de la vérification formelle pour les langages dédiés

Zalila, Faiez 09 December 2014 (has links)
Les langages dédiés de modélisation (DSMLs) sont de plus en plus utilisés dans les phases amont du développement des systèmes complexes, en particulier pour les systèmes critiques embarqués. L’objectif est de pouvoir raisonner très tôt dans le développement sur ces modèles et, notamment, de conduire des activités de vérification et validation (V and V). Une technique très utilisée est la vérification des modèles comportementaux par exploration exhaustive (model-checking) en utilisant une sémantique de traduction pour construire un modèle formel à partir des modèles métiers pour réutiliser les outils performants disponibles pour les modèles formels. Définir cette sémantique de traduction, exprimer les propriétés formelles à vérifier et analyser les résultats nécessite une expertise dans les méthodes formelles qui freine leur adoption et peut rebuter les concepteurs. Il est donc nécessaire de construire pour chaque DSML, une chaîne d’outils qui masque les aspects formels aux utilisateurs. L’objectif de cette thèse est de faciliter le développement de telles chaînes de vérification. Notre contribution inclut 1) l’expression des propriétés comportementales au niveau métier en s’appuyant sur TOCL (Temporal Object Constraint Language), une extension temporelle du langage OCL; 2) la transformation automatique de ces propriétés en propriétés formelles en réutilisant les éléments clés de la sémantique de traduction; 3) la remontée des résultats de vérification grâce à une transformation d’ordre supérieur et un langage de description de correspondance entre le domaine métier et le domaine formel et 4) le processus associé de mise en oeuvre. Notre approche a été validée par l’expérimentation sur un sous-ensemble du langage de modélisation de processus de développement SPEM, et sur le langage de commande d’automates programmables Ladder Diagram, ainsi que par l’intégration d’un langage formel intermédiaire (FIACRE) dans la chaîne outillée de vérification. Ce dernier point permet de réduire l’écart sémantique entre les DSMLs et les domaines formels. / Domain specific Modeling Languages (DSMLs) are increasingly used at the early phases in the development of complex systems, in particular, for safety critical systems. The goal is to be able to reason early in the development on these models and, in particular, to fulfill verification and validation activities (V and V). A widely used technique is the exhaustive behavioral model verification using model-checking by providing a translational semantics to build a formal model from DSML conforming models in order to reuse powerful tools available for this formal domain. Defining a translational semantics, expressing formal properties to be assessed and analysing such verification results require such an expertise in formal methods that it restricts their adoption and may discourage the designers. It is thus necessary to build for each DSML, a toolchain which hides formal aspects for DSML end-users. The goal of this thesis consists in easing the development of such verification toolchains. Our contribution includes 1) expressing behavioral properties in the DSML level by relying on TOCL (Temporal Object Constraint Language), a temporal extension of OCL; 2) An automated transformation of these properties on formal properties while reusing the key elements of the translational semantics; 3) the feedback of verification results thanks to a higher-order transformation and a language which defines mappings between DSML and formal levels; 4) the associated process implementation. Our approach was validated by the experimentation on a subset of the development process modeling language SPEM, and on Ladder Diagram language used to specify programmable logic controllers (PLCs), and by the integration of a formal intermediate language (FIACRE) in the verification toolchain. This last point allows to reduce the semantic gap between DSMLs and formal domains.

Page generated in 0.0486 seconds