Spelling suggestions: "subject:"génie logiciel"" "subject:"génie progiciel""
41 |
Un environnement méthodologique et logiciel pour l'interopérabilité de la maquette numérique du bâtiment et de la simulation énergétique : application à la réglementation thermique RT2012. / A methodological and software environment for the interoperability between Building Information Models and energy simulation : application to the French Thermal Regulation RT 2012El Asmi, Emira 13 April 2016 (has links)
L’analyse de la performance énergétique des bâtiments neufs repose massivement sur des outils logiciels de simulation. La valeur ajoutée de ces derniers est indéniable : ils permettent d’optimiser la conception en facilitant l’évaluation des performances énergétiques du bâtiment durant la phase de conception. Leur impact est cependant limité par plusieurs obstacles, dont les principaux sont le niveau d’expertise requis pour leur utilisation et l’absence de connexion aux outils de Conception Assistée par Ordinateur (CAO). Ce dernier point devient particulièrement critique au moment où l’utilisation de la maquette numérique BIM (Building Information Model) se généralise et où les modèles issus d’outils de CAO sont de plus en plus riches.Cette thèse repose sur cette observation et propose, afin de profiter pleinement du potentiel du BIM et des outils en lien, de contribuer à l’émergence d’approches permettant une transformation fiable et transparente des informations du bâtiment numérique BIM vers les fichiers d'entrée des environnements de simulation. Cela se traduirait par des avantages significatifs, tant sur le rapport coût-efficacité (l’analyse est effectuée plus efficacement), qu’au niveau de la fiabilité (les modèles de simulation sont conformes aux modèles de conception). Toutefois, pour mettre en œuvre de telles approches, plusieurs obstacles doivent être pris en compte : le premier est la nécessité de disposer d’un langage normalisé commun pour le BIM, le deuxième est la définition de mécanismes méthodologiques efficaces et normalisés afin d’enrichir le BIM pour la simulation, le troisième est la mise à disposition d'outils logiciels fiables pour la transformation automatisée du BIM vers les modèles de simulation thermique.Le premier obstacle est en passe d’être levé grâce aux standards issus du consortium international buildingSMART, en particulier les « Industry Foundation Classes » (IFC) qui sont désormais largement reconnus comme un format d'échange standard du BIM dans le domaine de la construction. Le deuxième verrou reste actuel : l’IFC, même dans sa dernière version IFC4, laisse entier de nombreux problèmes de formulation de concepts propres aux domaines métiers, en particulier celui de la simulation énergétique. Cependant, des environnements méthodologiques ont vu le jour permettant d’étendre et d’enrichir de façon structurée les formats de données BIM. C’est par exemple le cas de l’IDM (Information Delivery Manual) et du MVD (Model View Définition) de buildingSMART, pour les IFC.L’objectif de nos travaux est triple. En premier lieu, il s’agit de mettre en œuvre et évaluer l’environnement IDM/ MVD de buildingSMART pour l’interconnexion entre le BIM (format IFC) et la simulation énergétique. Cette étude nous a amenés à proposer un modèle pivot (BSM pour « Building Simulation Model ») basé sur une analogie avec les approches prônées par l’ingénierie dirigée par les modèles. Nous avons également développé un outil logiciel, qui inclut une base de règles de mapping, afin d’automatiser la traduction de l’information entre le modèle IFC et le modèle de simulation. Cette approche a été évaluée sur la base de l’outil COMETH (moteur de simulation de la régulation thermique française RT2012) mais elle est généralisable. / Energy performance analysis of new buildings strongly relies on simulation tools. They optimize the design by facilitating building performance analysis during the design phase. However, there are several limitations, among which one of the main is the lack of reliable connections between Computer Aided Design (CAD) and simulation tools. This is particularly critical at a time when the concept of Building Information Model (BIM) is widely applied and the CAD models are becoming richer.This thesis proposes to take advantage of the potential of BIM in order to contribute to emerging approaches for a reliable and seamless interconnection between building information models and simulation environment input files. This would result into significant benefits, both from the cost-effectiveness (analysis is performed more effectively) and the reliability (simulation models strictly comply with design models) points of view. However, to implement such approaches, several barriers have to be considered. The first is the need for a common, standardized BIM language. The second is the definition of adequate and standardized extension mechanisms, to customize BIM for simulation-specific purposes. The third is the provision of software tools, for effective and reliable BIM to simulation models transformation.The first barrier is likely to be overcome through the advent of the buildingSMART Industry Foundation Classes (IFC), which is widely recognized as a standard BIM exchange format in the construction industry. However, with respect to the second barrier, the IFC remains a wide-purpose modelling language and as such, fails to address many domain-specific issues, like e.g. energy simulation. This limitation has been acknowledged by buildingSMART, who have delivered novel methodological tools to allow for domain-specific customization of IFC. The main one is called the Information Delivery Manual (IDM). The aim of our work is the implementation and evaluation the BuildingSMART framework IDM/MVD to interconnect BIM (IFC) and energy simulation. This study led us to propose a pivotal model (BSM for « Building Simulation Model») based on an analogy with model driven engineering approaches. We also have developed a software prototype, which includes a set of mapping rules that automates the translation process between the IFC model and the simulation tool. In the scope of this study, we targeted the COMETH simulation tool (a simulation engine based on the French thermal regulation RT2012) but our results can easily be extended to additional tools.
|
42 |
Approche déclarative pour la génération de canevas logiciels dédiés à l'informatique ubiquitaireJouve, Wilfried 08 April 2009 (has links) (PDF)
Les applications ubiquitaires évoluent dans des environnements plus hétérogènes et plus dynamiques que ceux des systèmes distribués traditionnels. La criticité des domaines applicatifs impliqués et la vocation non intrusive de l'informatique ubiquitaire exigent de garantir la robustesse des applications avant et pendant leur déploiement en situation réelle. Les solutions proposant de gérer la dynamicité des environnements ubiquitaires offrent des canevas de programmation dont la généricité ne permet pas de garantir la fiabilité des applications développées. D'autres solutions permettent davantage de vérifications en assurant, par exemple, l'intégrité des communications. Cependant, ces vérifications, telles que proposées dans ces solutions, empêchent la prise en compte de la dynamicité, indispensable à la mise en oeuvre d'applications ubiquitaires. Dans cette thèse, nous proposons un canevas logiciel visant à concevoir, développer, vérifier et tester les applications ubiquitaires avant leur déploiement en environnements réels. Notre approche repose sur des spécifications haut niveau des applications cibles. Chaque spécification, écrites dans le langage DIASPEC, est analysée, vérifiée et compilée par le compilateur DIASPEC qui génère un canevas logiciel dédié, incluant un canevas de programmation et un canevas de simulation. Les canevas de programmation générés fournissent du support pour la programmation d'applications ubiquitaires. Ils garantissent l'intégrité des communications tout en permettant la gestion de la dynamicité des environnements ubiquitaires. Les canevas de simulation générés fournissent du support pour le test des applications ainsi développées. Les contributions de cette thèse sont les suivantes :<br />– Nous proposons l'approche DIAGEN qui permet, à partir de spécifications d'architectures logicielles ubiquitaires, de générer du support de programmation et un ensemble de vérifications dédiés au développement d'applications ubiquitaires. Ces spécifications reposent sur un langage déclaratif, appelé DIASPEC, qui permet de décrire les types de services composant les applications ubiquitaires cibles. Le compilateur DIASPEC vérifie la cohérence des spécifications et génère, à partir de celles-ci, des canevas de programmation dédiés. Les canevas de programmation générés garantissent l'intégrité des communications d'applications dynamiques.<br />– Nous avons développé DIASIM, un simulateur pour tester à l'exécution, le comportement des applications développées avec l'approche DIAGEN. DIASIM permet de tester les applications sans les modifier et d'intégrer incrémentalement des services réels dans les scénarios de simulation.<br />– Nous avons montré que l'approche DIAGEN permet davantage de vérifications statiques tout en gérant la dynamicité des environnements ubiquitaires et en permettant une plus grande concision des applications développées. Nous avons analysé les canevas de programmation générés pour la gestion de réunion, l'immotique et la téléphonie.
|
43 |
Approche de métamodélisation pour la simulation et la vérification de modèle -- Application à l'ingénierie des procédésCombemale, Benoît 11 July 2008 (has links) (PDF)
Nous proposons dans cette thèse une démarche permettant de décrire un DSML (Domain Specific Modeling Language) et les outils nécessaires à l'exécution, la vérification et la validation des modèles. La démarche que nous proposons offre une architecture générique de la syntaxe abstraite du DSML pour capturer les informations nécessaires à l'exécution d'un modèle et définir les propriétés temporelles qui doivent être vérifiées. Nous nous appuyons sur cette architecture pour expliciter la sémantique de référence et l'implanter. Plus particulièrement, nous étudions les moyens :<br />- d'exprimer et de valider la définition d'une traduction vers un domaine formel dans le but de réutiliser des outils de model-checking.<br />- de compléter la syntaxe abstraite par le comportement; et profiter d'outils génériques pour pouvoir simuler les modèles construits.<br />Enfin, de manière à valider les différentes sémantiques implantées vis-à-vis de la sémantique de référence, nous proposons un cadre formel de métamodélisation.
|
44 |
Développement et validation d'architectures dynamiquesRolland, Jean-François 12 December 2008 (has links) (PDF)
Dans le cadre de cette thèse, nous nous proposons d'étudier le développement et la validation de systèmes dans un contexte temps réel asynchrone. On a choisi d'utiliser le langage AADL pour ses spécificités issues de l'avionique, domaine proche du spatial, et pour la précision de la description de son modèle d'exécution. Le travail de cette thèse se divise en deux axes principaux : d'une part, on étudie l'utilisation du langage AADL dans le cadre du développement d'un logiciel de vol ; et d'autre part, on présente une version réduite du langage AADL, et la définition formelle de son modèle d'exécution à l'aide du langage TLA+. L'objectif de la première partie est d'envisager l'utilisation d'AADL dans le cadre d'un processus de développement existant dans le domaine du spatial. Dans cette partie, on a cherché à identifier des motifs de conceptions récurrents dans les logiciels de vol. Enfin, on étudie l'expression en AADL des différents éléments de ce processus de développement. La seconde partie comporte la définition d'un mini AADL suffisant pour exprimer la plupart des concepts de parallélisme, de communication et de synchronisation qui caractérisent AADL. La partie formalisation est nécessaire afin de pouvoir vérifier des propriétés dynamiques. En effet, la définition formelle du modèle d'exécution permet de décrire le comportement attendu des modèles AADL. Une fois ce modèle défini, on peut à l'aide d'un vérificateur de modèles (model-checker) animer une modélisation AADL ou aborder la vérification de propriétés dynamiques. Cette étude a par ailleurs été menée dans le cadre de la standardisation du langage AADL.
|
45 |
De la réutilisation à l'adaptabilitéRoose, Philippe 27 November 2008 (has links) (PDF)
Depuis plusieurs années, l'évolution naturelle des applications vers la distribution a mis en évidence le besoin d'informations autre que celles uniquement nécessaires aux traitements. C'est ainsi qu'au fil du temps, les concepteurs et développeurs ont dû intégrer à leurs applications des tâches d'acquisition de l'environnement d'exécution permettant ainsi aux applications dans un premier temps de prendre en compte le contexte, puis de devenir « sensibles au contexte » et d'adapter leurs traitements en conséquence puis, dans un second temps, d'évoluer par reconfigurations dynamiques de manière à répondre au mieux aux sollicitations.<br /><br />Le contexte peut se diviser en trois couches. La première appelée « type de contexte » permet de réaliser l'acquisition du contexte, la deuxième, appelée « moyens de mise en œuvre de la gestion du contexte » est chargée de la gestion du contexte, enfin, la troisième couche offre les mécanismes permettant l'adaptation au contexte.<br /><br />Le premier chapitre de ce mémoire est intitulé « Processus de réingénierie » porte principalement sur la première phase d'acquisition des informations contextuelles et plus particulièrement sur les applications totalement (réingénierie) ou partiellement existantes comme les COTS.<br />Dans un premier temps, l'objectif est de réaliser une analyse des informations produites par des modules logiciels afin de prendre en compte mais également de fabriquer (si nécessaire) automatiquement à l'aide de connecteurs - lorsque c'est possible - des informations contextuelles de plus haut niveau. Dans un second temps, je me suis intéressé à l'intégration de Composants sur Etagères (ou COTS Products). L'objectif est ici une analyse des assemblages de COTS sélectionnés afin de s'assurer de la faisabilité du déploiement, et donc de la réalisation de l'application. Nous nous situons ici également dans le domaine de l'acquisition des informations contextuelles dans le sens où nous ne gérons que la phase d'acquisition du contexte et de production d'informations permettant des prises de décisions concernant la possibilité d'assemblage des COTS Products. <br /><br />Le deuxième chapitre intitulé « Outils d'adaptation permettant la prise en compte du contexte » est transversal aux trois couches précédemment présentées. Un modèle de plate-forme de supervision réflexive (Kalinahia) y est présenté afin de proposer les services nécessaires à la gestion du contexte. Un modèle de composant supervisable (Osagaia) ainsi qu'un modèle de connecteur (Korrontea) y est également présenté. Ces deux modèles offrent les mécanismes d'adaptation, de migration et de composition nécessaires à l'adaptation de l'application. <br /><br />Le troisième chapitre intitulé « Contexte et Qualité de service » présente comment la notion de qualité de service, intimement liée à celle de contexte, est intégrée dans nos travaux. En effet, fournir la qualité de service adéquate à un utilisateur ou, plus généralement à une application, demande d'avoir une connaissance à la fois du contexte de l'application mais aussi du contexte de l'utilisateur. Aussi, je propose un modèle formel de la qualité de service selon les deux critères intrinsèques (fonctionnalité) et contextuels (dans et sous quelles conditions).<br /><br />Enfin, le quatrième chapitre « Représentation des applications et de leur qualité de service » a pour objectif de proposer une modélisation d'applications sensibles au contexte ayant pour but d'assurer une qualité de service aux utilisateurs. L'approche formelle utilise des graphes orientés et prend en considération la qualité de service. Les différents graphes proposés vont du niveau conceptuel au niveau d'implantation permettant de générer directement les graphes d'implantation et de déploiement qui seront ensuite utilisés par la plateforme Kalinahia pour la reconfiguration dynamique de l'application. <br />L'objectif étant d'assurer une qualité de service acceptable (la meilleure étant un problème NP-Complet), le contexte de qualité est également pris en compte tout au long de la démarche et surtout lors des étapes de reconfiguration puisque c'est une modification du contexte qui déclenchera la modification du déploiement de l'application. L'objectif est de continuer à assurer une qualité de service « acceptable » malgré le contexte mouvant en provoquant des reconfigurations dynamiques de l'application.
|
46 |
Cabri-graphes : un cahier de brouillon interactif pour la théorie des graphesBaudon, Olivier 07 February 1990 (has links) (PDF)
Cabri-graphes est un environnement logiciel, destine aux chercheurs, étudiants et enseignants en théorie des graphes. La pratique de cette discipline amené a recourir a des représentations graphiques, afin de visualiser les structures mathématiques mises en œuvre; ceci dans le but de les manipuler, de leur appliquer concrètement certaines transformations, afin de vérifier une propriété, conforter ou infirmer une idée, une conjecture. Cette pratique, menée sur un cahier de brouillon traditionnel, souffre de limitations et les résultats ne sont que faiblement garantis. C'est pourquoi nous avons étudié et réalisé un logiciel, alliant la simplicité d'usage d'un environnement interactif à la puissance de l'ordinateur. Cette thèse présente l'ensemble des concepts mathématiques et de génie logiciel ayant servi a la réalisation de ce projet. Nous donnons en particulier l'implémentation d'un générateur de graphes aléatoires, ainsi que quelques applications motivées et réalisées grâce à cet environnement logiciel
|
47 |
Base de données et gestion de configurations dans un atelier de génie logicielGhoul, Saïd 21 December 1983 (has links) (PDF)
Il est propose dans cette thèse une méthode de composition modulaire de systèmes à partir d'éléments pouvant exister en plusieurs versions, ainsi qu'une base de données. Conservant les relations de compositions de versions. La réalisation de systèmes complexes s'accompagne de la vérification automatique de contraintes de composition. Une réalisation prototype de la base a été effectuée dans le cadre du projet ADELE
|
48 |
GeNCA : un modèle général de négociation de contrats entre agentsVERRONS, Marie-Hélène 02 November 2004 (has links) (PDF)
Lorsque de nombreux agents interagissent, des conflits peuvent survenir. Pour les résoudre, différentes méthodes peuvent être utilisées, comme la coordination, les systèmes de vote et la négociation. Celle qui nous intéresse dans cette thèse est la négociation à base de contrats portant sur des ressources. L'objectif de notre travail est de concevoir un modèle général de négociation que nous avons appelé GeNCA : Generic Negotiation of Contracts API. Afin de concevoir un tel modèle, nous commençons par étudier les formes de négociation les plus courantes. L'analyse de ces négociations nous permet de dégager leurs points communs et nous fournit une base pour concevoir notre modèle. Grâce à la collecte de ces points communs et à l'étude du déroulement de ces négociations, nous montrons qu'il est possible de concevoir un protocole général de négociation, paramétrable, qui offre la possibilité de formuler des contre-propositions et qui permet de décrire le déroulement d'une négociation particulière.
|
49 |
Conception et Implantation de Système Fondé sur les Composants. Vers une Unification des Paradigmes Génie Logiciel et Système.Poulhiès, Marc 05 March 2010 (has links) (PDF)
Cette thèse a été co-encadrée par le laboratoire MAPS/AMS de France Telecom R&D (aujourd'hui MAPS/SHINE) et le laboratoire VERIMAG. Le développement de logiciels pour les systèmes embarqués présente de nombreux défis. Cette thèse s'intéresse à ceux posés par les interactions entre les trois phases de conception (les développeurs construisent à partir de spécifications un modèle du système exprimé dans un langage de conception i.e. de programmation), d'implantation (le modèle précédent est compilé en un exécutable du système qui est finalement déployé sur les plateformes réelles) et de validation (un ensemble de techniques sont mises en \oe uvre pour vérifier que le système implanté est correct vis-à-vis des spécifications). Pour cela nous nous intéressons aux caractéristiques du langage de conception et aux techniques de compilation de ce langage. Celles-ci permettent d'obtenir dans notre approche à la fois l'implantation du système et un modèle du système implanté. L'analyse de ce modèle permet la validation de l'implantation, ce qui suppose que ce modèle représente fidèlement le système implanté. Nous proposons la construction d'un langage de conception basé sur l'utilisation de composants logiciels prédéfinis dont le comportement dynamique est supposé connu. Nous illustrons cette démarche par la réalisation d'un prototype complet d'un langage appelé Buzz, inspiré des modèles de programmation à acteurs dans lequel les composants logiciels utilisés sont des composants Think accompagnés de leur modèle comportemental opérationnel constitué d'un composant BIP. Le compilateur associé à Buzz que nous avons développé à partir du compilateur Think existant (Nuptse) génère simultanément une architecture à composants Think pour l'implantation et un modèle à composants BIP à des fins d'analyse. Nous évaluons Buzz à travers deux expériences. La première présente le développement de bout en bout d'un logiciel pour un exemple académique sur lequel nous démontrons la pertinence des choix techniques. Think nous permet un support d'implantation complet (compilation, optimisation, déploiement) et BIP rend possible la vérification d'un ensemble de propriétés dynamiques du système. La deuxième expérience consiste à porter une application réelle de protocole radio utilisée dans des réseaux de capteurs et développée de manière classique, vers Buzz. Cette expérience démontre l'effectivité de notre proposition tant en termes de langage de programmation (l'expressivité de Buzz structure et simplifie le code original) qu'en termes d'outils de compilation et de vérification.
|
50 |
Visualizing, Assessing and Re-Modularizing Object-Oriented Architectural ElementsAbdeen, Hani 24 November 2009 (has links) (PDF)
To cope with the complexity of large object-oriented software systems, developers organize classes into subsystems using the concepts of module or package. Such modular structure helps software systems to evolve when facing new requirements. The organization of classes into packages and/or subsystems represents the software modularization. the software modularization usually follows interrelationships between classes. Ideally, packages should to be loosely coupled and cohesive to a certain extent. However, Studies show that as software evolves to meet requirements and environment changes, the software modularization gradually drifts and looses quality. As a consequence, the software modularization must be maintained. It is thus important to understand, to assess and to optimize the organization of packages and their relationships. Our claim is that the maintenance of large and complex software modularizations needs approaches that help in: (1) understanding package shapes and relationships; (2) assessing the quality of a modularization, as well as the quality of a single package within a given modularization; (3) optimizing the quality of an existing modulariza- tion. In this thesis, we concentrate on three research fields: software visualizations, metrics and algorithms. At first, we define two visualizations that help maintainers: (1) to understand packages structure, usage and relationships; (2) to spot patterns; and (3) to identify misplaced classes and structural anomalies. In addition to visual- izations, we define a suite of metrics that help in assessing the package design quality (i.e., package cohesion and coupling). We also define metrics that assess the quality of a collection of inter-dependent packages from different view points, such as the degree of package coupling and cycles. Finally, we define a search-based algorithm that automatically reduces package coupling and cycles only by moving classes over existing packages. Our optimization approach takes explicitly into account the origi- nal class organization and package structure. It also allows maintainers to control the optimization process by specifying: (1) the maximal number of classes that may change their packages; (2) the classes that are candidate for moving and the classes that should not; (3) the packages that are candidate for restructuring and the packages that should not; and (4) the maximal number of classes that a given package can entail. The approaches presented in this thesis have been applied to real large object- oriented software systems. The results we obtained demonstrate the usefulness of our visualizations and metrics; and the effectiveness of our optimization algorithm.
|
Page generated in 0.0647 seconds