Spelling suggestions: "subject:"interoperabilitet""
41 |
Exploitation sémantique des modèles d'ingénierie : application à la modélisation des réservoirs pétroliersSilveira Mastella, Laura 02 March 2010 (has links) (PDF)
Ce travail propose des solutions innovantes en vue de l'exploitation des modèles d'ingénierie hétérogènes. Il prend pour exemple le domaine de la prospection pétrolière. Les stratégies de prospection sont élaborées à partir de représentations tridimensionnelles du sous-sol appelées modèles géologiques. Ceux-ci reposent sur un grand nombre de données hétérogènes générées au fur et à mesure de la conduite de l'exploration par des activités telles que la prospection séismique, les forages, l'interprétation des logs de puits. A fin d'optimisation, les utilisateurs finaux souhaitent, pouvoir retrouver et réutiliser à tout moment les données et les interprétations attachés aux différents modèles successivement générés. Les approches d' intégration des connaissances susceptibles d'être mises en œuvre pour résoudre ce défi, doivent être dissociées aussi bien des sources et des formats de données que des outils logiciels en constante évolution. Pour cela, nous proposons d'utiliser l'annotation sémantique, technique courante du Web sémantique permettant d'associer la connaissance à des ressources au moyen d' "étiquettes sémantiques". La sémantique ainsi explicitée est définie par un certain nombre d' ontologies de domaine, qui, selon la définition classique, correspondent à autant "de spécifications formelles de la conceptualisation" des domaines considérés. En vue d'intégrer les modèles d'ingénierie considérés, nous proposons une architecture, qui permet de relier des concepts appartenant respectivement à des ontologies locales et à une ontologie globale. Les utilisateurs peuvent ainsi avoir une vision globale, intégrée et partagée de chacun des domaines impliqués dans chaîne de modélisation géologique. Un prototype a été développé qui concerne la première étape de la chaîne de modélisation (interprétation séismique). Les expérimentations réalisées prouvent que, grâce à l'approche proposée, les experts peuvent, en utilisant le vocabulaire de leur domaine d'expertise, formuler des questions et obtenir des réponses appropriées.
|
42 |
Interopérabilité sémantique des connaissances des modèles de produits à base de features / Semantic interoperability of knowledge in feature-based CAD modelsAbdul Ghafour, Samer 09 July 2009 (has links)
Dans un environnement collaboratif de développement de produit, plusieurs acteurs, ayant différents points de vue et intervenant dans plusieurs phases du cycle de vie de produit, doivent communiquer et échanger des connaissances entre eux. Ces connaissances, existant sous différents formats hétérogènes, incluent potentiellement plusieurs concepts tels que l’historique de conception, la structure du produit, les features, les paramètres, les contraintes, et d’autres informations sur le produit. Les exigences industrielles de réduction du temps et du coût de production nécessitent l’amélioration de l’interopérabilité sémantique entre les différents processus de développement afin de surmonter ces problèmes d’hétérogénéité tant au niveau syntaxique, structurel, que sémantique. Dans le domaine de la CAO, la plupart des méthodes existantes pour l’échange de données d’un modèle de produit sont, effectivement, basées sur le transfert des données géométriques. Cependant, ces données ne sont pas suffisantes pour saisir la sémantique des données, telle que l’intention de conception, ainsi que l’édition des modèles après leur échange. De ce fait, nous nous sommes intéressés à l’échange des modèles « intelligents », autrement dit, définis en termes d’historique de construction, de fonctions intelligentes de conception appelées features, y compris les paramètres et les contraintes. L’objectif de notre thèse est de concevoir des méthodes permettant d’améliorer l’interopérabilité sémantique des systèmes CAO moyennant les technologies du Web Sémantique comme les ontologies OWL DL et le langage des règles SWRL. Nous avons donc élaboré une approche d’échange basée sur une ontologie commune de features de conception, que nous avons appelée CDFO « Common Design Features Ontology », servant d’intermédiaire entre les différents systèmes CAO. Cette approche s’appuie principalement sur deux grandes étapes. La première étape consiste en une homogénéisation des formats de représentation des modèles CAO vers un format pivot, en l’occurrence OWL DL. Cette homogénéisation sert à traiter les hétérogénéités syntaxiques entre les formats des modèles. La deuxième étape consiste à définir des règles permettant la mise en correspondance sémantique entre les ontologies d’application de CAO et notre ontologie commune. Cette méthode de mise en correspondance se base principalement, d’une part, sur la définition explicite des axiomes et des règles de correspondance permettant l’alignement des entités de différentes ontologies, et d’autre part sur la reconnaissance automatique des correspondances sémantiques supplémentaires à l’aide des capacités de raisonnement fournies par les moteurs d’inférence basés sur les logiques de description. Enfin, notre méthode de mise en correspondance est enrichie par le développement d’une méthode de calcul de similarité sémantique appropriée pour le langage OWL DL, qui repose principalement sur les composants des entités en question tels que leur description et leur contexte. / A major issue in product development is the exchange and sharing of product knowledge among many actors. This knowledge includes many concepts such as design history, component structure, features, parameters, constraints, and more. Heterogeneous tools and multiple designers are frequently involved in collaborative product development, and designers often use their own terms and definitions to represent a product design. Thus, to efficiently share design information among multiple designers, the design intent should be persistently captured and the semantics of the modeling terms should be semantically processed both by design collaborators and intelligent systems. Regarding CAD models, most of the current CAD systems provide feature-based design for the construction of solid models. Features are devised to carry, semantically, product information throughout its life cycle. Consequently, features should be maintained in a CAD model during its migration among different applications. However, existing solutions for exchanging product information are limited to the process of geometrical data, where semantics assigned to product model are completely lost during the translation process. Current standards, such as ISO 10303, known as STEP have attempted to solve this problem, but they define only syntactic data representation so that semantic data integration is not possible. Moreover, STEP does not provide a sound basis to reason with knowledge. Our research investigates the use of Semantic Web technologies, such as ontologies and rule languages; e.g. SWRL, for the exchange of “intelligent” CAD models among different systems, while maintaining the original relations among entities of the model. Thus, we have proposed an ontological approach based on the construction of a common design features ontology, used as an Interlingua for the exchange of product data. This ontology is represented formally with OWL DL. Furthermore, axioms and mapping rules are defined to achieve the semantic integration between the applications ontologies and the common ontology. The integration process relies basically on reasoning capabilities provided by description logics in order to recognize automatically additional mappings among ontologies entities. Furthermore, the mapping process is enhanced with a semantic similarity measure in order to detect similar design features. However, this will enable data analysis, as well as manage and discover implicit relationships among product data based on semantic modeling and reasoning.
|
43 |
Acquisition, structuration et transmission de données de santé issues d'objets connectés pour une solution de télésuivi dans le contexte du maintien à domicile / Data acquisition and transmission using connected devices in a remote monitoring system for home health careGeorgi, Nawras 20 December 2018 (has links)
Grâce au progrès de la médecine et à l’essor des technologies, l’espérance de vie ne cesse de progresser, cette augmentation s’accompagnant d’une apparition de besoins spécifiques pour les seniors. Sachant que huit français sur dix souhaitent continuer à vivre à domicile en cas de perte d’autonomie, équiper les seniors d’une solution de suivi de leur état de santé à distance pourrait le leur permettre et ce dans de bonnes conditions. Dans ce contexte, nous avons identifié trois verrous que nous avons cherché à lever au cours de cette thèse. Le premier concerne l’interopérabilité des capteurs de santé qui se trouve mise à mal par l’adoption massive des protocoles propriétaires par les fabricants. Pour y remédier, nous proposons une passerelle facilitant la communication avec les capteurs de santé, qu’ils soient médicaux ou de bien-être, en faisant abstraction des multitudes de protocoles de communication propriétaires et standards. Le deuxième obstacle concerne l’erreur de mesure due à la manipulation d’un capteur de santé par des personnes non initiées en absence d’un professionnel de santé. Nous illustrons cette problématique à travers l'exemple d'un tensiomètre de poignet pour lequel nous proposons une méthode permettant de guider l’utilisateur dans son bon positionnement en respectant les recommandations des fabricants grâce à l'apport d'une montre connectée. Le dernier challenge a trait à la question de la multimodalité et plus précisément à la contextualisation de la mesure. Il s'agit ici de la fusion de données provenant d’un ensemble d’objets connectés dans un système de télésuivi décliné sous l'angle de la prise de la tension artérielle dans l'objectif de placer l’usager en situation d'effectuer une mesure de tension conforme aux recommandations des sociétés savantes. L'expérimentation qui a été conduite a permis d’évaluer l’acceptabilité du système proposé. / Thanks to medical progress and new technologies, life expectancy is growing continuously leading to the emergence of specific needs for elderly. With eighty percent of French willing to keep living at home even with loss of autonomy, offering a remote health monitoring system would allow them to do so in good conditions. In this context, we identified three challenges. The first one concerns health sensors interoperability which is declining because of proprietary protocols largely adopted by manufacturers in their products. To deal with this issue, we propose a middleware that simplifies the communication with the multitude of protocols, proprietary and standard, to improve interoperability with both medical and wellness devices. The second challenge reports to reliability and more particularly to measurement errors due to device handling by the user in absence of clinician. We illustrate this point with a wrist blood pressure monitor and propose a method that guides the user in properly positioning the device thanks to a smartwatch. The last challenge relates to multimodality and more precisely to the measure contextualization. It consists of combining different types of data from a set of sensors in a health monitoring system to ensure that blood pressure is measured in compliance with learned societies recommendations. The experiment we have conducted allows to evaluate the users' acceptability of the proposed solution.
|
44 |
Proposition d'un modèle pour la représentation de contexte d'exécution de simulations informatiques à des fins de reproductibilité / Proposing a representation model of computational simulations’ execution context for reproducibility purposesCongo, Faïçal Yannick Palingwendé 19 December 2018 (has links)
La reproductibilité en informatique est un concept incontournable au 21ème siècle. Les évolutions matérielles des calculateurs font que le concept de reproductibilité connaît un intérêt croissant au sein de la communauté scientifique. Pour les experts en simulation, ce concept est indissociable de celui de vérification, de confirmation et de validation, que ce soit pour la crédibilité des résultats de recherches ou pour l’établissement de nouvelles connaissances. La reproductibilité est un domaine très vaste. Dans le secteur computationnel et numérique, nous nous attacherons, d’une part, à la vérification de la provenance et de la consistance des données de recherches. D’autre part, nous nous intéressons à la détermination précise des paramètres des systèmes d’exploitation, des options de compilation et de paramétrage des modèles de simulation permettant l’obtention de résultats fiables et reproductibles sur des architectures modernes de calcul. Pour qu’un programme puisse être reproduit de manière consistante il faut un certain nombre d’information de base. On peut citer entre autres le système d’exploitation, l’environnement de virtualisation, les diverses librairies utilisées ainsi que leurs versions, les ressources matérielles utilisées (CPU, GPU, accélérateurs de calcul multi coeurs tel que le précédent Intel Xeon Phi, Mémoires, ...), le niveau de parallélisme et éventuellement les identifiants des threads, le statut du ou des générateurs pseudo-aléatoires et le matériel auxquels ils accèdent, etc. Dans un contexte de calcul scientifique, même évident, il n’est actuellement pas possible d’avoir de manière cohérente toutes ces informations du fait de l’absence d’un modèle standard commun permettant de définir ce que nous appellerons ici contexte d'exécution. Un programme de simulation s'exécutant sur un ordinateur ou sur un noeud de calcul, que ce soit un noeud de ferme de calcul (cluster), un noeud de grille de calcul ou de supercalculateur, possède un état et un contexte d'exécution qui lui sont propres. Le contexte d'exécution doit être suffisamment complet pour qu’à partir de celui-ci, hypothétiquement,l'exécution d’un programme puisse être faite de telle sorte que l’on puisse converger au mieux vers un contexte d’exécution identique à l’original dans une certaine mesure. Cela, en prenant en compte l'architecture de l’environnement d’exécution ainsi que le mode d'exécution du programme. Nous nous efforçons, dans ce travail, de faciliter l'accès aux méthodes de reproductibilité et de fournir une méthode qui permettra d’atteindre une reproductibilité numérique au sens strict. En effet, de manière plus précise, notre aventure s’articule autour de trois aspects majeurs. Le premier aspect englobe les efforts de collaboration, qui favorisent l'éveil des consciences vis à vis du problème de la reproductibilité, et qui aident à implémenter des méthodes pour améliorer la reproductibilité dans les projets de recherche. Le deuxième aspect se focalise sur la recherche d’un modèle unifiant de contexte d'exécution et un mécanisme de fédération d’outils supportant la reproductibilité derrière une plateforme web pour une accessibilité mondiale. Aussi, nous veillons à l’application de ce deuxième aspect sur des projets de recherche. Finalement, le troisième aspect se focalise sur une approche qui garantit une reproductibilité numérique exacte des résultats de recherche. / Computational reproducibility is an unavoidable concept in the 21st century. Computer hardware evolutions have driven a growing interest into the concept of reproducibility within the scientificcommunity. Simulation experts press that this concept is strongly correlated to the one ofverification, confirmation and validation either may it be for research results credibility or for theestablishment of new knowledge. Reproducibility is a very large domain. Within the area ofnumerical and computational Science, we aim to ensure the verification of research dataprovenance and integrity. Furthermore, we show interest on the precise identification ofoperating systems parameters, compilation options and simulation models parameterizationwith the goal of obtaining reliable and reproducible results on modern computer architectures.To be able to consistently reproduce a software, some basic information must be collected.Among those we can cite the operating system, virtualization environment, the softwarepackages used with their versions, the hardware used (CPU, GPU, many core architectures suchas the former Intel Xeon Phi, Memory, …), the level of parallelism and eventually the threadsidentifiers, the status of pseudo-random number generators, etc. In the context of scientificcomputing, even obvious, it is currently not possible to consistently gather all this informationdue to the lack of a common model and standard to define what we call here execution context.A scientific software that runs in a computer or a computing node, either as a cluster node, a gridcluster or a supercomputer possesses a unique state and execution context. Gatheringinformation about the latter must be complete enough that it can be hypothetically used toreconstruct an execution context that will at best be identical to the original. This of course whileconsidering the execution environment and the execution mode of the software. Our effortduring this journey can be summarized as seeking an optimal way to both ease genuine access toreproducibility methods to scientists and aim to deliver a method that will provide a strictscientific numerical reproducibility. Moreover, our journey can be laid out around three aspects.The first aspect involves spontaneous efforts in collaborating either to bring awareness or toimplement approaches to better reproducibility of research projects. The second aspect focusesin delivering a unifying execution context model and a mechanism to federate existingreproducibility tools behind a web platform for World Wide access. Furthermore, we investigateapplying the outcome of the second aspect to research projects. Finally, the third aspect focusesin completing the previous one with an approach that guarantees an exact numerical reproducibility of research results.
|
45 |
Approche basée sur les ontologies pour l'interopérabilité centrée sur le produit des systèmes d'entreprise de productionTursi, Angela 13 November 2009 (has links) (PDF)
Depuis quelques années, l'interopérabilité des applications est devenue le leitmotiv des développeurs et concepteurs en ingénierie système. Cette importance a donné lieu à d'innombrables travaux de recherche avec chacun une définition particulière plus au moins formelle de l'interopérabilité entre applications. La plupart des approches pour l'interopérabilité existant dans l'entreprise ont pour objectif principal l'ajustement et l'adaptation des types et structures de données nécessaire à la mise en œuvre de collaboration entre entreprises. Dans le domaine des entreprises manufacturières, le produit est une composante centrale. Des travaux scientifiques proposent des solutions pour la prise en compte des systèmes d'information issus des produits, tout au long de leur cycle de vie. Mais ces informations sont souvent non corrélées. La gestion des données de produit (PDM) est couramment mise en œuvre pour gérer toute l'information relative aux produits durant tout leur cycle de vie. La modélisation des processus de fabrication et de gestion est largement répandue et appliquée tant aux produits physiques qu'aux services. Cependant, ces modèles sont généralement des "îlots" indépendants ne tenant pas compte de la problématique d'interopérabilité des applications supportant ces modèles. L'objectif de cette thèse est d'étudier cette problématique d'interopérabilité appliquée aux applications utilisées dans l'entreprise manufacturière et de définir un modèle ontologique de la connaissance des entreprises relatives aux produits qu'elles fabriquent, sur la base des données techniques de produits, pour assurer l'interopérabilité des systèmes d'entreprise supports, basés sur un échange d'information centrée sur le produit. Le résultat attendu de ce travail de recherche concerne la formalisation d'une méthodologie d'identification des informations de gestion techniques des produits, sous la forme d'une ontologie, pour l'interopérabilité des applications d'entreprises manufacturières, sur la base des standards existants tels que l'ISO 10303 et l'IEC 62264.
|
46 |
Le kanban actif pour assurer l'interopérabilité décisionnelle centralisé/distribué<br />Application à un industriel de l'ameublementKlein, Thomas 10 November 2008 (has links) (PDF)
La thèse défendue est le résultat d'un partenariat entre d'une part le groupe Parisot, et plus particulièrement la société Parisot Meuble, et d'autre part l'équipe de recherche technologique TRACILOG du Centre de Recherche en Automatique de Nancy.<br />La typologie de la consommation en termes de biens et de services a évolué au cours des dernières années, avec notamment l'émergence du e-commerce. Si jusqu'alors les consommateurs se sont satisfaits de produits faiblement différenciés à bas coûts, la tendance est à la personnalisation, impliquant une augmentation de la diversité et des exigences du client final en termes de coûts, qualité, fonctionnalités et délais. Les systèmes de production ont généralement été conçus pour être efficaces dans un contexte de production de masse : ils doivent évoluer pour s'adapter à cette nouvelle typologie du marché. Ils doivent gagner en flexibilité pour être capable de répondre aux diverses demandes des clients. Il leur faut également être réactifs, afin de satisfaire rapidement les clients. Enfin, l'entreprise dans sa globalité doit devenir agile, capable de se reconfigurer en fonction des évolutions de son environnement ou de son marché (Nof et al, 2006), (Koren et al, 1999).<br />Les industries qui produisent en grande série des produits personnalisables, et notamment l'industrie du meuble, subissent également cette évolution : le nombre de références ne cesse d'augmenter et les volumes par référence diminuent. L'un des enjeux majeurs pour l'entreprise Parisot Meubles consiste à flexibiliser un outil industriel initialement dimensionné pour produire des quantités importantes de produits avec une faible différenciation, afin de répondre aux exigences des clients, tant en terme de diversification des produits que de qualité, coûts et délais. Les investissements dans les infrastructures de production étant récents et importants, les perspectives de flexibilisation doivent d'abord s'appuyer sur une évolution des structures de pilotage.<br />Les systèmes centralisés et hiérarchiques, initialement développés pour répondre à un marché de consommation de masse, ne permettent pas l'agilité du système de production. En effet, si de telles architectures se montrent performantes en régime nominal, de nombreux auteurs (Duffie et al, 1986)(Valckenaers et al, 1997) ont souligné leur manque de robustesse aux perturbations (gestion d'urgences commerciales, pannes, ruptures d'approvisionnements) et leur rigidité (pénibilité de la reconfiguration lors de l'introduction de nouveaux produits par exemple). Ce constat a conduit beaucoup d'entreprises à se tourner vers des stratégies de pilotage de type Juste-à-Temps, reposant sur une production tirée par la demande du client et un système de pilotage des flux physiques par le terrain, généralement à l'aide d'étiquettes (papier) kanban (Monden, 1981). S'ils apportent des solutions satisfaisant aux contraintes de réactivité, ces systèmes ne proposent pas une gestion optimale des flux, et rendent celle-ci complexe par la difficulté à disposer d'une vue globale de la situation.<br />Dans le but d'améliorer l'agilité des systèmes de production, les activités de recherche se sont orientées ces dernières années vers des systèmes de pilotage hybrides combinant un système de décision centralisé prédictif avec un horizon à moyen ou long terme et un système distribué où les décisions sont prises en temps réel à même le flux sur un horizon court terme. La qualité et la complémentarité des deux approches, centralisées et distribuées, laisse entrevoir des bénéfices considérables pour les architectures hybrides qui concilieraient les capacités d'optimisation globale des systèmes hiérarchiques avec la réactivité et la robustesse potentielle des systèmes hétérarchiques.<br />Par ailleurs, les développements récents dans le domaine des technologies infotroniques (RFID, réseaux de communication sans fil...) apportent les outils concrets permettant la mise en œuvre de systèmes automatisés de pilotage. Il devient réaliste d'imaginer que le « produit informant » puisse assurer la synchronisation du flux d'objets physiques du procédé et le flux des objets logiciels du système d'information représentant ce procédé. Mac Farlane (MacFarlane et al, 2003) a montré que l'instrumentation du produit et l'augmentation de la visibilité inhérente permettent un apport, tant pour les systèmes classiques de gestion de production que pour les systèmes émergents (Figure 4). D'abord, la collecte en temps-réel de données pertinentes sur l'état du flux de produits et de système de production permettent d'alimenter efficacement les outils centralisés (APS, ERP, MES), particulièrement consommateurs de données, dans le but d'assurer cohérence et optimisation globale du processus de production. Les technologies d'identification automatique permettent de résoudre le problème de synchronisation des flux physiques et d'informations adressée par Plossl en 1985 (Plossl, 1985). <br />L'instrumentation du produit représente également un moyen sûr d'assurer le lien matière-information et permet d'améliorer la visibilité sur le flux physique. La disponibilité d'informations à la fois sur le process et sur le produit lui-même amène à une amélioration de la visibilité (ou observabilité) dans l'espace des états de l'opération contrôlée (MacFarlane et al, 2003). L'Auto ID est donc un complément aux informations capteurs provenant directement du process. La possibilité d'information précise et en temps réel sur l'identité, le statut et les spécifications du produit aident à réduire les délais et les risques d'erreurs dans la gestion des stocks de matière première, les opérations de production et la gestion des produits finis.<br />Il devient alors réaliste d'imaginer le « produit actif », participant aux décisions concernant la fabrication, et de le considérer comme le pivot du système de pilotage, assurant la synchronisation et la cohérence entre un système centralisé assurant l'optimisation globale de la production au niveau de l'entreprise et l'ensemble des centres de décisions distribués en charge de l'exécution de la production (Figure 5). Comme énoncé par Valckenaers dans (Morel et al, 2007) : « These recent and ongoing developments finally promise to deliver the best of both worlds: the planning ability of centralized older solutions and the ability to cope with the real-factory dynamics of the self-organizing multi-agent systems ». Notamment, (Thomas et al, 2008) montre la pertinence du concept de contrôle par le produit dans un contexte de production pilotée en Juste-à-Temps, en permettant de maintenir une vision globale du système et d'assurer la cohérence des décisions prises localement.<br />Les enjeux actuels du domaine sont donc la proposition de cadres de modélisation et de développement de système de production agiles, la preuve du concept et de l'efficience de tels systèmes à l'échelle industrielle et le transfert par application sur des cas réels du monde industriel.<br />Au sein du CRAN, l'équipe projet « Systèmes Contrôlé par le Produit » étudie l'opportunité d'allouer au produit un rôle actif dans l'organisation, assurant le lien entre l'exécution de la production et le pôle « business » de l'entreprise. Notre travail a été mené conjointement avec la thèse de Rémi Pannequin (Pannequin, 2007) dont l'objet était de démontrer la validité du concept de produit actif, en développant une plateforme multi-agents de contrôle par le produit et une architecture d'émulation, et avec la thèse de Hind El Haouzi (sera soutenue en 2008), qui exploite ce concept pour synchroniser les flux d'un ligne principale d'assemblage avec des lignes secondaires (feeders), dans un contexte de production unitaire. Par rapport à ces deux thèses, notre contribution s'appuie sur l'infotronisation des flux physiques pour aider à la gestion des différents points de découplage par rapport à un objectif global, dans un contexte de production de gros volumes batchés. <br />Nos travaux ont pour but d'étudier les nouvelles opportunités apportées par les technologies d'identification dans le pilotage des flux de production, et plus particulièrement les technologies d'identification automatique dans un système de production contrôlé en kanban. Plus particulièrement, dans le cadre d'une thèse CIFRE, nous adressons la problématique de gestion des flux de produits au sein de l'entreprise Parisot Meubles.<br />Au cours de ce travail de thèse, nous avons étudié le système de production dans son ensemble (système physique et système de pilotage), afin d'identifier les problématiques industrielles de pilotage de la production propres à Parisot Meubles. De ces problématiques industrielles, nous avons induit une problématique plus générale de recherche. Nous avons ensuite pu valider les propositions par l'application au cas industriel réel.<br />Ce travail a porté sur une étude des opportunités apportées par les nouvelles technologies de l'information sur les processus de pilotage de la production, ainsi que la proposition d'un système d'aide à la décision de pilotage des flux sur le terrain. L'architecture proposée s'appuie sur l'infotronisation du flux de kanbans, qui deviennent des « kanbans actifs » et assurent l'interopérabilité et la synchronisation entre un système de décision centralisé et les différentes entités décisionnelles distribuées, afin de coordonner l'ensemble des décisions. Ces propositions ont été validées à l'aide d'une architecture d'émulation, permettant d'utiliser un système de pilotage dans les conditions réelles. Par ailleurs, certaines structures proposées ont pu être validées sur le système de production réel. <br />Les contributions de ce travail de thèse reposent sur :<br />• la proposition d'une architecture d'évaluation par émulation de systèmes de pilotage de la production, à une échelle industrielle, ainsi que la méthode de construction.<br />• La proposition d'un système d'aide au pilotage de la production permettant d'assurer la cohérence globale du système de décision.
|
47 |
Processus d'intégration et d'appariement de Bases de Données Géographiques; Application à une base de données<br />routières multi-échellesDevogele, Thomas 12 December 1997 (has links) (PDF)
Les phénomènes du monde réel sont actuellement représentés dans les Bases de Données Géographiques (BDG) sous différentes formes (suivant les modèles géographiques, suivant les points de vue utilisateur et/ou suivant les systèmes). La réutilisation de telles BDG nécessite dès lors un processus d'intégration pour éliminer les parties redondantes et regrouper les parties complémentaires. Ce processus d'intégration est nécessaire étant donné le coût d'acquisition des données géographiques (de cette manière des saisies d'information sont évitées) et permet de fédérer l'information provenant de différentes sources. L'intégration est donc au cœur du problème d'interopérabilité entre BDG.<br />A l'issue de celle-ci, plusieurs représentations de phénomènes du monde réel sont disponibles selon des points de vue différents et des échelles distinctes. Ces représentations multiples sont nécessaires pour des applications très diverses : cartographie électronique multi-échelle, propagation des mises à jour, aide à la navigation.<br />L'objectif de cette thèse consiste donc à définir un processus d'intégration de BDG sur un seul site, le processus étant limité aux données en mode vecteur à deux dimensions. Il propose l'extension d'un processus d'intégration classique à trois phases [Spaccapietra et al. 92] (pré-intégration, déclaration des correspondances, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre BDG et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en œuvre sur les trois principales bases de données de l'IGN (BD TOPO®, BD CARTO® et GEOROUTE®) pour le thème routier dans la région de Lagny (environ 900 km de tronçons routiers).<br />Etant donnée la complexité des phénomènes géographiques, plusieurs interprétations et donc plusieurs modélisations des phénomènes peuvent être définies. La taxonomie des conflits d'intégration de BDG effectue une structuration de ces différences : conflits de définition de classe (conflits de classification, conflits de fragmentation, conflits de spécification), conflits d'hétérogénéité, conflit de description,...Six catégories de conflits ont été traitées dans le processus d'intégration.<br />Certains conflits sont pris en compte dans la phase de pré-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. De plus, la phase d'intégration doit suivre une stratégie. Cette stratégie détermine le choix des opérations et fixe l'objectif de l'intégration. Au vu de nos bases d'expérimentations, deux stratégies d'intégration (et leurs opérations d'intégration associées) sont présentées.<br />Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel et permet le regroupement d'informations. Cette étape est précieuse car elle enrichit les BDG d'opérations inter-représentations, opérations nécessaires aux applications multi-représentations.<br />Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90 %. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données.<br />Cette thèse apporte donc un cadre général et détaillé pour les intégrations de BDG et contribue ainsi à l'essor d'applications multi-représentations et de l'interopérabilité entre les BDG en adaptant ces processus à des BDG réparties sur un réseau.
|
48 |
Génération de scénarios de tests pour la vérification de systèmes répartis : application au système européen de signalisation ferroviaire (ERTMS)Jabri, Sana 22 June 2010 (has links) (PDF)
Dans les années 90, la commission européenne a sollicité la mise au point d'un système de contrôle commande et de signalisation ferroviaire commun à tous les réseaux des états membres : le système ERTMS " European Railway Traffic Management System ". Il s'agit d'un système réparti complexe dont le déploiement complet est long et coûteux. L'objectif global consiste à diminuer les coûts de validation et de certification liés à la mise en œuvre de ce nouveau système en Europe. La problématique scientifique réside dans la modélisation formelle de la spécification afin de permettre la génération automatique des scénarios de test. Les verrous scientifiques, traités dans cette thèse, sont liés d'une part à la transformation de modèle semi-formel en modèle formel en préservant les propriétés structurelles et fonctionnelles des constituants réactifs du système réparti, et d'autre part à la couverture des tests générés automatiquement. Les constituants sont sous la forme de boîte noire. L'objectif consiste à tester ces derniers à travers la spécification ERTMS. Nous avons développé une approche de modélisation basée sur le couplage de modèles semi-formels (UML) et de modèles formels (Réseaux de Petri). Ce couplage se fait à travers une technique de transformation de modèles. Nous avons développé ensuite une méthode de génération automatique de scénarios de test de conformité à partir des modèles en réseaux de Petri. Les scénarios de test ont été considérés comme une séquence de franchissement filtrée puis réduite du réseau de Petri interprété représentant la spécification. Ces scénarios ont été exécutés sur notre plateforme de simulation ERTMS
|
49 |
Proposition et développement d'une approche pour la maîtrise conjointe qualité/coût lors de la conception et de l'industrialisation du produitHassan, Alaa 16 April 2010 (has links) (PDF)
Le besoin de compétitivité impose aujourd'hui de concevoir plus rapidement, mieux et moins cher que les concurrents. Dans ce contexte, la prise en compte de l'ensemble des contraintes du produit dépends du retour des indicateurs de performance (coût, risque, qualité, délai,...). Il est donc important de bien évaluer ces indicateurs afin de retourner des informations robustes et cohérentes qui permettent de prendre une bonne décision pour piloter le cycle de développement du produit de sort qu'on obtient un meilleur rapport qualité/coût. L'interopérabilité des approches QFD, FMEA et KCs a été étudiée afin de les exploiter dans un seul cadre de maîtrise de la qualité pour assurer l'homogénéité et la cohérence des indicateurs de la qualité. Le coût a été pris en compte en proposant l'approche CbFMEA, basée sur FMEA classique, qui permet d'estimer le coût de non-qualité afin d'évaluer la gravité financière des défaillances du produit. Ce coût a été ajouté au coût de fabrication du produit estimé par la méthode ABC. L'approche du coût (CbFMEA/ABC) a été couplée à l'approche de la qualité (QFD/FMEA/KCs) résultant une approche conjointe qualité/coût illustrée par un diagramme d'activités. Un modèle de données de l'approche conjointe qualité/coût a été proposé est une maquette informatique a été développée afin de valider les concepts et le modèle proposés. Une application de cette approche a été illustrée dans la phase de pré-gamme d'usinage via un cas d'études. Cette application est nommée QCCPP, elle fournit des indicateurs de capabilité, de risques et du coût. L'objectif est l'aide à la décision lors du choix multicritères des ressources d'usinage pour l'amélioration conjointe de rapport qualité/coût du produit.
|
50 |
Grille sémantique autonome : un intergiciel pour l'interopérabilité d'agents et services webPasha, Maruf 02 April 2010 (has links) (PDF)
Le développement des nouveaux paradigmes et technologies comme le Web sémantique, le calcul sur grille et les services Web ouvrent de nouvelles perspectives et défis pour la conception d'une nouvelle génération d'applications. Cette nouvelle génération peut être conçue comme des systèmes multi-agents opérant sur les grilles de calcul tout en s'appuyant sur les services offerts par les services Web sémantiques. D'une part, les avancées dans la standardisation des langages et technologies des services Web ont permis un déploiement rapide d'applications fondées sur l'invocation dynamique de services découverts à la volée. Ainsi, grâce aux services Web, les applications peuvent être vues comme un ensemble de services logiciels, explicitement décrits, découverts et invoqués à l'aide des standards internationaux définis par le W3C (World Wide Web Consortium). D'autre part, le Web sémantique vise à rendre le contenu des ressources du Web accessible et utilisable par les agents logiciels, grâce à un système de métadonnées. Ces métadonnées sont notamment exprimées à l'aide d'ontologies définies en OWL – Web Ontology Language, un langage standardisé par le W3C. L'extension du Web sémantique aux services Web donne ainsi lieu à des services Web sémantiques. Le Web sémantique est également à la base des grilles sémantiques fournissant une infrastructure virtuelle constituée d'un ensemble de ressources potentiellement partagées, distribuées, hétérogènes, délocalisées et autonomes. Ces ressources sont abstraites en tant que services grille. La conjonction des services Web et des systèmes multi-agents déployés sur les grilles sémantiques donne naissance aux grilles sémantiques autonomes. Dans cette vision, des agents logiciels exploitent les services des grilles de calcul mais également utilisent des services Web au-delà de la grille, permettant un usage à très large échelle. Ces systèmes multi-agents sont construits en se reposant souvent sur les standards IEEE de la FIPA (Foundation of Intelligent Physical Agents). Néanmoins, un problème se pose : celui de l'interopérabilité des agents logiciels, de nature sémantique, avec les services Web sémantiques, tout en respectant les standards définis par la FIPA et le W3C. Cette thèse s'attaque à cette problématique. L'approche développée dans la thèse est fondée sur la conception d'un intergiciel permettant l'interopérabilité entre agents logiciels et services Web de manière transparente tout en s'appuyant sur les standards actuels promus par la FIPA pour les systèmes multi-agents et pour le W3C pour les services Web sémantiques. Elle définit l'architecture logicielle et implémente en intergiciel pour la médiation entre agents logiciels et services Web sémantiques, en prenant en compte la dimension ontologique. La solution proposée est validée par des études de cas et utilise π-ADL, un langage formel basé sur le π-calcul, pour spécifier l'application des mécanismes développés.
|
Page generated in 0.0894 seconds