Spelling suggestions: "subject:"duystème dde gestion"" "subject:"duystème dee gestion""
11 |
Modélisation et optimisation de la prédictibilité et de la flexibilité du système de gestion de trafic aérien / Modeling and optimisation of the predictability and the flexibility of the air traffic flow management systemHoang, Trung Tuyen 14 December 2009 (has links)
Cette thèse a pour but de modéliser et d'optimiser deux composantes du système de gestion de flux de trafic aérien : la prédictibilité et la flexibilité. Cette modélisation est équivalente à établir une relation entre la fenêtre temporelle et les taux d'arrivée des avions. Deux approches sont utilisées : l'analyse des données historiques et la modélisation mathématique. L'analyse des données historique a permis de déterminer la fenêtre temporelle raisonnable mais sans pouvoir apporter les améliorations nécessaires pour y arriver. La modélisation mathématique permet non seulement de définir de façon rigoureuse la prédictibilité et la flexibilité mais également de traiter des vols en différents scénarios de priorités. La combinaison de DC algorithme avec des méthodes de résolutions classiques comme Branch and Bound a nettement amélioré la vitesse de la convergence des solutions et donc elle peut être utilisée pour la phase tactique de gestion de flux du trafic aérien. / This thesis aims to model and optimise two components of the air traffic flow management system : predictibility and flexibility. This modelling is equivalent to establishing a relationship between the time window and the rate of arrival flights. Two approachs are used : the analysis of historical data and mathematical modeling. The analysis of historical data was used to establish the relationship between the time window and arrivla rate of flights. It provided the optimal time window but could not show how to modify the system to lead to that time window. Mathematical modeling can not only define the predictability and flexibility in the rigourous manner but also deal with different scenarios of fligths priorities. The combination of DC algorithm with classical methods like Branch and Bound has significantly improved the speed of convergence of solutions and therefore it can be used for the tactical phase of the air traffic flow management.
|
12 |
Intégration des informations et connaissances en Usine Numérique / Integration of information and knowledge in Digital FactoryBouzid, Marwa 03 March 2017 (has links)
Au cours des dernières décennies, le Processus de Développement de nouveaux Produits (PDP) est devenu un processus de plus en plus complexe et itératif, dû à la diversification et la personnalisation des produits et leur complexification. De plus la conception des systèmes de production associés devient une tâche très complexe, sachant que cette phase est liée aux prises de décisions de la stratégie de production qui ont un impact à long terme et qui impliquent un engagement important de ressources financières. Ainsi, les entreprises doivent surmonter ces défis pour concevoir, développer et produire des produits plus rapides et moins chers avec une meilleure qualité. Dans ce contexte, l’Usine Numérique (UN) est une solution basée sur l’emploi de méthodeset outils numériques pour examiner, qualifier et comparer les systèmes de production complexes et ainsi aider la prise de décisions optimales. Cependant, les experts de simulation rencontrent toujours des difficultés lors de prises de décision, dû au manque d’organisation, informations et connaissances. Dans ce travail de recherche, nous nous concentrons sur ce dernier point et proposons un système de gestion des connaissances nommé « KSim » dédié à la gestion de toutes les connaissances pour le développement des projets d’UN et qui supporte la collaboration et la communication entre tous les acteurs de PDP pour faciliter la prise de bonnes décisions dans un temps restreint. / In recent decades, the New Product Development Process (PDP) has become an increasingly complex and iterative process due to the diversification and customization of products and their complexity. Moreover, the design of the associated production systems becomes a very complex task, knowing that this phase is linked to the decision-making of the production strategy which have an impact on long-term and which involve an important commitment of financial resources. Thus, companies must overcome these challenges for design, develop and produce faster and cheaper products with better quality. In this context, the Digital Factory (DF) is a solutionbased on the use of numerical methods and tools to examine, qualify and compare the complex production systems and thus, help to make the optimal decisions. However, the experts of simulation still encounter difficulties in the decision-making due to the lack of organization, information and knowledge. In this research, we focus on this last point and we propose a knowledge management system called "KSim" dedicated to the management of all knowledge for the development of DF projects and which supports the collaboration and communication between all PDP actors to facilitate to make better decisions as soon as possible.
|
13 |
Modèle de respect de la vie privée dans une architecture d'identité fédérée / Privacy model for federated identity architecturesFragoso Rodriguez, Uciel 16 December 2009 (has links)
L'augmentation rapide du nombre de transactions en ligne dans le monde moderne numérique exige la manipulation des informations personnelles des utilisateurs, y compris sa collection, stockage, diffusion et utilisation. De telles activités représentent un risque sérieux concernant le respect de la vie privée des informations personnelles. Le travail actuel analyse l'utilisation des architectures d'identité fédérées (AIF) comme une solution appropriée pour simplifier et assurer la gestion des identités numériques dans un environnement de collaboration. Cependant, la contribution principale du projet est la proposition d'un modèle de respect de la vie privée qui complète les mécanismes inhérents de respect de la vie privée de la AIF afin d'être conformes aux principes de respect de la vie privée établis par un cadre législatif. Le modèle de respect de la vie privée définit une architecture modulaire qui fournit les fonctionnalités suivantes : spécifications des conditions de respect de la vie privée, représentation des informations personnelles dans un format de données standard, création et application des politiques en matière de protection de la vie privée et accès aux informations personnelles et registre d'évènement. La praticabilité pour déployer le modèle de respect de la vie privée dans un environnement réel est analysée par un scénario de cas pour le projet mexicain d'e-gouvernement. / The fast growth of the number of on-line transactions in the modern digital world requires the handling of personal information of users, including its collection, storage, use and dissemination. Such activities represent a serious risk regarding the privacy of personal information. The present work analyses the use of Federated Identity Architectures (FIA) as a suitable solution for simplifying and assuring the management of digital identities in a collaborative and distributed environment. However, the main contribution of the project is the proposal of a privacy model that complements the inherent privacy mechanisms of the FIA in order to comply with the privacy principles established by a regulatory framework. The privacy model has a layered and modular architecture that allows providing the following functionalities: specification of privacy requirements, representation of personal information in a standard data format, creation and enforcement of privacy policies and access to personal information and event logs. The feasibility for deploying the privacy model within a real environment is analyzed through a case scenario for the Mexican e-Government project.
|
14 |
Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle / [Contributions to the modelling and conception of large-scale provenance management systems]Sakka, Mohamed Amin 28 September 2012 (has links)
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d’échange, de partage et de stockage de l’information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d’accès ainsi qu’une efficacité d’organisation et de recherche de l’information. Malgré ses avantages, l’information numérique a l’inconvénient d’être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l’information et pour vérifier si elle répond à un ensemble d’exigences métier, techniques et légales. Aujourd’hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L’objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l’information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l’exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l’hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d’interprétation minimal et commun pour n’importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l’interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d’abord une architecture logique de PMS indépendante des choix technologiques d’implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d’un PMS. Par la suite, et afin de préserver l’autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l’ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l’archivage de documents à valeur probante. Ensuite, l’aspect passage à l’ échelle de notre architecture a été testé par l’implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l’interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs / Provenance is a key metadata for assessing electronic documents trustworthiness. It allows to prove the quality and the reliability of its content. With the maturation of service oriented technologies and Cloud computing, more and more data is exchanged electronically and dematerialization becomes one of the key concepts to cost reduction and efficiency improvement. Although most of the applications exchanging and processing documents on the Web or in the Cloud become provenance aware and provide heterogeneous, decentralized and not interoperable provenance data, most of Provenance Management Systems (PMSs) are either dedicated to a specific application (workflow, database, ...) or a specific data type. Those systems were not conceived to support provenance over distributed and heterogeneous sources. This implies that end-users are faced with different provenance models and different query languages. For these reasons, modeling, collecting and querying provenance across heterogeneous distributed sources is considered today as a challenging task. This is also the case for designing scalable PMSs providing these features. In the fist part of our thesis, we focus on provenance modelling. We present a new provenance modelling approach based on semantic Web technologies. Our approach allows to import provenance data from heterogeneous sources, to enrich it semantically to obtain high level representation of provenance. It provides syntactic interoperability between those sources based on a minimal domain model (MDM), supports the construction of rich domain models what allows high level representations of provenance while keeping the semantic interoperability. Our modelling approch supports also semantic correlation between different provenance sources and allows the use of a high level semantic query language. In the second part of our thesis, we focus on the design, implementation and scalability issues of provenance management systems. Based on our modelling approach, we propose a centralized logical architecture for PMSs. Then, we present a mediator based architecture for PMSs aiming to preserve provenance sources distribution. Within this architecture, the mediator has a global vision on all provenance sources and possesses query processing and distribution capabilities. The validation of our modelling approach was performed in a document archival context within Novapost, a company offering SaaS services for documents archiving. Also, we propose a non-functional validation aiming to test the scalability of our architecture. This validation is based on two implementation of our PMS : he first uses an RDF triple store (Sesame) and the second a NoSQL DBMS coupled with the map-reduce parallel model (CouchDB). The tests we performed show the limits of Sesame in storing and querying large amounts of provenance data. However, the PMS based on CouchDB showed a good performance and a linear scalability
|
15 |
Contribution à la visualisation des connaissances par des graphes dans une mémoire d'entreprise : application sur le serveur AtanorPinaud, Bruno 22 May 2006 (has links) (PDF)
Le bon déroulement d'un processus de gestion des connaissances passe par l'utilisation de méthodes efficaces de visualisation qui permettent une compréhension aisée des différents modèles de connaissances utilisés. Les retours d'expériences avec le système de gestion des connaissances Atanor, qui est orienté vers le déploiement des connaissances dans un contexte opérationnel portant sur des systèmes complexes, ont montré que le modèle d'arbres actuellement utilisé pour la visualisation des modèles de connaissances n'est pas intuitif. Des redondances de sommets trop nombreuses peuvent entraîner des difficultés de lecture et cacher des caractéristiques importantes. Pour résoudre ces problèmes nous proposons le modèle Graph'Atanor qui est basé sur des graphes en niveaux.<br>Le passage au modèle de graphes pose le problème de sa représentation visuelle. Les tracés doivent rester lisibles et compréhensibles par les utilisateurs. Ceci se traduit notamment par le respect de critères esthétiques qui permettent de modéliser un problème d'optimisation combinatoire consistant à trouver un ordre optimal des sommets dans chaque niveau. Pour résoudre ce problème, nous avons développé un algorithme génétique qui possède deux particularités : deux opérateurs de croisements spécifiques et une hybridation par une recherche locale. Les expérimentations montrent que pour des graphes de taille standard, l'algorithme génétique donne de meilleurs résultats que les autres méthodes que nous connaissons. La comparaison des modèles de représentation des connaissances sur un exemple industriel montre qu'en plus de faciliter la lecture, Graph'Atanor permet de facilement suivre la trace des utilisateurs et de mettre en avant les sommets critiques.
|
16 |
Capitalisation des processu de décision dans les projets d'innovation: Application à l'automobileLongueville, Barthélémy 17 December 2003 (has links) (PDF)
Ce travail de thèse s'intéresse à l'étude des processus de conception de produits dans le cadre de projets d'innovation. L'approche proposée se focalise sur les connaissances associées aux processus de décision, identifiées comme critiques dans ces projets.<br />Les contributions de ce travail de recherche sont centrées sur la compréhension des mécanismes de décision et le support à leur bon déroulement. En premier lieu, un modèle de processus de décision, appelé INDIGO est proposé. Il a pour objectif de représenter l'ensemble des informations associées aux processus de décision, regroupées en un modèle unique, multi-vues. Il s'agit de la vue structure de la décision (les éléments d'information de l'espace de décision), de la vue processus de décision (les activités de décision), de la vue organisation de la décision (les acteurs impliqués dans la décision). Un Système de Gestion des Connaissances, appelé MEYDIAM est ensuite proposé. Il est fondé sur la proposition d'une nouvelle approche de Gestion des Connaissances. Il permet la création et la réutilisation de connaissances liées à la décision par l'utilisation d'informations structurées par le modèle INDIGO. MEYDIAM est principalement constitué dune mémoire de projet. Cet outil, au moyen d'interfaces appelées objets de connaissances, permet de capturer, au fil de l'eau les informations associées aux processus de décision et de les<br />réutiliser. Les contributions ont été validées via une maquette informatique testée dans le cadre des projets d'innovation du groupe PSA PEUGEOT CITROËN.
|
17 |
L'HYPERTEXTE COMME MODE D'EXPLOITATION DES RESULTATS D'OUTILS ET METHODES D'ANALYSE DE L'INFORMATION SCIENTIFIQUE ET TECHNIQUEGrivel, Luc 10 January 2001 (has links) (PDF)
L'analyse de l'Information Scientifique et Technique (IST) stockée dans les bases de données bibliographiques requiert l'exploitation coordonnée de différentes techniques. Deux méthodes permettant de classer et représenter sur une carte thématique un ensemble de documents en se basant sur les mots-clés qui les indexent sont étudiées en profondeur. Ces études montrent que l'analyse et l'interprétation des résultats obtenus par de tels outils supposent un mélange d'exploration informelle intuitive et d'exploitation méthodique de l'information élaborée par ces outils d'analyse. En partant d'une métaphore, la navigation dans un océan d'informations, il est établi la nécessité de construire automatiquement des hypertextes à partir des données à analyser, en leur incorporant une carte de navigation et des indicateurs de positionnement thématique. L'exploration de cette voie débouche sur la conception et le développement d'un système informatique basé sur SGML (Standard Generalized MarkUp Language), HENOCH, qui permet de rassembler et d'organiser dans un SGBD (Système de Gestion de Bases de Données) des données bibliographiques normalisées et traitées par diverses techniques (linguistiques, classificatoires, cartographiques), puis de distribuer ces informations sur INTERNET via une interface de navigation générée automatiquement et adaptée à l'analyse de l'information. Il est montré expérimentalement que le couplage d'un hypertexte et d'un SGBD permet de modéliser et de mettre en place concrètement des mécanismes d'exploration de différentes représentations de l'information qui assistent l'utilisateur dans son interprétation des résultats des méthodes d'analyse. Les hypertextes générés par ce système sont évalué positivement par les utilisateurs de l'INIST-CNRS, où s'est effectué cette recherche. Ils en ont apprécié notamment l'ergonomie de navigation. Ses points faibles se situent au niveau du suivi des évolutions thématiques d'un corpus dans le temps. En guise de conclusion, quelques pistes d'améliorations sont ébauchées.
|
18 |
Du principe de rendement à l'émancipation individuelle, l'équité sociale et la soutenabilité écologique dans la recherche en Systèmes d'InformationVitari, Claudio 23 January 2012 (has links) (PDF)
Du principe de rendement à l'émancipation individuelle, l'équité sociale et la soutenabilité écologique dans la recherche en Systèmes d'Information résume les programmes de recherche et les voies de recherche envisagées. Les programmes de recherche couvrent : le développement des systèmes d'information (SI), la gestion des connaissances et les systèmes de gestion de connaissance, les capacités dynamiques (dynamic capabilities) pour les TIC, et des antécédents de ces capacités dynamiques. Les voies de recherche envisagées touchent : La responsabilité sociale de l'entreprise (RSE) à travers les capacités dynamiques pour les TIC : Green IS dynamic capability. Le rapport bivalent entre TIC et culture : les différentes cultures influencent l'adoption des TIC. l'adoption des TIC peut stimuler de nouvelles cultures.
|
19 |
Formalisation et gestion des connaissances dans la modélisation du comportement des incendies de forêtNapoli, Aldo 13 December 2001 (has links) (PDF)
Nous proposons de traiter dans cette thèse, une partie du vaste domaine de la recherche dans le domaine des incendies de forêt. Nous nous intéressons plus particulièrement à la formalisation des connaissances (structuration des connaissances et de leurs interrelations) pour l'analyse du comportement des feux de forêt et plus précisément pour la modélisation de la vitesse de propagation d'un front de flammes. Le système incendie de forêt, de par sa complexité, doit être appréhendé par une démarche modélisatrice du phénomène (expérimentation, modélisation et validation). Nous proposons dans cette thèse, par la formalisation du corpus de connaissances issues d'expérimentations en milieu naturel, d'apporter une aide à la modélisation du comportement des incendies de forêt. Un prototype de système de gestion des connaissances est élaboré afin d'assister les scientifiques chargés de conduire des expérimentations en milieu naturel. Ce système de gestion des connaissances étant partie intégrante des outils informatiques à mettre en œuvre dans une zone atelier, nous nous permettrons d'imaginer ce que pourrait être une zone atelier pour la modélisation du comportement des incendies de forêt en France. La première partie de la thèse a pour objet de présenter le système incendie de forêt, la démarche de modélisation pour l'analyser ainsi que le recours à la démarche de formalisation de connaissance pour assister le modélisateur. La deuxième partie présente l'acquisition des connaissances dans le domaine de l'expérimentation en milieu naturel pour l'étude du comportement d'un incendie de forêt et leur formalisation à l'aide du langage de modélisation UML. La troisième partie présente, un prototype d'un système de gestion des connaissances issues d'expérimentations en milieu naturel : MODELLIS (MODELLed-Information System). Nous voyons comment celui-ci pourrait être intégré à ce que pourrait être une zone atelier pour l'étude du comportement des incendies de forêt dans le Sud de la France.
|
20 |
Contribution à la conception, la réalisation et l'utilisation du système de bases de données Somine : gestion des mémoires, enseignement assisté par ordinateurGaillard, Marcel 26 January 1976 (has links) (PDF)
Les rencontres avec Monsieur* VIELLEDENT, Directeur de l'Ecole* Supérieure des Mines de Saint-Etienne, très intéressé par Les problèmes pédagogiques et avec Monsieur MAHL, Directeur du département informatique de cette école, ont contribué à définir les buts de notre recherche* : implémenter un système de banques de données accessibles à des utilisateurs "étudiants" (aide à l'enseignement) "ingénieurs et techniciens" (aide à la conception assistée par ordinateur) ou "gestionnaires" (aide à la gestion). Cet objectif fixé, nous avons étudié les réalisations françaises et étrangères dans ces domaines. Ainsi, une importante bibliographie a été consultée. Son analyse critique nous a conduits à préciser les grandes lignes de notre recherche. Ces éléments sont résumés dans la première partie (introduction générale) de ce mémoire qui montre comment notre travail s'est orienté suivant deux axes principaux a) La conception et l'implémentation d'un système de gestion de bases de données ( SOMINE ) b) Les recherches montrant comment ce système peut être appliqué à des domaines aussi divers que l'E.A.O., la C.A.O. ou l'optimisation de la structuration des informations.
|
Page generated in 0.0835 seconds