• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 63
  • 9
  • Tagged with
  • 169
  • 89
  • 34
  • 34
  • 27
  • 26
  • 25
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Proposition d'une mesure de voisinage entre textes : Application à la veille stratégique

Casagrande, Annette 03 July 2012 (has links) (PDF)
La veille anticipative stratégique et intelligence collective (VASIC) proposée par Lesca est une méthode aidant les entreprises à se mettre à l'écoute de leur environnement pour anticiper des opportunités ou des risques. Cette méthode nécessite la collecte d'informations. Or, avec le développement des technologies de l'information, les salariés font face à une surabondance d'informations. Afin d'aider à pérenniser le dispositif de veille stratégique, il est nécessaire de mettre en place des outils pour gérer la surinformation. Dans cette thèse, nous proposons une mesure de voisinage pour estimer si deux informations sont proches ; nous avons créé un prototype, nommé Alhena, basé sur cette mesure. Nous démontrons les propriétés de notre mesure ainsi que sa pertinence dans le cadre de la veille stratégique. Nous montrons également que le prototype peut servir dans d'autres domaines tels que la littérature, l'informatique et la psychologie. Ce travail est pluridisciplinaire : il aborde des aspects de veille stratégique (en sciences de gestion), de la recherche d'informations, d'informatique linguistique et de mathématiques. Nous nous sommes attachés à partir d'un problème concret en sciences de gestion à proposer un outil qui opérationnalise des techniques informatiques et mathématiques en vue d'une aide à la décision (gain de temps, aide à la lecture,...).
32

Une mesure d'inclusion entre objets structurés. Application à la classification de molécules.

Wieczorek, Samuel 07 July 2009 (has links) (PDF)
L'identification de molécules bio-actives est un problème majeur pour la recherche thérapeutique et la recherche en biologie. La découverte de ces molécules repose largement sur le criblage de très grandes collections de molécules mais qui restent petites devant la taille de l'espace chimique. Dans ce contexte, les scientifiques sont demandeurs d'outils d'analyse automatique de chimiothèques et de molécules.<br />L'objectif de cette thèse est de fournir un outil de comparaison des molécules et plus généralement d'objets structurés. Nous proposons dans ce travail un algorithme générique qui identifie plusieurs sous-structures communes à entre deux objets, représentés par des graphes ou des formules logiques et évalue un degré d'inclusion entre ces objets.<br /><br />Ce degré d'inclusion correspond à un test de subsomption à valeur réelle entre formules logiques qui pourrait compléter le test de theta-subsomption classique dans les algorithmes d'apprentissage relationnel. Dans le domaine de la chimie, une mesure de similarité moléculaire a été définie à partir de deux degrés d'inclusion pour classer des molécules. L'algorithme se révèle être plus performant que les mesures de similarité et fonctions noyau auxquelles il a été comparé. Il pourra être envisagé de l'utiliser dans des problèmes de prédiction de bio-activité.
33

Mesures de similarité pour cartes généralisées

Combier, Camille 28 November 2012 (has links) (PDF)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.
34

Similarity-based recommendation of OLAP sessions / Recommandation de sessions OLAP, basé sur des mesures de similarités

Aligon, Julien 13 December 2013 (has links)
L’OLAP (On-Line Analytical Processing) est le paradigme principal pour accéder aux données multidimensionnelles dans les entrepôts de données. Pour obtenir une haute expressivité d’interrogation, malgré un petit effort de formulation de la requête, OLAP fournit un ensemble d’opérations (comme drill-down et slice-and-dice ) qui transforment une requête multidimensionnelle en une autre, de sorte que les requêtes OLAP sont normalement formulées sous la forme de séquences appelées Sessions OLAP. Lors d’une session OLAP l’utilisateur analyse les résultats d’une requête et, selon les données spécifiques qu’il voit, applique une seule opération afin de créer une nouvelle requête qui lui donnera une meilleure compréhension de l’information. Les séquences de requêtes qui en résultent sont fortement liées à l’utilisateur courant, le phénomène analysé, et les données. Alors qu’il est universellement reconnu que les outils OLAP ont un rôle clé dans l’exploration souple et efficace des cubes multidimensionnels dans les entrepôts de données, il est aussi communément admis que le nombre important d’agrégations et sélections possibles, qui peuvent être exploités sur des données, peut désorienter l’expérience utilisateur. / OLAP (On-Line Analytical Processing) is the main paradigm for accessing multidimensional data in data warehouses. To obtain high querying expressiveness despite a small query formulation effort, OLAP provides a set of operations (such as drill-down and slice-and-dice) that transform one multidimensional query into another, so that OLAP queries are normally formulated in the form of sequences called OLAP sessions. During an OLAP session the user analyzes the results of a query and, depending on the specific data she sees, applies one operation to determine a new query that will give her a better understanding of information. The resulting sequences of queries are strongly related to the issuing user, to the analyzed phenomenon, and to the current data. While it is universally recognized that OLAP tools have a key role in supporting flexible and effective exploration of multidimensional cubes in data warehouses, it is also commonly agreed that the huge number of possible aggregations and selections that can be operated on data may make the user experience disorientating.
35

Proposition d'une mesure de voisinage entre textes : Application à la veille stratégique / Proposal of nearness measurement between texts : Application for business environmental scanning

Casagrande, Annette 03 July 2012 (has links)
La veille anticipative stratégique et intelligence collective (VASIC) proposée par Lesca est une méthode aidant les entreprises à se mettre à l'écoute de leur environnement pour anticiper des opportunités ou des risques. Cette méthode nécessite la collecte d'informations. Or, avec le développement des technologies de l'information, les salariés font face à une surabondance d'informations. Afin d'aider à pérenniser le dispositif de veille stratégique, il est nécessaire de mettre en place des outils pour gérer la surinformation. Dans cette thèse, nous proposons une mesure de voisinage pour estimer si deux informations sont proches ; nous avons créé un prototype, nommé Alhena, basé sur cette mesure. Nous démontrons les propriétés de notre mesure ainsi que sa pertinence dans le cadre de la veille stratégique. Nous montrons également que le prototype peut servir dans d'autres domaines tels que la littérature, l'informatique et la psychologie. Ce travail est pluridisciplinaire : il aborde des aspects de veille stratégique (en sciences de gestion), de la recherche d'informations, d'informatique linguistique et de mathématiques. Nous nous sommes attachés à partir d'un problème concret en sciences de gestion à proposer un outil qui opérationnalise des techniques informatiques et mathématiques en vue d'une aide à la décision (gain de temps, aide à la lecture,...). / Business environmental scanning and collective intelligence (VASIC) as proposed by Lesca is a method to help companies tune in to their environment to anticipate opportunities or risks. This method requires collecting information, yet with the development of information technology, employees face a glut of information. To help sustain VASIC, it is necessary to develop tools to manage information overload. In this thesis, we propose a nearness measurement to estimate if two pieces of information are similar and we have created a prototype, called Alhena, based on this measurement. We demonstrate the properties of our measurement and its relevance in the context of VASIC. We also show that the prototype can be used in other fields such as literature, computer science and psychology. This work is multidisciplinary as it covers aspects of business environmental scanning (management science), research information, computer linguistics and mathematics. We focus on a concrete problem in management science to provide a tool that operationalizes computational and mathematical techniques with a goal of providing decision making support (time saving, reading assistance, ...).
36

How participating in a new culture facilitates the integration of the new identity : the additive and subtractive processes

Cárdenas, Diana 10 1900 (has links)
No description available.
37

Apprentissage de co-similarités pour la classification automatique de données monovues et multivues / Clustering of monoview and multiview data via co-similarity learning

Grimal, Clément 11 October 2012 (has links)
L'apprentissage automatique consiste à concevoir des programmes informatiques capables d'apprendre à partir de leurs environnement, ou bien à partir de données. Il existe différents types d'apprentissage, selon que l'on cherche à faire apprendre au programme, et également selon le cadre dans lequel il doit apprendre, ce qui constitue différentes tâches. Les mesures de similarité jouent un rôle prépondérant dans la plupart de ces tâches, c'est pourquoi les travaux de cette thèse se concentrent sur leur étude. Plus particulièrement, nous nous intéressons à la classification de données, qui est une tâche d'apprentissage dit non supervisé, dans lequel le programme doit organiser un ensemble d'objets en plusieurs classes distinctes, de façon à regrouper les objets similaires ensemble. Dans de nombreuses applications, ces objets (des documents par exemple) sont décrits à l'aide de leurs liens à d'autres types d'objets (des mots par exemple), qui peuvent eux-même être classifiés. On parle alors de co-classification, et nous étudions et proposons dans cette thèse des améliorations de l'algorithme de calcul de co-similarités XSim. Nous montrons que ces améliorations permettent d'obtenir de meilleurs résultats que les méthodes de l'état de l'art. De plus, il est fréquent que ces objets soient liés à plus d'un autre type d'objets, les données qui décrivent ces multiples relations entre différents types d'objets sont dites multivues. Les méthodes classiques ne sont généralement pas capables de prendre en compte toutes les informations contenues dans ces données. C'est pourquoi nous présentons dans cette thèse l'algorithme de calcul multivue de similarités MVSim, qui peut être vu comme une extension aux données multivues de l'algorithme XSim. Nous montrons que cette méthode obtient de meilleures performances que les méthodes multivues de l'état de l'art, ainsi que les méthodes monovues, validant ainsi l'apport de l'aspect multivue. Finalement, nous proposons également d'utiliser l'algorithme MVSim pour classifier des données classiques monovues de grandes tailles, en les découpant en différents ensembles. Nous montrons que cette approche permet de gagner en temps de calcul ainsi qu'en taille mémoire nécessaire, tout en dégradant relativement peu la classification par rapport à une approche directe sans découpage. / Machine learning consists in conceiving computer programs capable of learning from their environment, or from data. Different kind of learning exist, depending on what the program is learning, or in which context it learns, which naturally forms different tasks. Similarity measures play a predominant role in most of these tasks, which is the reason why this thesis focus on their study. More specifically, we are focusing on data clustering, a so called non supervised learning task, in which the goal of the program is to organize a set of objects into several clusters, in such a way that similar objects are grouped together. In many applications, these objects (documents for instance) are described by their links to other types of objects (words for instance), that can be clustered as well. This case is referred to as co-clustering, and in this thesis we study and improve the co-similarity algorithm XSim. We demonstrate that these improvements enable the algorithm to outperform the state of the art methods. Additionally, it is frequent that these objects are linked to more than one other type of objects, the data that describe these multiple relations between these various types of objects are called multiview. Classical methods are generally not able to consider and use all the information contained in these data. For this reason, we present in this thesis a new multiview similarity algorithm called MVSim, that can be considered as a multiview extension of the XSim algorithm. We demonstrate that this method outperforms state of the art multiview methods, as well as classical approaches, thus validating the interest of the multiview aspect. Finally, we also describe how to use the MVSim algorithm to cluster large-scale single-view data, by first splitting it in multiple subsets. We demonstrate that this approach allows to significantly reduce the running time and the memory footprint of the method, while slightly lowering the quality of the obtained clustering compared to a straightforward approach with no splitting.
38

Étude de la symbiose dans le plancton marin par une approche transcriptome et méta-transcriptome / Study of symbiosis in marine plankton by a transcriptome and meta-transcriptome approach

Meng, Arnaud 15 December 2017 (has links)
Les relations symbiotiques entre organismes sont essentielles pour l’évolution de la bio- diversité et le fonctionnement des écosystèmes. En milieu terrestre ou en milieu marin benthique les symbioses sont assez bien décrites. Si dans le plancton marin, les relations entre hôtes hétérotrophes et symbiontes photosynthétiques sont des phénomènes observés dès le 19ème siècle, les mécanismes fonctionnels qui régissent ces symbioses restent largement inconnus. C’est le cas de la symbiose entre certaines espèces de radiolaires et leurs symbiontes dinoflagellés. Il s’agit d’un modèle symbiotique, composé de deux unicellulaires eucaryotes, sur lequel je me suis concentré au cours de cette thèse. Ces deux organismes sont connus pour être largement répandus dans les océans et pour leur importance au sein des écosystèmes marins, et il est donc important de mieux caractériser ces symbioses afin d’approfondir nos connaissances de ces organismes. Grâce aux technologies de séquençage haut-débit il est désormais possible d’obtenir, pour ces organismes non cultivables mais isolés depuis l’environnement, une quantité sans précédent d’information génomique. Ces approches représentent une opportunité de décrypter les mécanismes à l’oeuvre dans ces interactions symbiotiques. Mon travail de thèse a combiné la création d’outils bioinformatiques dédiés à l’analyse de données de transcriptomique des holobiontes de radiolaires et dinoflagellés et l’étude de ce modèle de symbiose. Ce travail de doctorat contribue à une meilleure compréhension des mécanismes d’adaptation fonctionnelle et évolutive des organismes photosymbiotiques marins. / Symbiotic associations between organisms are essentials in biodiversity evolution and ecosystems functioning. In terrestrial environments or in the benthic marine environment, the symbioses encountered are fairly well described and studied. In the marine plankton, photosymbioses are phenomena described and observed since the 19th century. However, if the actors of these associations begin to be identified, the fundamental functional mechanisms for the establishment and the maintenance of these symbioses remain largely unknown. This is particularly true for the symbiotic association between symbiotic radiolarians and their dinoflagellate photosymbionts, two unicellular eucaryotes, which I was interested in during this thesis. These two organisms are known to be widespread in the oceans and for their key role in marine ecosystems, and it is therefore important to characterize these symbiotic events in order to deepen our knowledge of these organisms. Thanks to high-throughput sequencing technologies it is now possible to obtain an unprecedented amount of data for these unicellular organisms that are not cultivable and need to be directly isolated from the environment. These new technologies represent a unique opportunity to better characterized the mechanisms involved in these intimate cellular interactions. My Ph.D. work has combined the implementation of bioinformatics protocols and tools dedicated to the assembly and analysis of RNA-seq data as well as to the study of holobiont transcriptomes of radiolarians and dinoflagellates. This thesis contributes to a better understanding of the mechanisms of functional and evolutionary adaptation of marine photosymbiotic organisms.
39

Knowledge-based Semantic Measures : From Theory to Applications / Mesures sémantiques à base de connaissance : de la théorie aux applicatifs

Harispe, Sébastien 25 April 2014 (has links)
Les notions de proximité, de distance et de similarité sémantiques sont depuis longtemps jugées essentielles dans l'élaboration de nombreux processus cognitifs et revêtent donc un intérêt majeur pour les communautés intéressées au développement d'intelligences artificielles. Cette thèse s'intéresse aux différentes mesures sémantiques permettant de comparer des unités lexicales, des concepts ou des instances par l'analyse de corpus de textes ou de représentations de connaissance (e.g. ontologies). Encouragées par l'essor des technologies liées à l'Ingénierie des Connaissances et au Web sémantique, ces mesures suscitent de plus en plus d'intérêt à la fois dans le monde académique et industriel. Ce manuscrit débute par un vaste état de l'art qui met en regard des travaux publiés dans différentes communautés et souligne l'aspect interdisciplinaire et la diversité des recherches actuelles dans ce domaine. Cela nous a permis, sous l'apparente hétérogénéité des mesures existantes, de distinguer certaines propriétés communes et de présenter une classification générale des approches proposées. Par la suite, ces travaux se concentrent sur les mesures qui s'appuient sur une structuration de la connaissance sous forme de graphes sémantiques, e.g. graphes RDF(S). Nous montrons que ces mesures reposent sur un ensemble réduit de primitives abstraites, et que la plupart d'entre elles, bien que définies indépendamment dans la littérature, ne sont que des expressions particulières de mesures paramétriques génériques. Ce résultat nous a conduits à définir un cadre théorique unificateur pour les mesures sémantiques. Il permet notamment : (i) d'exprimer de nouvelles mesures, (ii) d'étudier les propriétés théoriques des mesures et (iii) d'orienter l'utilisateur dans le choix d'une mesure adaptée à sa problématique. Les premiers cas concrets d'utilisation de ce cadre démontrent son intérêt en soulignant notamment qu'il permet l'analyse théorique et empirique des mesures avec un degré de détail particulièrement fin, jamais atteint jusque-là. Plus généralement, ce cadre théorique permet de poser un regard neuf sur ce domaine et ouvre de nombreuses perspectives prometteuses pour l'analyse des mesures sémantiques. Le domaine des mesures sémantiques souffre d'un réel manque d'outils logiciels génériques et performants ce qui complique à la fois l'étude et l'utilisation de ces mesures. En réponse à ce manque, nous avons développé la Semantic Measures Library (SML), une librairie logicielle dédiée au calcul et à l'analyse des mesures sémantiques. Elle permet d'utiliser des centaines de mesures issues à la fois de la littérature et des fonctions paramétriques étudiées dans le cadre unificateur introduit. Celles-ci peuvent être analysées et comparées à l'aide des différentes fonctionnalités proposées par la librairie. La SML s'accompagne d'une large documentation, d'outils logiciels permettant son utilisation par des non informaticiens, d'une liste de diffusion, et de façon plus large, se propose de fédérer les différentes communautés du domaine afin de créer une synergie interdisciplinaire autour la notion de mesures sémantiques : http://www.semantic-measures-library.org Cette étude a également conduit à différentes contributions algorithmiques et théoriques, dont (i) la définition d'une méthode innovante pour la comparaison d'instances définies dans un graphe sémantique – nous montrons son intérêt pour la mise en place de système de recommandation à base de contenu, (ii) une nouvelle approche pour comparer des concepts représentés dans des taxonomies chevauchantes, (iii) des optimisations algorithmiques pour le calcul de certaines mesures sémantiques, et (iv) une technique d'apprentissage semi-supervisée permettant de cibler les mesures sémantiques adaptées à un contexte applicatif particulier en prenant en compte l'incertitude associée au jeu de test utilisé. Travaux validés par plusieurs publications et communications nationales et internationales. / The notions of semantic proximity, distance, and similarity have long been considered essential for the elaboration of numerous cognitive processes, and are therefore of major importance for the communities involved in the development of artificial intelligence. This thesis studies the diversity of semantic measures which can be used to compare lexical entities, concepts and instances by analysing corpora of texts and knowledge representations (e.g., ontologies). Strengthened by the development of Knowledge Engineering and Semantic Web technologies, these measures are arousing increasing interest in both academic and industrial fields.This manuscript begins with an extensive state-of-the-art which presents numerous contributions proposed by several communities, and underlines the diversity and interdisciplinary nature of this domain. Thanks to this work, despite the apparent heterogeneity of semantic measures, we were able to distinguish common properties and therefore propose a general classification of existing approaches. Our work goes on to look more specifically at measures which take advantage of knowledge representations expressed by means of semantic graphs, e.g. RDF(S) graphs. We show that these measures rely on a reduced set of abstract primitives and that, even if they have generally been defined independently in the literature, most of them are only specific expressions of generic parametrised measures. This result leads us to the definition of a unifying theoretical framework for semantic measures, which can be used to: (i) design new measures, (ii) study theoretical properties of measures, (iii) guide end-users in the selection of measures adapted to their usage context. The relevance of this framework is demonstrated in its first practical applications which show, for instance, how it can be used to perform theoretical and empirical analyses of measures with a previously unattained level of detail. Interestingly, this framework provides a new insight into semantic measures and opens interesting perspectives for their analysis.Having uncovered a flagrant lack of generic and efficient software solutions dedicated to (knowledge-based) semantic measures, a lack which clearly hampers both the use and analysis of semantic measures, we consequently developed the Semantic Measures Library (SML): a generic software library dedicated to the computation and analysis of semantic measures. The SML can be used to take advantage of hundreds of measures defined in the literature or those derived from the parametrised functions introduced by the proposed unifying framework. These measures can be analysed and compared using the functionalities provided by the library. The SML is accompanied by extensive documentation, community support and software solutions which enable non-developers to take full advantage of the library. In broader terms, this project proposes to federate the several communities involved in this domain in order to create an interdisciplinary synergy around the notion of semantic measures: http://www.semantic-measures-library.org This thesis also presents several algorithmic and theoretical contributions related to semantic measures: (i) an innovative method for the comparison of instances defined in a semantic graph – we underline in particular its benefits in the definition of content-based recommendation systems, (ii) a new approach to compare concepts defined in overlapping taxonomies, (iii) algorithmic optimisation for the computation of a specific type of semantic measure, and (iv) a semi-supervised learning-technique which can be used to identify semantic measures adapted to a specific usage context, while simultaneously taking into account the uncertainty associated to the benchmark in use. These contributions have been validated by several international and national publications.
40

Amélioration de la maîtrise des risques dans les projets par l'utilisation des mécanismes de retour d'expérience / Improving risk management in projects using lesson learning mechanisms

Manotas Niño, Vanessa Patricia 26 September 2017 (has links)
Pour améliorer l’analyse des risques dans les projets et renforcer son efficacité, les gestionnaires de projet devraient réutiliser les expériences et les bonnes pratiques acquises au cours de projets antérieurs. Le retour d’expérience constitue une source de connaissances importante pour réduire les niveaux d’incertitude et donc les risques dans les projets. Les méthodologies de retour d’expériences sont ainsi devenues réellement reconnues dans de nombreuses entreprises. Toutefois, ces entreprises se sont souvent contentées de recueillir des informations en fin de projet en pensant que cela suffirait à générer les connaissances nécessaires pour améliorer leur performance. Malheureusement, la capitalisation de ces expériences est traditionnellement une étape statique à la clôture du projet qui permet simplement la capture de quelques événements mémorisés par les experts impliqués. En outre, l’information capitalisée est difficile à réutiliser directement dans une nouvelle analyse des risques. Nos efforts se sont concentrés sur l’élaboration d’une méthode ayant pour but d’améliorer le processus de gestion des risques dans les projets en utilisant un système de retour d’expérience et, ainsi, de contribuer à une logique d’amélioration continue. La méthode envisagée est basée sur un système d’exploitation des connaissances qui permet de développer des compétences clés comme : la résolution des problèmes, la capacité à prendre des décisions collectivement, la réflexion, l’apprentissage et la capacité prospective (envisager). Le modèle proposé est défini sur la base de l’étude de la contribution de trois domaines centraux : le Management de Projets, le Management des Risques et le retour d’expérience. La singularité de nos travaux réside dans le fait d’intégrer explicitement un mécanisme de retour d’expérience en continu afin d’améliorer la performance des processus de gestion des risques dans les projets. Nous proposons de mettre en oeuvre une démarche de modélisation des connaissances orientée retour d’expérience. Nous définissons un modèle permettant de caractériser les projets, les risques et les expériences en vue du repérage, de la capitalisation et de l’exploitation des connaissances. La modélisation de ces éléments permet également de disposer d’une structuration facilitant une lecture plus rapide du projet ou de ses processus. Nous avons donc développé un modèle qui permet de représenter les éléments clé utilisés lors du processus de management des risques et ainsi de faciliter la capitalisation les expériences et la recherche des expériences antérieures similaires. Cela permet ensuite de standardiser et d’améliorer la démarche de management des risques. Du point de vue de la recherche des expériences antérieures, nous définissons : D’une part, un algorithme de recherche des expériences similaires fondé sur les comparaisons entre des graphes étiquetés orientés. Cela consiste en l’établissement d’une correspondance entre deux graphes (le graphe 1 étant le contexte du projet actuel et le graphe 2 le contexte d’un projet passé enregistré sous forme d’expérience) par une factorisation par paire de la matrice d’affinité qui découple la structure des noeuds et des arcs similaires (Zhou et De la Torre, 2012). D’autre part, un algorithme pour trouver la correspondance optimale entre ces graphes, de sorte que la somme de la compatibilité des noeuds et des arcs soit maximisée. Pour ce faire, nous avons utilisé un algorithme génétique. Enfin, nous proposons une démarche d’exploitation des expériences passées similaires. De cette manière nous pouvons obtenir un ensemble de risques associés à ces objets similaires afin d’alimenter le système d’aide à la décision dans la gestion du projet. / In order to improve Project Risk Management and to reinforce its effectiveness, the managers of the project should reuse the experiences and the good practices acquired in previous projects. The Experience Management constitutes an important source of knowledge to reduce the levels of uncertainty and thus the risks in the projects. The methodologies for Experience Management have thus become truly recognized in many companies. However, these companies were often satisfied to collect information at the end of the project by thinking that would be enough to generate knowledge necessary to improve their performance. Unfortunately, the capitalization of these experiments is traditionally a static stage at the close of the project, which simply allows the capture of some events memorized by the implied experts. Moreover, capitalized information is difficult to reuse directly in a new-risk analysis. Our efforts focused on developing a methodology to improve the Risk Management Process in Projects using an Experience Management System and thus contribute to the logic of continuous improvement. The proposed approach is based on a knowledge-based system that enables the development of key competencies such as problem solving, collective decision-making, reflection, learning and prospective capacity. The proposed model is based on the study of the contribution of three central fields: Projects Management, Risks Management and the Experience Management. The singularity of our work lies in the fact of integrating a mechanism back from experiment explicitly uninterrupted in order to improve the performance of the processes of risk management in the projects. We propose to implement a knowledge-based modeling approach based on Experience management. We define a model to characterize projects, risks and experiences for the identification, capitalization and exploitation of knowledge. The modeling of these elements also makes it possible to have a structuring facilitating a faster reading of the project or its processes. Therefore, we have developed a model which allows us to represent the key elements used during the risk management process and thus to facilitate the capitalization of the experiments and the research of previous similar experiences. That then makes it possible to standardize and improve the risk management approach. From the point of view of the search for previous experiences, we define: On the one hand, an algorithm of research of similar experiments founded on the comparisons between directed labeled graphs. That consists of the establishment of a correspondence between two graphs (graph 1 being context of the current project and graph 2 context of the last project recorded in the form of experiment) by a pairwise factorization of the affinity matrix, which decouples the structure of nodes and similar arcs (Zhou and Of Torre, 2012). On the other hand, an algorithm to find the optimal correspondence between these graphs, so that the sum of the compatibility of the nodes and the arcs is maximized. With this intention, we used a genetic algorithm. Lastly, we propose an approach of exploitation of similar last experiences. In this manner, we can obtain a set of risks associated with these similar objects in order to feed the assistance system with the decision in the management of the project.

Page generated in 0.0475 seconds