• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 3
  • 3
  • Tagged with
  • 36
  • 36
  • 15
  • 14
  • 9
  • 9
  • 9
  • 7
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Classification, représentation et spécialisation des processus d'affaires pour le développement de systèmes d'information

Leshob, Abderrahmane 05 1900 (has links) (PDF)
L'amélioration de la productivité et de la qualité des systèmes d'information représente une importante préoccupation en ingénierie logicielle (Fenton et Pfleeger, 1998). Dans ce contexte, la réutilisation a été reconnue comme une solution possible permettant la construction rapide et à moindre coût de logiciels de meilleure qualité (Pressman, 2005). La recherche en réutilisation de logiciel a réalisé beaucoup de progrès. Cela a permis de réutiliser des artéfacts logiciels de différents niveaux d'abstraction et de granularité tels que des librairies logicielles, des patrons de conception, des cadres d'application, voire même des composants d'affaires. Or, nous croyons que la réutilisation peut commencer encore plus tôt, à savoir au niveau des besoins d'affaires. En effet, dans la mesure où les entreprises développent des systèmes d'information pour supporter leurs processus d'affaires, on peut s'attendre à identifier des opportunités de réutilisation en amont, au niveau des processus d'affaires. Mais est-ce vraiment le cas? Il est vrai que certains processus d'affaires sont spécifiques à une industrie ou à une organisation. Cependant, la plupart sont communs à plusieurs industries et peuvent être utilisés modulo quelques modifications dans différents contextes (Mili et al., 2009). Par exemple, la plupart des processus de la chaîne de valeur (Porter, 1985) dépendent seulement du modèle d'affaires des organisations. Ces processus peuvent donc s'appliquer dans différentes industries. Dans cette thèse, nous proposons une nouvelle méthodologie et des outils pour la réutilisation et l'adaptation de processus d'affaires pour les besoin spécifiques des organisations. Nous visons une approche facile à assimiler par des analystes d'affaires. Notre approche permet la spécialisation de processus d'affaires par le passage d'un modèle générique à un modèle spécifique à l'organisation. Le processus générique est choisi à partir d'un catalogue de processus d'affaires. Ce dernier ne requiert pas d'être exhaustif car nous proposons une spécialisation dynamique. Notre méthodologie de spécification de processus d'affaires utilise une approche transformationnelle par des questions. Elle est générique, car elle se base sur des questions génériques et des transformations qui s'appliquent à des processus d'affaires de différents domaines. Nos questions, comme nos transformations sont basées sur des patrons d'affaires qui, à leur tour, sont basés sur l'ontologie d'affaires REA (Resource Event Agent) (Geerts et McCarthy, 2000). Pour valider notre approche, nous l'avons appliquée à différents processus d'affaires provenant de différents domaines. Nous avons effectué des tests pratiques pour vérifier la représentation de processus d'affaires, l'applicabilité des questions et les transformations de spécialisation. Les résultats obtenus montrent que notre approche est prometteuse. Nos travaux mettent également en lumière quelques défis à relever. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Processus d'affaires, Patron d'affaires, Ontologie d'affaires, Réutilisation, Spécialisation, Chaîne de valeur, Transformation de modèles.
2

Un modèle hybride pour le support à l'apprentissage dans les domaines procéduraux et mal définis

Fournier-Viger, Philippe 11 1900 (has links) (PDF)
Pour construire des systèmes tutoriels intelligents capables d'offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l'aide d'un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l'acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine la modélisation cognitive avec une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées lors de l'usagé du système. L'approche par la fouille de données n'offre pas la finesse de la modélisation cognitive, mais elle permet d'extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n'est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l'approche fouille de données. Des algorithmes sont présentés pour exploiter les connaissances et le modèle a été appliqué dans un domaine mal défini : l'apprentissage de la manipulation du bras robotisé Canadarm2. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Systèmes tutoriels intelligents, cognition spatiale, robotique, fouille de données
3

Explicitation et modélisation des connaissances de conduite de changement à la SNCF : vers une gestion des connaissances pré-réfléchies / Eliciting and modelling change management knowledge int he national french railways company ( SNCF) : towards the management of pre-reflective knowledge

Remillieux, Anne 07 July 2010 (has links)
Cette thèse porte sur l'externalisation des connaissances des acteurs de la conduite du changement à la SNCF en vue de leur partage explicitation, modélisation et formalisation). Notre approche a été de prendre en compte la nature non seulement "implicite", mais aussi et surtout "pré-réfléchie", des connaissances impliquées dans ce savoir-faire, ce qui nous a conduit à explorer la voie d'une "ingénierie des connaissances pré-réfléchies". Si actuellement, la gestion des connaissances préfère souvent résoudre le problème du partage du tacite par la voie de la socialisation plutôt que par celle de l'externalisation, il existe des recherches sur l'explicitation des connaissances, en particulier les techniques d’"entretien d'explicitation" (Vermersch), qui méritent d'être appliquées à ce problème. Notre recherche a suivi les phases suivantes : revue de la littérature sur la conduite du changement puis sur la gestion des connaissances et le pré-réfléchi, description du système de connaissances de conduite du changement à la SNCF, conception d'une ontologie de représentation de ces connaissances, qu’elles soient explicites, implicites ou pré-réfléchies, dans le formalisme des graphes conceptuels, réalisation d'un serveur pour le partage de ces connaissances, et enfin, explicitation et formalisation du savoir-faire d'animation de groupes de travail participatifs. D'un point de vue méthodologique, ce travail nous a permis de mettre au point une méthode de conception d'ontologie à partir de connaissances pré-réfléchies ainsi qu'une adaptation de la méthode de l'entretien d'explicitation à un contexte de gestion des connaissances. / This thesis deals with the externalization of change management knowledge in the National French Railways Company for sharing (elicitation, modelling and formalization). We have chosen to consider not only the «implicit» dimension of this know-how (which is not stated) but also its "pre-reflective" dimension (which is not immediately conscious for the subject who uses it). This approach has led us to investigate a "pre-reflective knowledge engineering". Currently, most knowledge management researchers and practitioners prefer to solve the problem of tacit sharing by socialization rather than by externalization. However there has been some research done on eliciting knowledge which could be applied to knowledge management. More precisely, we have focused on the contributions of the “explicitation interview” (Vermersch) to knowledge management problems. Our research went through the following stages: state of the art in change management, knowledge management and pre-reflective knowledge, description of the system constituted by the change management knowledge at the SNCF, design of an ontology in order to represent this explicit, implicit and pre-reflective knowledge through conceptual graphs, design and development of a server for this knowledge sharing and finally, the elicitation and formalization of the know-how which consists in leading participative working parties. Methodologically, this study has enabled us to develop on the one hand a method for building an ontology starting from pre-reflective knowledge, on the other hand an adaptation of the explicitation interview for the knowledge management domain
4

Définition et opérationnalisation d'une ontologie des processus sociaux - La coopération par engagements et suspensions

Thiault, Dominique 26 January 2018 (has links)
Les interactions sociales occupent une place de plus en plus importante dans les organisations qui doivent s'adapter à un environnement médiatisé et évolutif qui implique une agilité croissante. La plupart des modèles et des outils dont disposent aujourd'hui les organisations adressent les interactions sociales fondées sur la coordination des actions et son travail d'articulation, sans introduire la dimension sociale et en particulier la coopération qui repose sur des processus et des mécanismes sociaux insuffisamment abordés. Dans cette thèse, nous proposons un méta-modèle d'interactions sociales élaboré à partir de la formalisation d'une sociologie des interactions sociales de P. Livet et F. Nef, et la construction d'une extension aux processus et objets sociaux d'une Ontologie Appliquée des Processus et Evénements de G. Kassel / Social interactions are becoming increasingly important in organizations that have to adapt to a mediated and evolving environment that involves increasing agility. Most of the models and tools available to organizations today address social interactions based on the coordination of actions and its articulation work, without introducing the social dimension and cooperation based on social processes and mechanisms insufficiently addressed. In this thesis, we propose a meta-model of social interactions based on the formalization of a sociology of social interactions of P. Livet and F. Nef and the construction of an extension to social processes and objects an Applied Ontology of the Processes and Events of G. Kassel
5

Méthodologie pour l'analyse de la robustesse des plans de secours industriels

Karagiannis, Georgio Marios 10 December 2010 (has links) (PDF)
Ce travail de recherche vise à développer une méthode pour l'analyse de la robustesse des plans de secours industriels. Des défaillances peuvent survenir lors de la mise en œuvre de ces plans, qui peuvent entrainer à un fonctionnement en mode dégradé des dispositifs. Les approches existantes d'analyse de ces plans ne permettent pas une analyse structurée du dispositif de gestion de crise. La méthodologie proposée dans le cadre de ce travail repose sur une formalisation structuro-fonctionnelle et générique des plans de secours industriels, décrivant à la fois les fonctions et les ressources permettant la réalisation de ces fonctions. De plus, ce travail s'est accompagné de retours d'expérience à partir de 159 rapports d'accidents et de 61 exercices POI/PPI, qui ont permis d'identifier des défaillances pouvant survenir lors de la mise en œuvre des POI/PPI. Le modèle développé et les informations obtenues par le retour d'expérience permettent de structurer l'analyse des dysfonctionnements pouvant se manifester lors de la mise en œuvre des plans. Cette analyse de la robustesse est basée sur une évaluation du risque de défaillance des fonctions du plan. La probabilité de défaillance est estimée à partir des questions d'évaluation et des arbres de défaillances des ressources et des fonctions. La gravité de la défaillance de chaque fonction est déterminée en utilisant les études de dangers de l'installation, en suivant la règle des dommages maximum qu'elle peut provoquer. La criticité de défaillance de chaque fonction est ainsi obtenue, et la criticité du plan résulte de l'agrégation des criticités de ses fonctions. Cette méthodologie constitue ainsi une boite à outils qui peut être utilisée à la fois pour l'évaluation des plans existants, mais aussi pour l'élaboration du dispositif défini dans un plan de secours industriel.
6

Database Engineering Process Modelling/Modélisation des processus d'ingénierie des bases de données

Roland, Didier 15 May 2003 (has links)
One of the main current research activities in Software engineering is concerned about modelling the development process of huge softwares in order to bring some help to the engineer to design and maintain an application. In general, every design process is seen as rational application of transformation operators to one or more products (mainly specifications) in order to produce new products that satisfy to some given criteria. This modelling mainly allows a methodological guidance. Indeed, at each step of the process, the set of pertinent activities and types of products are proposed to the designer, without any other. This guidance may possibly be reinforced with some help. Furthermore, this modelling allows to document the process with its history, ie with a representation of performed actvities. This history is itself the basis of maintenance activities. Two examples : a Replay function that allows, during a modification, to do (automatically or assisted) the same activities as during the design, and Reverse Engineering that allows to recover not only some technical and functional documentation of an application, but also a plausible history of its design. The thesis aims at elaborating a general model of design processes, applying it to database engineering and implementing it in the DB-MAIN CASE tool. It will be done in four phases : 1. elaboration of a model, a method specification language and a history representation 2. evaluation of this model with the specification of classical methods and case studies 3. methodological recommandation proposals for the elaboration of design methods 4. development and integration of some methodological control functions in the DB-MAIN CASE tool; this includes an extension of the repository, the definition of the interface of the methodological functions, the development of the methodological engine and the development of an history processor (analysis, replay,...)./Un des principaux sujets de recherche actuels dans le monde de l'ingénierie logicielle concerne la modélisation des processus de développement de grosses applications afin d'apporter de l'aide aux ingénieurs pour concevoir et maintenir leurs applications. En général, un processus de conception est vu comme l'application rationnelle d'opérateurs de transformation à un ou plusieurs produits (généralement des spécifications) pour obtenir de nouveaux produits qui satisfont une série de critères donnés. Cette modélisation permet principalement une aide méthodologique: à chaque étape du processus, seul l'ensemble des outils pertinents est mis à disposition du concepteur. Ce guidage peut être renforcé par des messages d'aide. Cette aide s'étend l'enregistrement de l'historique du processus, c'est-à-dire d'une représentation des actions entreprises. Cet historique peut lui-même être à la base d'activités de maintenance. Deux exemples: une fonction qui permet de rejouer, lors d'une modification, de manière automatique ou assistée, les mêmes actions que pendant la conception, et la rétro-ingénierie qui permet de recouvrer non seulement la documentation technique et fonctionnelle d'une application, mais aussi un historique plausible de la conception originelle. La thèse s'attache à élaborer un modèle général de processus de conception, à l'appliquer au monde des bases de données et à l'implémenter dans l'AGL DB-MAIN. Cela, en 4 phases: 1. Élaboration d'un modèle, d'un langage de spécification (MDL) et d'une représentation des historiques 2. Évaluation de ce modèle avec des méthodes de spécification classiques et études de cas 3. Propositions de recommandations méthodologiques pour l'élaboration de méthodes d'ingénierie 4. Développement et intégration de fonctions de contrôle méthodologique dans l'atelier DB-MAIN; ceci inclut l'extension du référentiel, la définition de l'interface homme-machine des fonctions méthodologiques et le développement du moteur méthodologique.
7

Une structure associative bidirectionnelle d'auto-encodage permettant l'apprentissage et la catégorisation perceptuels

Giguère, Gyslain January 2009 (has links) (PDF)
Les humains sont continuellement exposés à des stimulations pour lesquelles leur système perceptivo-cognitif doit créer des représentations mnésiques. Tout en créant un code interne de composantes, ce système doit être en mesure de reconnaître, d'identifier, et de discriminer ces objets lors de prochaines occurrences. Ce processus s'effectue par la création et la mise à jour d'une mémoire épisodique d'exemplaires à dimensionnalité réduite. De plus, le système cognitif doit regrouper les objets similaires en catégories, tout en adaptant le contenu de la mémoire suite à l'ajout d'informations produit par la rencontre de nouveaux objets. Ces processus de niveau « objet » et « catégorie » s'effectuent de façon séparée, par le biais de deux mémoires. Jusqu'à maintenant, aucun modèle formel satisfaisant n'était en mesure de rendre compte de cette variété de comportements humains sans sacrifier la simplicité et l'élégance du système initial pour simuler l'un d'eux. Le modèle FEBAM (pour Feature-Extracting Bidirectional Associative Memory) a été créé dans le but de répondre à cette incapacité de beaucoup de modèles existants à effectuer des tâches cognitives et perceptuelles à l'aide d'un codage interne créé de façon autonome, comme le font les humains. Basé sur une architecture neuronale associative bidirectionnelle, FEBAM peut reproduire les comportements d'autres réseaux de neurones artificiels dont les processus dynamiques sont basés sur l'extraction de composantes, la création de bassins d'attracteurs, ou encore le partitionnement de données (« clustering »), et ce, en utilisant une seule architecture, règle de transmission et procédure d'apprentissage. Dans la présente thèse, il sera montré qu'avec un nombre minimal de principes définitoires, le modèle pourra effectuer des tâches telles que la création autonome d'un code interne de composantes, le développement autonome d'une mémoire d'exemplaires parfaits, ainsi que l'identification et la catégorisation autonomes. Il sera aussi montré, grâce à la proposition d'un mécanisme itératif de croissance de l'architecture, que les catégories créées par le réseau peuvent être réorganisées suite à la présentation de nouvelles informations perceptuelles au système. On montrera également que FEBAM préserve les capacités d'une mémoire autoassociative récurrente (dont il est inspiré), tout en améliorant certains des comportements de cette dernière. Le modèle FEBAM sera également étendu au cas supervisé. Dans ce cas, le modèle FEBAM-RA (RA pour Response Association), grâce à un module supplémentaire, associera les représentations internes des stimuli à leur identité ou à leur appartenance catégorielle prédéfinies. Cette extension se fera sans avoir à ajouter des principes définitoires: ainsi, on utilisera ici la même règle d'apprentissage, la même règle de transmission, et une généralisation de l'architecture de FEBAM. Grâce à cet ajout, le modèle sera en mesure de reproduire de façon qualitative l'effet de la pré-exposition perceptuelle sur la rapidité de l'apprentissage identificatif supervisé, ainsi que l'effet de difficulté de la tâche lorsque l'on compare l'identification et la catégorisation supervisées (dans une situation de tâches simultanées). La contribution principale de cette thèse repose donc dans la parcimonie des principes utilisés. En effet, grâce à un nombre minimal de postulats définitoires, on modélisera donc des processus de traitement d'objets et de catégories, et ce, de façon autonome ou supervisée. Ce projet de recherche constituant la première étape de développement de l'approche FEBAM, quelques améliorations à l'approche de base seront proposées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modélisation cognitive, Réseaux de neurones artificiels, Extraction de composantes, Catégorisation, Identification.
8

Utilisation de l'information privée et sociale chez un unicellulaire (Physarum polycephalum)

Vogel, David 25 November 2016 (has links)
Un des domaines clés de l’étude du comportement animal s’intéresse aux différents moyens par lesquels les individus obtiennent et utilisent l’information de leur environnement. Ces études permettent de comprendre les stimuli responsables de la modulation des réponses comportementales des organismes et d’appréhender comment des individus interagissent. L’importance écologique des organismes unicellulaires n’étant plus à prouver, une compréhension de leurs capacités à percevoir l’environnement, aussi bien biotique que abiotique, semble primordiale. Ainsi, nous avons étudié l’aptitude d’un organisme unicellulaire (Physarum polycephalum) à percevoir et utiliser l’information dans différents contextes. Cette thèse s’articule autour de cinq articles dans lesquels nous présentons nos résultats obtenus en utilisant les outils d’étude du comportement animal pour analyser et quantifier les comportements de cet organisme unicellulaire. Nous démontrons que Physarum polycephalum possède des traits comportementaux semblables aux organismes plus complexe : comme la communication, la coopération, la variabilité phénotypique et l’apprentissage. Nos résultats suggèrent l’importance de l’étude du comportement des organismes unicellulaires dans la compréhension de différents mécanismes biologiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
9

Business Process Models Quality : evaluation and improvement / La qualité des processus métier : évaluation et amélioration

Ayad, Sarah 18 December 2013 (has links)
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine. / In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements.
10

Aide au pilotage de la chaîne de prise en charge de la chimiothérapie à domicile / Management support for chemotherapy at home

Zhang, Tian 09 February 2012 (has links)
Le sujet de thèse s’intéresse à la chimiothérapie à domicile qui est l’effet combiné de l’augmentation des patients atteints du cancer et du succès de l’hospitalisation à domicile. Nous proposons à travers ce mémoire de thèse des solutions appropriées au pilotage de la chaîne de prise en charge de la chimiothérapie à domicile permettant d’évaluer et d’améliorer la performance de celle-ci. La première partie présente le contexte socio-économique de la chimiothérapie à domicile, ainsi que les contraintes réglementaires et organisationnelles pour sa mise en œuvre. La deuxième partie précise les spécificités d’une chaîne de prise en charge de la chimiothérapie à domicile et les problématiques liées à cette chaîne basée sur une revue de la littérature. La troisième partie se focalise sur la modélisation des processus de prise en charge de la chimiothérapie à domicile à partir d’un important travail de terrain. Un modèle générique de la chimiothérapie à domicile est dégagé du travail de modélisation qui constitue le fondement d’une proposition de classification des pratiques de la chimiothérapie à domicile. Un diagnostic individuel et comparatif des différentes familles d’approches sont également présentés dans cette partie. La quatrième partie présente les différentes applications développées pour évaluer et améliorer la performance de la chaîne de prise en charge de la chimiothérapie à domicile. En conclusion, cette thèse apporte une première contribution à la généralisation de la pratique de la chimiothérapie à domicile et au développement d’outils d’aide aux pilotages destinés à l’amélioration de sa réalisation / This thesis deals with chemotherapy at home which is the fruit of increasing cancer patients and successful development of home care services. We present in this thesis appropriate solutions to evaluate and improve management performance of chemotherapy at home network. The first part concerns the socioeconomic context of chemotherapy at home, as well as its legal and organizational constraints. The second part outlines specificities and related issues of chemotherapy at home based on a literature review. The third part focuses on chemotherapy at home process modeling depending on an important field work. A generic model of chemotherapy at home is abstracted, which is the basis of a chemotherapy at home practices classification that we proposed. An individual analysis and a comparative analysis of chemotherapy at home approaches are also proposed in this part. The fourth part presents different solutions that we developed to evaluate and improve the management performance of chemotherapy at home network. In conclusion, this thesis provides an initial contribution to promote chemotherapy at home practices and to develop management support tools for its implementation

Page generated in 0.1551 seconds