• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 14
  • 5
  • Tagged with
  • 64
  • 39
  • 29
  • 29
  • 19
  • 18
  • 17
  • 13
  • 12
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Le modèle trifocal : une approche communicationnelle des interfaces numériques : Contributions à la conception d'interfaces accessibles / The trifocal model : a communicative approach to digital interfaces : contributions to accessible interface design

Laitano, María Inés 13 October 2015 (has links)
: Objet d'étude pour plusieurs disciplines, l'interface numérique se présente comme un objet hétérogène : un dialogue humain-ordinateur, le reflet d’un modèle mental, un instrument, un ensemble de signes sémiotiques… Toutes ces dimensions, traitées individuellement par les approches disciplinaires, n’ont jamais été rassemblées dans un cadre paradigmatique commun. Cette thèse soutient que l’interface, en tant qu’objet d’étude complexe, doit être abordée dans un cadre capable de traiter cette complexité. Elle propose de le faire par la systémique communicationnelle et de poser la réflexion, non pas en termes d’attributs de qualité de l’interface (utilisabilité, communicabilité, convivialité…), mais en termes de significations. Cela implique de centrer le modèle sur l’humain et fournit une vision intégrée, non parcellisée, de l’interface permettant de concevoir de nouvelles interfaces, de les implémenter dans des contextes et des modalités sensorielles diverses.Le modèle trifocal est ainsi une approche systémique de la communication via l’interface. Il étudie les rapports de l’usager à la machine, à l’objet de son activité et au concepteur, ainsi que les propriétés émergentes de ce système. Le modèle trifocal fournit une description de l’interface transposable d'une modalité à une autre. Il permet, d’une part, l’étude de la signification d’interfaces non visuelles et, d’autre part, la traduction d’interfaces d’une modalité dans une autre. Le modèle trifocal jette un regard nouveau sur la conception d’interfaces accessibles puisqu’il complète les méthodes existantes avec des nouvelles dimensions d’analyse. / Object of study for several disciplines, digital interfaces appear as a heterogeneous object: a human-computer dialogue, a reflection of a mental model, an instrument, a set of semiotic signs ... All these dimensions, addressed individually by disciplinary approaches, have never been gathered in a common paradigmatic framework. This thesis argues that interfaces, as a complex object of study, must be addressed in a framework capable of dealing with this complexity. It proposes to do so by the Systemic Communication Theory and to think about not in terms of interface quality attributes (usability, communicability, conviviality...) but in terms of meanings. This implies a human-centered model and provides an integrated point of view enabling the design of new interfaces as well as their implementation in numerous contexts and sensory modalities.The trifocal model is thus a systemic approach to communication via the interface. It studies the relationships between user and machine, between user and object of his activity and between user and designer, as well as emergent properties of the system. The trifocal model provides an interface description transposable from one modality to another. It allows, on one hand, to study the meaning of non-visual interfaces and, on the other, to translate interfaces from one modality to another. The trifocal model takes a fresh look on designing accessible interfaces since it complements existing methods with new analytical dimensions.
22

Recherche d'information sociale : exploitation des signaux sociaux pour améliorer la recherche d'information / Social information retrieval : harnessing social signals to enhance a search

Badache, Ismail 05 February 2016 (has links)
Notre travail se situe dans le contexte de recherche d'information sociale (RIS) et s'intéresse plus particulièrement à l'exploitation du contenu généré par les utilisateurs dans le processus de la recherche d'information. Le contenu généré par les utilisateurs (en anglais User-generated content, ou UGC) se réfère à un ensemble de données (ex. signaux sociaux) dont le contenu est principalement, soit produit, soit directement influencé par les utilisateurs finaux. Il est opposé au contenu traditionnel produit, vendu ou diffusé par les professionnels. Le terme devient populaire depuis l'année 2005, dans les milieux du Web 2.0, ainsi que dans les nouveaux médias sociaux. Ce mouvement reflète la démocratisation des moyens de production et d'interaction dans le Web grâce aux nouvelles technologies. Parmi ces moyens de plus en plus accessibles à un large public, on peut citer les réseaux sociaux, les blogs, les microblogs, les Wikis, etc. Les systèmes de recherche d'information exploitent dans leur majorité deux classes de sources d'évidence pour trier les documents répondant à une requête. La première, la plus exploitée, est dépendante de la requête, elle concerne toutes les caractéristiques relatives à la distribution des termes de la requête dans le document et dans la collection (tf-idf). La seconde classe concerne des facteurs indépendants de la requête, elle mesure une sorte de qualité ou d'importance a priori du document. Parmi ces facteurs, on en distingue le PageRank, la localité thématique du document, la présence d'URL dans le document, ses auteurs, etc. Une des sources importantes que l'on peut également exploiter pour mesurer l'intérêt d'une page Web ou de manière générale une ressource, est le Web social. En effet, grâce aux outils proposés par le Web 2.0 les utilisateurs interagissent de plus en plus entre eux et/ou avec les ressources. Ces interactions (signaux sociaux), traduites par des annotations, des commentaires ou des votes associés aux ressources, peuvent être considérés comme une information additionnelle qui peut jouer un rôle pour mesurer une importance a priori de la ressource en termes de popularité et de réputation, indépendamment de la requête. Nous supposons également que l'impact d'un signal social dépend aussi du temps, c'est-à-dire la date à laquelle l'action de l'utilisateur est réalisée. Nous considérons que les signaux récents devraient avoir un impact supérieur vis-à-vis des signaux anciens dans le calcul de l'importance d'une ressource. La récence des signaux peut indiquer certains intérêts récents à la ressource. Ensuite, nous considérons que le nombre de signaux d'une ressource doit être pris en compte au regard de l'âge (date de publication) de cette ressource. En général, une ressource ancienne en termes de durée d'existence a de fortes chances d'avoir beaucoup plus de signaux qu'une ressource récente. Ceci conduit donc à pénaliser les ressources récentes vis-à-vis de celles qui sont anciennes. Enfin, nous proposons également de prendre en compte la diversité des signaux sociaux au sein d'une ressource. / Our work is in the context of social information retrieval (SIR) and focuses on the exploitation of user-generated content in the process of seeking information. The Usergenerated content, or UGC, refers to a set of data (eg. social signals) whose content is mainly produced either directly influenced by end users. It is opposed to the traditional content produced, sold or distributed by professionals. The term became popular since 2005, in the Web 2.0 environments and in new social media. This movement reflects the democratization of the means of production and interaction in the web thanks to new technologies. Among these means more and more accessible to a wide public, we can cite social networks, blogs, microblogs, wikis, etc. The majority of information retrieval (IR) systems exploit two classes of features to rank documents in response to user's query. The first class, the most used one, is querydependent, which includes features corresponding to particular statistics of query terms such as term frequency, and term distribution within a document or in the collection of documents. The second class, referred to as documents prior, corresponds to queryindependent features such as the number of incoming links to a document, PageRank, topical locality, presence of URL, document authors, etc. One of the important sources which can also be used to measure the a priori interest of Web resources is social data (signals) associated with Web resource resulting from user interaction with this resource. These interactions representing annotations, comments or votes, produce useful and interesting social information that characterizes a resource in terms of popularity and reputation. Major search engines integrate social signals (e.g. Google, Bing). Searchmetrics1 showed that it exists a high correlation between social signals and the rankings provided by search engines such Google. We propose an approach that exploits social signals generated by users on the resources to estimate a priori relevance of a resource. This a priori knowledge is combined with topical relevance modeled by a language modeling (LM) approach. We also hypothesize that signals are time-dependent, the date when the user action has happened is important to distinguish between recent and old signals. Therefore, we assume that the recency of signals may indicate some recent interests to the resource, which may improve the a priori relevance of document. Secondly, number of signals of a resource depends on the resource age. Generally, an old resource may have much more signals than a recent one. We introduce the time-aware social approach that incorporates temporal characteristics of users' actions as prior in the retrieval model. Precisely, instead of assuming uniform document priors in this retrieval model, we assign document priors based on the signals associated to that document biased by both the creation date of the signals and the age of the document.
23

Accélérateur à très basse latence d'un réseau de neurones sur FPGA pour simulations avec matériel dans la boucle

Barnard, Christian 17 June 2024 (has links)
Ce mémoire présente les étapes qui ont mené à la conception et l'implémentation d'un accélérateur matériel d'un réseau de neurones qui sera chargé de la modélisation d'un environnement virtuel dans un simulateur de type "Hardware-in-the-Loop" (HIL). Ce module aura pour but d'offrir un environnement crédible à l'unité de contrôle électronique (ECU) testée sous la forme des signaux d'entrée requis par celle-ci. Cette crédibilité devra être reflétée autant au niveau de l'intégrité des prédictions qu'à celui de la latence de réponse aux actions de l'ECU. Ainsi, le modèle d'apprentissage machine sélectionné devra avoir une charge de calcul relativement légère à l'inférence. Puisque le système désiré devra posséder un haut niveau de portabilité et de réutilisabilité pour permettre l'intégration de différents ECU, le modèle devra être entraînable avec une quantité de données limitée. Suivant ces critères et restrictions, plusieurs architectures de réseaux de neurones furent initialement sélectionnées selon leur succès dans la littérature dans des contextes similaires à celui présenté. Les réseaux de type LSTM, GRU, TCN et NARX furent évalués et comparés sur une tâche de régression de séquences nécessitant la génération de signaux représentant les dynamiques d'un véhicule en freinage équipé d'un système ABS. Le modèle TCN fut capable de démontrer les meilleurs résultats sur la tâche en question comparativement aux autres réseaux. Une technique de régularisation utilisant la différentiation numérique des prédictions fut conçue et appliquée à l'entraînement du modèle afin de promouvoir la génération de signaux plus crédibles. Le réseau TCN fut finalement implémenté sur un accélérateur matériel utilisant les technologies FPGA afin de minimiser la latence des prédictions dans le système HIL. Le produit final permet d'offrir une prédiction du prochain état de l'environnement virtuel après 4.45 μs de latence. Cette valeur ne représente que l'inférence du modèle et omet la latence de communication et de conversion des signaux entre le module de prédiction et l'ECU testé. / This thesis presents the design and implementation of a hardware accelerator for a neural network that will be responsible for modeling a virtual environment in a Hardwarein- the-Loop simulator (HIL). This module aims to provide a credible environment to the electronic control unit (ECU) under test in the form of the input signals required by it. This credibility is reflected both in the integrity of the predictions and in the response latency to ECU actions. Thus, the selected machine learning model has a relatively light computational load at inference. Since the desired system possesses a high level of portability and reusability to allow the integration of different ECUs, the model remains trainable with limited data. Following these criteria and restrictions, several neural network architectures were initially selected according to their success in the literature in contexts similar to the one presented. LSTM, GRU, TCN and NARX architectures were evaluated and compared on a sequence regression task requiring generating signals representing the dynamics of a braking vehicle equipped with an ABS. The TCN model demonstrated the best results on the task in question compared to the other networks. A regularization technique using numerical differentiation of predictions was designed and applied to model training to promote the generation of more believable signals. The TCN network was finally implemented on a hardware accelerator using FPGA technologies to minimize the latency of the predictions in the HIL system. The final product makes it possible to offer a prediction of the next state of the virtual environment after 4.45 μs of latency. This value only represents the model inference and omits the communication and signal conversion latency between the prediction module and the ECU under test.
24

Assemblage d'ADN avec graphes de de Bruijn sur FPGA

Poirier, Carl 24 April 2018 (has links)
Ce mémoire est consacré à la parallélisation d'un algorithme d'assemblage d'ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l'algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d'abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l'algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.
25

Implantation FPGA de l'algorithme de chiffrement à courbes elliptiques : génération de clefs privées représentées directement en format w-NAF

Dupont, Louis 12 April 2018 (has links)
Le chiffrement d'une communication sur un canal quelconque pose un problème de taille. Un émetteur doit en effet transmettre au récepteur une information lui permettant de décoder une communication chiffrée. Le canal d'information n'étant souvent pas physiquement sécurisé, cette information préliminaire doit être transmise sans que les interlocuteurs n'aient à se soucier qu'un autre acteur puisse intercepter cette information. Différents algorithmes ont été développés afin de rendre possible cet échange préliminaire. Parmi les algorithmes communéments utilisés, la cryptographie à courbe elliptique permet de maximiser la sécurité d'une communication avec un minimum d'échange préliminaire d'information. La cryptographie à courbe elliptique repose sur la multiplication d'un point sur cette courbe par un scalaire. Cette opération est relativement lourde au niveau logiciel. Le développement d'un co-processeur spécialisé pour cette opération devient alors pertinent. Ce mémoire résume le développement de pareil co-processeur. Ce dernier a été développé sur FPGA en minimisant les ressources logiques utilisées tout en maximisant la fréquence d'horloge opérationnelle. De plus, le nombre d'opérations sur la courbe elliptique a été minimisé en représentant l'entier multipliant le point sur la courbe elliptique sous sa forme numérique ω-NAF. Ce mémoire propose également une façon inédite pour générer aléatoirement un entier sous sa forme ω-NAF en minimisant les ressources logiques nécessaires pour pareille opération. / The encryption of a communication on a given channel may appear hazardous. An interlocutor must transmit to another one enough information allowing both interlocutors to encrypt or decrypt the communication. Since the communication channel is visible to potentially malicious actors, this preliminary information must be exchanged without worrying about others intercepting it. Several algorithms were developed making that exchange possible. Among the most commonly used algorithms, elliptic curve cryptography provides the highest strength per bit. Elliptic curve cryptography is based on the multiplication of a point on this curve by a scalar. This operation is relatively complex when implemented in software. The use of a specialized co-processor becomes an interesting approach to perform this operation. This thesis describes the development of such a co-processor. It has been developed targeting a FPGA, minimizing the use of logical resources while maximizing the operating frequency. Moreover, the number of operations on the elliptic curve have been minimized by representing the scalar multiplying the point of the elliptic curve in its ω-NAF form. A method randomly generating an integer in its ω-NAF representation is also proposed. This method can be implemented in hardware using a minimum of logical resources.
26

Autocorrection en temps réel pour la spectroscopie à double peigne de fréquences optiques

Tourigny-Plante, Alex 23 October 2023 (has links)
Titre de l'écran-titre (visionné le 24 juillet 2023) / Cette maîtrise a pour objectif de développer et implanter un algorithme sur FPGA afin de faire l'acquisition et l'autocorrection d'interférogrammes provenant d'un interféromètre à double peigne de fréquences optiques. Les signaux optiques de chacun des peignes sont asservis au moyen de plateformes FPGA qui effectuent des boucles d'asservissement de phase de type PLL. Les phases résiduelles non corrigées sont transmises à la plateforme de correction. L'algorithme de correction consiste en une étape de précorrection à l'aide des signaux de phase précédemment transmis, puis en une étape d'autocorrection. Cette dernière est basée sur l'extraction des paramètres de correction à partir du signal lui-même, au moyen de corrélations croisées sur les portions centrales des interférogrammes. Les sources optiques étant suffisamment stabilisées, une correction de phase et une troncature sont suffisantes pour moyenner de façon cohérente les interférogrammes à l'intérieur d'un FPGA. Cela permet d'enregistrer plus longtemps et ainsi améliorer le rapport signal sur bruit de la mesure. Des mesures spectroscopiques de H¹²C¹⁴N sont prises an de valider les résultats de l'algorithme. Un SNR de 50923 est atteint avec un temps de mesure de 55.4 secondes. La figure de mérite est calculée à 5.55 × 10⁶ et est à une facteur 5 de la valeur maximale théorique pour les conditions expérimentales. La mesure spectroscopique correspond à la courbe théorique provenant de la base de données HITRAN avec une différence de l'ordre de 0.49%, provenant principalement des asymétries de Fano.
27

Real-time FPGA radiometric calibration of an imaging Fourier Transform Spectrometer

Dubois, Patrick 16 April 2018 (has links)
Malgré tous leurs avantages, les spectromètres par transformation de Fourier (FTS, de Fourier Transform Spectrometer) imageurs présentent un désavantage marqué par rapport aux autres technologies de spectromètres. Comme leur nom l'indique, on doit effectuer une transformée de Fourier sur les données brutes pour en extraire les spectres. Pour les instruments dotés d'un seul pixel, ce n'est plus un problème, grâce à l'algorithme de transformée de Fourier rapide (FFT) combiné aux ordinateurs modernes. Par contre, pour un FTS imageur équipé d'une large matrice de détecteurs (i.e. 320x256 pixels), la quantité de données à traiter peut vite devenir trop lourde pour la plupart des ordinateurs modernes, particulièrement si on désire faire le tout en temps réel. Une architecture de type SoC (système sur une puce - System On a Chip) sur réseau prédiffusé programmable par l'utilisateur (FPGA - Field Programmable Gate Array) est présenté dans ce mémoire. Cette architecture est capable de faire le traitement en temps réel de données provenant d'un FTS imageur. Par exemple, il est possible de faire du moyennage de plusieurs hypercubes, la transformation de Fourier rapide, du rognage spectral, de même que la calibration radiométrique, le tout à une vitesse atteignant 34 mégapoints par seconde (Mpts/s). Les calculs faits sur le FPGA n'ont pas le même niveau d'exactitude que ceux fait sur un PC avec des nombres à virgule flottante de 64 bits. Par contre, l'erreur introduite par l'utilisation de nombres en points fixes sur le FPGA ne dégrade pas le niveau de bruit d'un FTS imageur opérant dans la bande Long Wave (LVV) de plus de 10 %.
28

Implémentation sur FPGA de l'algorithme MUSIC sur antenne-réseau expérimentale à 10 GHz

Kebe, Ahmed 24 April 2018 (has links)
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés. / The techniques of Directions of Arrival (DOA) are a promising way to increase the capacity of systems and telecommunications services to better estimate the mobile-radio channel. They allow precise monitoring of cellular users to orient the antenna beams at them. Therefore, in this context, this paper describes step by step implementation of the high-level algorithm MUSIC (Multiple SIgnal Classification) on an FPGA platform to determine in real time the angle of arrival of one or incident sources to an antenna array. The Rapid Control Prototyping (RCP) with the tools of XilinxTM System generator (XSG) and MBDK (Model Based Design Kit) of NutaqTM is the development concept used. This concept is based on a high level programming code through models, to automatically generate a low-level code. A special attention is devoted to the method chosen to solve the eigenvalues decomposition problem for the complex autocorrelation matrix by Jacobi algorithm. The architecture designed implementing it in FPGA (Field Programmable Gate Array) is detailed. Furthermore, it is proved that MUSIC can perform an interesting estimate of the position of the sources without prior calibration of the antenna array. Thus, the calibration technique G matrix used in this project is presented, in addition to the implementation model. Finally, the experimental results of the system tested in a real environment in the presence of one source then two highly correlated sources are illustrated and analyzed.
29

On enhancing recommender systems by utilizing general social networks combined with users goals and contextual awareness / Renforcement des systèmes de recommandation à l'aide de réseaux sociaux et en combinant les objectifs et les préférences des usagers et la prise en compte du contexte

Chamsi Abu Quba, Rana 18 May 2015 (has links)
Nous sommes amenés chaque jour à prendre un nombre important de décisions : quel nouveau livre lire ? Quel film regarder ce soir ou où aller ce week-end ? De plus en plus, nous utilisons les ressources en ligne pour nous aider à prendre des décisions. Comme la prise de décision est assistée par le domaine en ligne, l'utilisation de systèmes de recommandation est devenue essentielle dans la vie quotidienne. Dans le même temps, les réseaux sociaux sont devenus une partie indispensable de ce processus ; partout dans le monde on les utilise quotidiennement pour récupérer des données de personne et de sources d'information en qui on a confiance. Quand les internautes passent du temps sur les réseaux sociaux, ils laissent de précieuses informations sur eux-mêmes. Cela a attiré l'attention des chercheurs et les professionnels de nombreux domaines académiques et commerciaux. Comme le domaine de la recommandation est un domaine qui a assisté à des changements de grande ampleur attribuable à des réseaux sociaux, il y a un intérêt évident pour les systèmes de recommandation sociale. Cependant, dans la littérature de ce domaine, nous avons constaté que de nombreux systèmes de recommandation sociale ont été évalués en utilisant des réseaux sociaux spécialisés comme Epinions, Flixter et d'autres types des réseaux sociaux de recommandation, qui tendent à être composées d'utilisateurs, d'articles, de notes et de relations. Ces solutions ne peuvent pas être étendues directement à des réseaux sociaux à usage général (GPSNs) comme Facebook et Twitter, qui sont des réseaux sociaux ouverts où les utilisateurs peuvent réaliser une variété d'actions utiles pour l'aide à la recommandation / We are surrounded by decisions to take, what book to read next? What film to watch this night and in the week-end? As the number of items became tremendous the use of recommendation systems became essential in daily life. At the same time social network become indispensable in people’s daily lives; people from different countries and age groups use them on a daily basis. While people are spending time on social networks, they are leaving valuable information about them attracting researchers’ attention. Recommendation is one domain that has been affected by the social networks widespread; the result is the social recommenders’ studies. However, in the literature we’ve found that most of the social recommenders were evaluated over Epinions, flixter and other type of domains based recommender social networks, which are composed of (users, items, ratings and relations). The proposed solutions can’t be extended directly to General Purpose Social Networks (GPSN) like Facebook and Twitter which are open social networks where users can do a variety of useful actions that can be useful for recommendation, but as they can’t rate items, these information are not possible to be used in recommender systems! Moreover, evaluations are based on the known metrics like MAE, and RMSE. This can’t guarantee the satisfaction of users, neither the good quality of recommendation
30

A bottom-up process management environment dedicated to process actors / Un environnement de gestion de processus dédié aux acteurs de processus

Hajmoosaei, Mojtaba 26 January 2018 (has links)
Les organisations adoptent de plus en plus les environnements de gestion des processus car ils offrent des perspectives prometteuses d'exécution en termes de flexibilité et d'efficacité. Les environnements traditionnels proposent cependant une approche descendante qui nécessite, de la part de concepteurs, l'élaboration d'un modèle avant sa mise en oeuvre par les acteurs qui le déploient tout au long du cycle d'ingénierie. En raison de cette divergence, un différentiel important est souvent constaté entre les modèles de processus et leur mise en oeuvre. De par l'absence de prise directe avec les acteurs de terrain, le niveau opérationnel des environnements de processus est trop faiblement exploité, en particulier en ingénierie des systèmes et des logiciels. Afin de faciliter l'utilisation des environnements de processus, cette thèse présente une approche ascendante mettant les acteurs du processus au coeur de la problématique. L'approche proposée autorise conjointement la modélisation et la mise en oeuvre de leurs activités quotidiennes. Dans cet objectif, notre approche s'appuie sur la description des artéfacts produits et consommés durant l'exécution d'une activité. Cette description permet à chaque acteur du processus de décrire le fragment de processus exprimant les activités dictées par son rôle. Le processus global se décompose ainsi en plusieurs fragments appartenant à différents rôles. Chaque fragment est modélisé indépendamment des autres fragments ; il peut aussi être greffé progressivement au modèle de processus initial. La modélisation des processus devient ainsi moins complexe et plus parcellaire. En outre, un fragment de processus ne modélise que l'aspect structurel des activités d'un rôle sans anticiper sur le comportement des activités ; il est moins prescriptif qu'un ordonnancement des activités de l'acteur. Un moteur de processus basé sur la production et la consommation d'artéfacts a été développé pour promulguer des activités provenant de différents fragments de processus. Ce moteur ne requiert pas de relations prédéfinies d'ordonnancement entre les activités pour les synchroniser, mais déduit leur dépendance à partir de leurs artéfacts échangés. Les dépendances sont représentées et actualisées au sein d'un graphe appelé Process Dependency Graph (PDG) qui reflète à tout instant l'état courant de l'exécution du processus. Cet environnement a été étendu afin de gérer les changements imprévus qui se produisent inévitablement lors de la mise en oeuvre des processus. Ce dispositif permet aux acteurs de signaler des changements émergents, d'analyser les impacts possibles et de notifier les personnes affectées par les modifications. En résumé, notre approche préconise de répartir les tâches d'un processus en plusieurs fragments, modélisés et adoptés séparément par les acteurs du processus. Le moteur de processus, qui s'appuie sur la disponibilité des artéfacts pour synchroniser les activités, permet d'exécuter indépendamment les fragments des processus. Il permet aussi l'exécution d'un processus partiellement défini pour lequel certains fragments seraient manquants. La vision globale de l'état d'avancement des différents acteurs concernés émerge au fur et à mesure de l'exécution des fragments. Cette nouvelle approche vise à intégrer au mieux les acteurs du processus dans le cycle de vie de la gestion des processus, ce qui rend ces systèmes plus attractifs et plus proches de leurs préoccupations. / Companies increasingly adopt process management environments, which offer promising perspectives for a more flexible and efficient process execution. Traditional process management environments embodies a top-down approach in which process modeling is performed by process designers and process enacting is performed by process actors. Due to this separation, there is often a gap between process models and their real enactments. As a consequence, the operational level of top down process environments has stayed low, especially in system and software industry, because they are not directly relevant to process actors' needs. In order to facilitate the usage of process environments for process actors, this thesis presents a user-centric and bottom-up approach that enables integration of process actors into process management life cycle by allowing them to perform both the modeling and enacting of their real processes. To this end, first, a bottom-up approach based on the artifact-centric modeling paradigm was proposed to allow each process actor to easily describe the process fragment containing the activities carried out by his role. The global process is thus decomposed into several fragments belonging to different roles. Each fragment can be modeled independently of other fragments and can be added progressively to the process model; therefore the process modeling becomes less complex and more partial. Moreover, a process fragment models only the structural aspect of a role's activities without anticipating the behavior of these activities; therefore the process model is less prescriptive. Second, a data-driven process engine was developed to enact activities coming from different process fragments. Our process engine does not require predefined work-sequence relations among these activities to synchronize them, but deduces such dependencies from their enactment-time exchanged artifacts. We used a graph structure name Process Dependency Graph (PDG) to store enactment-time process information and establish the dependencies among process elements. Third, we extend our process environment in order to handle unforeseen changes occurring during process enactment. This results in a Change-Aware Process Environment that allows process actors reporting emergent changes, analyzing possible impacts and notifying people affected by the changes. In our bottom-up approach, a process is split into several fragments separately modeled and enacted by process actors. Our data-driven process engine, which uses the availability of working artifacts to synchronize activities, enables enacting independently process fragments, and even a partially modeled process where some fragments are missing. The global process progressively emerges only at enactment time from the execution of process fragments. This new approach, with its simpler modeling and more flexible enactment, integrates better process actors into process management life cycle, and hence makes process management systems more attractive and useful for them.

Page generated in 0.0796 seconds