Spelling suggestions: "subject:"fouilles""
201 |
Les installations périurbaines de la Berytus romaine : le cas du site MDWR 2 (Mdawar/Beyrouth) / Peri-urban structures of the Roman Berytus : the case of site MDWR 2 (Mdawar/Beirut)El-Haibé, Georges 19 April 2018 (has links)
Cette thèse présente les résultats d’une fouille archéologique préventive menée sur un site de la région périurbaine est de la ville antique de Beyrouth. Leur étude approfondie montre des changements dans la fonction d’utilisation de cet espace, toujours lié directement à la ville. Son urbanisme s’est développé sur les bords des prolongations des axes urbains. Il n’a été bien planifié qu’à partir du Ier s. apr. J.-C. durant sa transformation en un espace funéraire. Sa division par des limites de terrains servait probablement aux colons nouvellement installés pour leurs activités agricoles, économiques, artisanales, etc. L’installation de constructions monumentales dans ce secteur périurbain n’a commencé qu’à la fin du IIe s. apr. J.-C. C’est ainsi qu’un sanctuaire du culte héliopolitain a été construit dans la plaine côtière, entre les deux voies menant à la ville, au point le plus proche de la mer et sur une falaise. Sa destruction est confirmée durant le IVe s. apr. J.-C.,soit à cause du tremblement de terre du 348/349 apr. J.-C. soit à la suite de la christianisation de la région. Ensuite, ce secteur a abrité plusieurs grandes résidences qui ont été détruites, soit par le tremblement de terre du 551, soit ultérieurement. Vers le début de la période médiévale, l’espace périurbain est a été abandonné pour la récupération des pierres des anciens monuments. Son occupation par des bâtiments ne reprend qu’à la période ottomane. / This thesis presents the results of the archaeological rescue excavation of a site situated in the periurban area of the ancient city of Beirut. The study findings reveal chronological changes in the use of the space, that are consistently linked to developments associated with the growth of the city. The site developed along the extensions of the urban axes, but was fully elaborated in the 1st century A.D. with its transformation into a burial ground. Divided by territory limits, the new colonists then most likely used this location for their economical, agricultural, and artisanal activities. The installation of monumental constructions in this peri-urban area began at the end of the 2nd century A.D. A sanctuary pertaining to the Heliopolitan cult was thus built on the plain between the two roads leading to the city, on the “Ras Mdawar” cliff at the nearest point to thesea. Its destruction is dated to the 4th century A.D., either as a consequence of the earthquake of 348/349 AD or as a result of the Christianization of the region. Several large villas were later built in this area and destroyed either by the earthquake of 551 AD or at a later period. With the start of the medieval era, the peri-urban space was abandoned and exploited for the recuperation of stones from the ancient monuments. It remained unoccupied until the Ottoman period.
|
202 |
Analyse d'opinion dans les interactions orales / Opinion analysis in speech interactionsBarriere, Valentin 15 April 2019 (has links)
La reconnaissance des opinions d'un locuteur dans une interaction orale est une étape cruciale pour améliorer la communication entre un humain et un agent virtuel. Dans cette thèse, nous nous situons dans une problématique de traitement automatique de la parole (TAP) sur les phénomènes d'opinions dans des interactions orales spontanées naturelles. L'analyse d'opinion est une tâche peu souvent abordée en TAP qui se concentrait jusqu'à peu sur les émotions à l'aide du contenu vocal et non verbal. De plus, la plupart des systèmes récents existants n'utilisent pas le contexte interactionnel afin d'analyser les opinions du locuteur. Dans cette thèse, nous nous penchons sur ces sujet. Nous nous situons dans le cadre de la détection automatique en utilisant des modèles d’apprentissage statistiques. Après une étude sur la modélisation de la dynamique de l'opinion par un modèle à états latents à l’intérieur d'un monologue, nous étudions la manière d’intégrer le contexte interactionnel dialogique, et enfin d'intégrer l'audio au texte avec différents types de fusion. Nous avons travaillé sur une base de données de Vlogs au niveau d'un sentiment global, puis sur une base de données d'interactions dyadiques multimodales composée de conversations ouvertes, au niveau du tour de parole et de la paire de tours de parole. Pour finir, nous avons fait annoté une base de données en opinion car les base de données existantes n'étaient pas satisfaisantes vis-à-vis de la tâche abordée, et ne permettaient pas une comparaison claire avec d'autres systèmes à l'état de l'art.A l'aube du changement important porté par l’avènement des méthodes neuronales, nous étudions différents types de représentations: les anciennes représentations construites à la main, rigides mais précises, et les nouvelles représentations apprises de manière statistique, générales et sémantiques. Nous étudions différentes segmentations permettant de prendre en compte le caractère asynchrone de la multi-modalité. Dernièrement, nous utilisons un modèle d'apprentissage à états latents qui peut s'adapter à une base de données de taille restreinte, pour la tâche atypique qu'est l'analyse d'opinion, et nous montrons qu'il permet à la fois une adaptation des descripteurs du domaine écrit au domaine oral, et servir de couche d'attention via son pouvoir de clusterisation. La fusion multimodale complexe n'étant pas bien gérée par le classifieur utilisé, et l'audio étant moins impactant sur l'opinion que le texte, nous étudions différentes méthodes de sélection de paramètres pour résoudre ces problèmes. / 2588/5000Recognizing a speaker's opinions in an oral interaction is a crucial step in improving communication between a human and a virtual agent. In this thesis, we find ourselves in a problematic of automatic speech processing (APT) on opinion phenomena in natural spontaneous oral interactions. Opinion analysis is a task that is not often addressed in TAP that focused until recently on emotions using voice and non-verbal content. In addition, most existing legacy systems do not use the interactional context to analyze the speaker's opinions. In this thesis, we focus on these topics.We are in the context of automatic detection using statistical learning models. A study on modeling the dynamics of opinion by a model with latent states within a monologue, we study how to integrate the context interactional dialogical, and finally to integrate audio to text with different types of fusion. We worked on a basic Vlogs data at a global sense, and on the basis of multimodal data dyadic interactions composed of open conversations, at the turn of speech and word pair of towers. Finally, we annotated database in opinion because existing database were not satisfactory vis-à-vis the task addressed, and did not allow a clear comparison with other systems in the state art.At the dawn of significant change brought by the advent of neural methods, we study different types of representations: the ancient representations built by hand, rigid, but precise, and new representations learned statistically, and general semantics. We study different segmentations to take into account the asynchronous nature of multi-modality. Recently, we are using a latent state learning model that can adapt to a small database, for the atypical task of opinion analysis, and we show that it allows both an adaptation of the descriptors of the written domain to the oral domain, and serve as an attention layer via its clustering power. Complex multimodal fusion is not well managed by the classifier used, and audio being less impacting on opinion than text, we study different methods of parameter selection to solve these problems.
|
203 |
Identification du profil des utilisateurs d’un hypermédia encyclopédique à l’aide de classifieurs basés sur des dissimilarités : création d’un composant d’un système expert pour Hypergéo / Identification of hypermedia encyclopedic user's profile using classifiers based on dissimilarities : creating a component of an expert system for HypergeoAbou Latif, Firas 08 July 2011 (has links)
L’objectif de cette thèse est d’identifier le profil d’utilisateur d’un hypermédia afin de l’adapter. Ceprofil est déterminé en utilisant des algorithmes d’apprentissage supervisé comme le SVM.Le modèle d’utilisateur est l’un des composants essentiels des hypermédias adaptatifs. Une des façons de caractériser ce modèle est d’associer l’utilisateur à un profil. Le Web Usage Mining (WUM)identifie ce profil à l’aide des traces de navigation. Toutefois, ces techniques ne fonctionnent généralement que sur de gros volumes de données. Dans le cadre de volumes de données réduits, nous proposons d’utiliser la structure et le contenu de l’hypermédia. Pour cela, nous avons utilisé des algorithmes d’apprentissage à noyau pour lesquels nous avons défini l’élément clé qu’est la mesure de similarité entre traces basée sur une « distance » entre documents du site. Notre approche a été validée à l’aide de données synthétiques puis à l’aide de données issues des traces des utilisateurs du site Hypergéo (site webencyclopédique spécialisé dans la géographie). Nos résultats ont été comparés à ceux obtenus à l’aide d’une des techniques du WUM (l’algorithme des motifs caractéristiques). Finalement, nos propositions pour identifier les profils a posteriori ont permis de mettre en évidence cinq profils. En appliquant une« distance sémantique » entre documents, les utilisateurs d’Hypergéo ont été classés correctement selon leurs centres d’intérêt. / This thesis is devoted to identify the profile of hypermedia user, then to adapt it according to user’s profile. This profile is found by using supervised learning algorithm like SVM. The user model is one of the essential components of adaptive hypermedia. One way to characterize this model is to associate a user to a profile. Web Usage Mining (WUM) identifies this profile from traces. However, these techniques usually operate on large mass of data. In the case when not enough data are available, we propose to use the structure and the content of the hypermedia. Hence, we used supervised kernel learning algorithms for which we have defined the measure of similarity between traces based on a “distance” between documents of the site. Our approach was validated using synthetic data and then using real data from the traces of Hypergéo users, Hypergéo is an encyclopedic website specialized in geography. Our results were compared with those obtained using a techniques of WUM(the algorithm of characteristic patterns). Finally, our proposals to identify the profiles a posteriori led usto highlight five profiles. Hypergéo users are classified according to their interests when the “semantic distance” between documents is applied.
|
204 |
Identification des motifs de voisinage conservés dans des contextes métaboliques et génomiques / Mining conserved neighborhood patterns in metabolic and genomic contextsZaharia, Alexandra 28 September 2018 (has links)
Cette thèse s'inscrit dans le cadre de la biologie des systèmes et porte plus particulièrement sur un problème relatif aux réseaux biologiques hétérogènes. Elle se concentre sur les relations entre le métabolisme et le contexte génomique, en utilisant une approche de fouille de graphes.Il est communément admis que des étapes enzymatiques successives impliquant des produits de gènes situés à proximité sur le chromosome traduisent un avantage évolutif du maintien de cette relation de voisinage au niveau métabolique ainsi que génomique. En conséquence, nous choisissons de nous concentrer sur la détection de réactions voisines catalysées par des produits de gènes voisins, où la notion de voisinage peut être modulée en autorisant que certaines réactions et/ou gènes soient omis. Plus spécifiquement, les motifs recherchés sont des trails de réactions (c'est-à-dire des séquences de réactions pouvant répéter des réactions, mais pas les liens entre elles) catalysées par des produits de gènes voisins. De tels motifs de voisinage sont appelés des motifs métaboliques et génomiques.De plus, on s'intéresse aux motifs de voisinage métabolique et génomique conservés, c'est-à-dire à des motifs similaires pour plusieurs espèces. Parmi les variations considérées pour un motif conservé, on considère l'absence/présence de réactions et/ou de gènes, ou leur ordre différent.Dans un premier temps, nous proposons des algorithmes et des méthodes afin d'identifier des motifs de voisinage métabolique et génomique conservés. Ces méthodes sont implémentées dans le pipeline libre CoMetGeNe (COnserved METabolic and GEnomic NEighborhoods). À l'aide de CoMetGeNe, on analyse une sélection de 50 espèces bactériennes, en utilisant des données issues de la base de connaissances KEGG.Dans un second temps, un développement de la détection de motifs conservés est exploré en prenant en compte la similarité chimique entre réactions. Il permet de mettre en évidence une classe de modules métaboliques conservés, caractérisée par le voisinage des gènes intervenants. / This thesis fits within the field of systems biology and addresses a problem related to heterogeneous biological networks. It focuses on the relationship between metabolism and genomic context through a graph mining approach.It is well-known that succeeding enzymatic steps involving products of genes in close proximity on the chromosome translate an evolutionary advantage in maintaining this neighborhood relationship at both the metabolic and genomic levels. We therefore choose to focus on the detection of neighboring reactions being catalyzed by products of neighboring genes, where the notion of neighborhood may be modulated by allowing the omission of several reactions and/or genes. More specifically, the sought motifs are trails of reactions (meaning reaction sequences in which reactions may be repeated, but not the links between them). Such neighborhood motifs are referred to as metabolic and genomic patterns.In addition, we are also interested in detecting conserved metabolic and genomic patterns, meaning similar patterns across multiple species. Among the possible variations for a conserved pattern, the presence/absence of reactions and/or genes may be considered, or the different order of reactions and/or genes.A first development proposes algorithms and methods for the identification of conserved metabolic and genomic patterns. These methods are implemented in an open-source pipeline called CoMetGeNe (COnserved METabolic and GEnomic NEighborhoods). By means of this pipeline, we analyze a data set of 50 bacterial species, using data extracted from the KEGG knowledge base.A second development explores the detection of conserved patterns by taking into account the chemical similarity between reactions. This allows for the detection of a class of conserved metabolic modules in which neighboring genes are involved.
|
205 |
Détection de communautés orientée sommet pour des réseaux mobiles opportunistes sociaux / Vertex centred community detection for opportunistic mobile social networksCanu, Maël 20 December 2017 (has links)
Les travaux présentés dans la thèse s'inscrivent dans le cadre de l'analyse des graphes de terrain (complex networks) et plus précisément de la tâche de détection de communautés, c'est-à-dire la reconnaissance algorithmique de sous-graphes particulièrement denses. Nous nous intéressons spécifiquement à l'implémentation d'une telle méthode dans un contexte fortement décentralisé et distribué : des réseaux MANET opportunistes formés par de petits objets connectés communiquant en pair-à-pair. Afin de tenir compte des contraintes d'exécution d'algorithme dans de tels réseaux, les travaux présentés dans la thèse proposent des méthodes conçues selon le paradigme récent et actif nommé orienté sommet, en alliant le traitement de graphes Think-Like-a-Vertex aux méthodes de détection de communautés basées sur des leaders ou des graines : celles-ci présentent en effet des propriétés de décentralisation qui autorisent des implémentations parallèles et distribuées appropriées au cadre applicatif considéré. Dans ce contexte, nous proposons d'une part un principe global de fonctionnement original que nous mettons en oeuvre et déclinons dans trois algorithmes dédiés à trois configurations différentes de la tâche de détection de communautés : l'algorithme VOLCAN considère le cas de référence des communautés disjointes dans un graphe statique. Nous l'étendons ensuite avec l'algorithme LOCNeSs au cas des communautés recouvrantes, qui autorisent un sommet à appartenir à plusieurs communautés simultanément : cette généralisation donne plus de flexibilité à la détection et la rend plus appropriée au cadre applicatif considéré. Nous examinons également le cas des graphes dynamiques, c'est-à-dire dont les sommets et les arêtes évoluent au cours du temps, auquel est consacré l'algorithme DynLOCNeSs. Chacun des algorithmes est associé à une implémentation décentralisée et fait l'objet d'une étude théorique ainsi qu'expérimentale sur des données artificielles et réelles permettant d'évaluer la qualité des résultats fournis et de les comparer aux méthodes de l'état de l'art. Nous considérons également, dans un cas particulier de réseau mobile ad-hoc spontané et décentralisé issu d'une application réelle de vêtements intelligents et communicants, une tâche de cheminement permettant d'identifier des interlocuteurs. Nous proposons une stratégie de recommandation utilisant la structure communautaire, modélisée et évaluée à travers un algorithme nommé SWAGG. / Our research is in the field of complex network analysis and mining, specifically addressing the communit detection task, ie. algorithms aiming to uncover particularly dense subgraphs. We focus on the implementation of such an algorithm in a decentralised and distributed context : opportunistic MANET constituted of small wireless devices using peer-to-peer communication. To tackle the implementation constraints in such networks, we propose several methods designed according to the novel and trending vertex-centred paradigm, by combining Think-Like-a-Vertex graph processing with vertex-centred community detection methods based on leaders or seeds : they show specific properties allowing dsitributed implementations suiting the opportunistic MANET case. In this context, we first a global working principle and implement it in three different algorithms dedicated to three different configurations of community detection : the VOLCAN algorithm manages the classical disjoint community detection task in a static graph. We extend it with the LOCNeSs algorithm, that is dealing with overlapping communities which means that one vertex can belong to several communities. It adds more flexibility to the method and more significance to produced results. We also tackle the dynamic graphe case (graph evolving over time), addressed by the DynLOCNeSs algorithm.Each algorithm comes with a decentralised implementation and theoretical as well as experimental studies conducted both on real and synthetic benchmark data, allowing to evaluate the quality of the results and compare to existing state-of-the-art methods. Finally, we consider a special case of opportunistic decentralised MANET developped as a part of a research project about smart and communicating clothing. We formalise a task of path finding between smart t-shirts holders and propose a recommandation strategy using community structure, that we model and evaluate through an algorithm named SWAGG.
|
206 |
A visual analytics approach for multi-resolution and multi-model analysis of text corpora : application to investigative journalism / Une approche de visualisation analytique pour une analyse multi-résolution de corpus textuels : application au journalisme d’investigationMédoc, Nicolas 16 October 2017 (has links)
À mesure que la production de textes numériques croît exponentiellement, un besoin grandissant d’analyser des corpus de textes se manifeste dans beaucoup de domaines d’application, tant ces corpus constituent des sources inépuisables d’information et de connaissance partagées. Ainsi proposons-nous dans cette thèse une nouvelle approche de visualisation analytique pour l’analyse de corpus textuels, mise en œuvre pour les besoins spécifiques du journalisme d’investigation. Motivées par les problèmes et les tâches identifiés avec une journaliste d’investigation professionnelle, les visualisations et les interactions ont été conçues suivant une méthodologie centrée utilisateur, impliquant l’utilisateur durant tout le processus de développement. En l’occurrence, les journalistes d’investigation formulent des hypothèses, explorent leur sujet d’investigation sous tous ses angles, à la recherche de sources multiples étayant leurs hypothèses de travail. La réalisation de ces tâches, très fastidieuse lorsque les corpus sont volumineux, requiert l’usage de logiciels de visualisation analytique se confrontant aux problématiques de recherche abordées dans cette thèse. D’abord, la difficulté de donner du sens à un corpus textuel vient de sa nature non structurée. Nous avons donc recours au modèle vectoriel et son lien étroit avec l’hypothèse distributionnelle, ainsi qu’aux algorithmes qui l’exploitent pour révéler la structure sémantique latente du corpus. Les modèles de sujets et les algorithmes de biclustering sont efficaces pour l’extraction de sujets de haut niveau. Ces derniers correspondent à des groupes de documents concernant des sujets similaires, chacun représenté par un ensemble de termes extraits des contenus textuels. Une telle structuration par sujet permet notamment de résumer un corpus et de faciliter son exploration. Nous proposons une nouvelle visualisation, une carte pondérée des sujets, qui dresse une vue d’ensemble des sujets de haut niveau. Elle permet d’une part d’interpréter rapidement les contenus grâce à de multiples nuages de mots, et d’autre part, d’apprécier les propriétés des sujets telles que leur taille relative et leur proximité sémantique. Bien que l’exploration des sujets de haut niveau aide à localiser des sujets d’intérêt ainsi que leur voisinage, l’identification de faits précis, de points de vue ou d’angles d’analyse, en lien avec un événement ou une histoire, nécessite un niveau de structuration plus fin pour représenter des variantes de sujet. Cette structure imbriquée révélée par Bimax, une méthode de biclustering basée sur des motifs avec chevauchement, capture au sein des biclusters les co-occurrences de termes partagés par des sous-ensembles de documents pouvant dévoiler des faits, des points de vue ou des angles associés à des événements ou des histoires communes. Cette thèse aborde les problèmes de visualisation de biclusters avec chevauchement en organisant les biclusters terme-document en une hiérarchie qui limite la redondance des termes et met en exergue les parties communes et distinctives des biclusters. Nous avons évalué l’utilité de notre logiciel d’abord par un scénario d’utilisation doublé d’une évaluation qualitative avec une journaliste d’investigation. En outre, les motifs de co-occurrence des variantes de sujet révélées par Bima. sont déterminés par la structure de sujet englobante fournie par une méthode d’extraction de sujet. Cependant, la communauté a peu de recul quant au choix de la méthode et son impact sur l’exploration et l’interprétation des sujets et de ses variantes. Ainsi nous avons conduit une expérience computationnelle et une expérience utilisateur contrôlée afin de comparer deux méthodes d’extraction de sujet. D’un côté Coclu. est une méthode de biclustering disjointe, et de l’autre, hirarchical Latent Dirichlet Allocation (hLDA) est un modèle de sujet probabiliste dont les distributions de probabilité forment une structure de bicluster avec chevauchement. (...) / As the production of digital texts grows exponentially, a greater need to analyze text corpora arises in various domains of application, insofar as they constitute inexhaustible sources of shared information and knowledge. We therefore propose in this thesis a novel visual analytics approach for the analysis of text corpora, implemented for the real and concrete needs of investigative journalism. Motivated by the problems and tasks identified with a professional investigative journalist, visualizations and interactions are designed through a user-centered methodology involving the user during the whole development process. Specifically, investigative journalists formulate hypotheses and explore exhaustively the field under investigation in order to multiply sources showing pieces of evidence related to their working hypothesis. Carrying out such tasks in a large corpus is however a daunting endeavor and requires visual analytics software addressing several challenging research issues covered in this thesis. First, the difficulty to make sense of a large text corpus lies in its unstructured nature. We resort to the Vector Space Model (VSM) and its strong relationship with the distributional hypothesis, leveraged by multiple text mining algorithms, to discover the latent semantic structure of the corpus. Topic models and biclustering methods are recognized to be well suited to the extraction of coarse-grained topics, i.e. groups of documents concerning similar topics, each one represented by a set of terms extracted from textual contents. We provide a new Weighted Topic Map visualization that conveys a broad overview of coarse-grained topics by allowing quick interpretation of contents through multiple tag clouds while depicting the topical structure such as the relative importance of topics and their semantic similarity. Although the exploration of the coarse-grained topics helps locate topic of interest and its neighborhood, the identification of specific facts, viewpoints or angles related to events or stories requires finer level of structuration to represent topic variants. This nested structure, revealed by Bimax, a pattern-based overlapping biclustering algorithm, captures in biclusters the co-occurrences of terms shared by multiple documents and can disclose facts, viewpoints or angles related to events or stories. This thesis tackles issues related to the visualization of a large amount of overlapping biclusters by organizing term-document biclusters in a hierarchy that limits term redundancy and conveys their commonality and specificities. We evaluated the utility of our software through a usage scenario and a qualitative evaluation with an investigative journalist. In addition, the co-occurrence patterns of topic variants revealed by Bima. are determined by the enclosing topical structure supplied by the coarse-grained topic extraction method which is run beforehand. Nonetheless, little guidance is found regarding the choice of the latter method and its impact on the exploration and comprehension of topics and topic variants. Therefore we conducted both a numerical experiment and a controlled user experiment to compare two topic extraction methods, namely Coclus, a disjoint biclustering method, and hierarchical Latent Dirichlet Allocation (hLDA), an overlapping probabilistic topic model. The theoretical foundation of both methods is systematically analyzed by relating them to the distributional hypothesis. The numerical experiment provides statistical evidence of the difference between the resulting topical structure of both methods. The controlled experiment shows their impact on the comprehension of topic and topic variants, from analyst perspective. (...)
|
207 |
Automated support of the variability in configurable process models / Automatiser le support de la variabilité dans les modèles de processus configurablesAssy, Nour 28 September 2015 (has links)
L'évolution rapide dans les environnements métier d'aujourd'hui impose de nouveaux défis pour la gestion efficace et rentable des processus métiers. Dans un tel environnement très dynamique, la conception des processus métiers devient une tâche fastidieuse, source d'erreurs et coûteuse. Par conséquent, l'adoption d'une approche permettant la réutilisation et l'adaptabilité devient un besoin urgent pour une conception de processus prospère. Les modèles de processus configurables récemment introduits représentent l'une des solutions recherchées permettant une conception de processus par la réutilisation, tout en offrant la flexibilité. Un modèle de processus configurable est un modèle générique qui intègre de multiples variantes de procédés d'un même processus métier à travers des points de variation. Ces points de variation sont appelés éléments configurables et permettent de multiples options de conception dans le modèle de processus. Un modèle de processus configurable doit être configuré selon une exigence spécifique en sélectionnant une option de conception pour chaque élément configurable.Les activités de recherche récentes sur les modèles de processus configurables ont conduit à la spécification des langages de modélisation de processus configurables comme par exemple configurable Event-Driven Process Chain (C-EPC) qui étend la notation de l'EPC avec des éléments configurables. Depuis lors, la question de la conception et de la configuration des modèles de processus configurables a été étudiée. D'une part, puisque les modèles de processus configurables ont tendance à être très complexe avec un grand nombre d'éléments configurables, de nombreuses approches automatisées ont été proposées afin d'assister leur conception. Cependant, les approches existantes proposent de recommander des modèles de processus configurables entiers qui sont difficiles à réutiliser, nécessitent un temps complexe de calcul et peuvent confondre le concepteur du processus. D'autre part, les résultats de la recherche sur la conception des modèles de processus configurables ont mis en évidence la nécessité des moyens de soutien pour configurer le processus. Par conséquent, de nombreuses approches ont proposé de construire un système de support de configuration pour aider les utilisateurs finaux à sélectionner les choix de configuration souhaitables en fonction de leurs exigences. Cependant, ces systèmes sont actuellement créés manuellement par des experts du domaine qui est sans aucun doute une tâche fastidieuse et source d'erreurs .Dans cette thèse, nous visons à automatiser le soutien de la variabilité dans les modèles de processus configurables. Notre objectif est double: (i) assister la conception des processus configurables d'une manière à ne pas confondre les concepteurs par des recommandations complexes et (i) assister la création des systèmes de soutien de configuration afin de libérer les analystes de processus de la charge de les construire manuellement. Pour atteindre le premier objectif, nous proposons d'apprendre de l'expérience acquise grâce à la modélisation des processus passés afin d'aider les concepteurs de processus avec des fragments de processus configurables. Les fragments proposés inspirent le concepteur du processus pour compléter la conception du processus en cours. Pour atteindre le deuxième objectif, nous nous rendons compte que les modèles de processus préalablement conçus et configurés contiennent des connaissances implicites et utiles pour la configuration de processus. Par conséquent, nous proposons de bénéficier de l'expérience acquise grâce à la modélisation et à la configuration passées des processus afin d'aider les analystes de processus dans la construction de leurs systèmes de support de configuration. / Today's fast changing environment imposes new challenges for effective management of business processes. In such a highly dynamic environment, the business process design becomes time-consuming, error-prone, and costly. Therefore, seeking reuse and adaptability is a pressing need for a successful business process design. Configurable reference models recently introduced were a step toward enabling a process design by reuse while providing flexibility. A configurable process model is a generic model that integrates multiple process variants of a same business process in a given domain through variation points. These variation points are referred to as configurable elements and allow for multiple design options in the process model. A configurable process model needs to be configured according to a specific requirement by selecting one design option for each configurable element.Recent research activities on configurable process models have led to the specification of configurable process modeling notations as for example configurable Event-Driven Process Chain (C-EPC) that extends the EPC notation with configurable elements. Since then, the issue of building and configuring configurable process models has been investigated. On the one hand, as configurable process models tend to be very complex with a large number of configurable elements, many automated approaches have been proposed to assist their design. However, existing approaches propose to recommend entire configurable process models which are difficult to reuse, cost much computation time and may confuse the process designer. On the other hand, the research results on configurable process model design highlight the need for means of support to configure the process. Therefore, many approaches proposed to build a configuration support system for assisting end users selecting desirable configuration choices according to their requirements. However, these systems are currently manually created by domain experts which is undoubtedly a time-consuming and error-prone task.In this thesis, we aim at automating the support of the variability in configurable process models. Our objective is twofold: (i) assisting the configurable process design in a fin-grained way using configurable process fragments that are close to the designers interest and (ii) automating the creation of configuration support systems in order to release the process analysts from the burden of manually building them. In order to achieve the first objective, we propose to learn from the experience gained through past process modeling in order to assist the process designers with configurable process fragments. The proposed fragments inspire the process designer to complete the design of the ongoing process. To achieve the second objective, we realize that previously designed and configured process models contain implicit and useful knowledge for process configuration. Therefore, we propose to benefit from the experience gained through past process modeling and configuration in order to assist process analysts building their configuration support systems. Such systems assist end users interactively configuring the process by recommending suitable configuration decisions.
|
208 |
Evaluation des connaissances acquises lors de l’apprentissage de l’ingénierie système dans un environnement E-learning collaboratif / Assessment of acquired knowledge during learning of system engineering in a collaborative E-learning environmentBerriche, Fatima Zahra 29 June 2018 (has links)
Pour rester concurrentiel et faire face à la complexité du développement des systèmes complexes, il est nécessaire d’avoir de bons ingénieurs système expérimentés sur le marché. De ce fait, Les ingénieurs système ainsi que les enseignants-chercheurs doivent mettre en place des stratégies et des méthodologies didactiques pour préparer les futurs ingénieurs systèmes. L’idée est d’assurer aux étudiants ingénieurs une préparation approfondie à l’ingénierie système (IS) et un savoir-faire quasi-professionnel fondés sur des expériences pratiques. Cette thèse répond à la nécessité de l’évaluation des étudiants, dans l’optique de vérifier leur maîtrise des processus du développement d’un système complexe tout le long de son cycle de vie. Nous nous intéressons particulièrement au problème de l’évaluation des connaissances acquises des apprenants lors de l’apprentissage actif de l’IS dans un environnement E-learning collaboratif en se fondant sur l’approche d’acquisition de connaissances. Pour cela, nous avons élaboré et mis en œuvre nos travaux de recherche dans le cadre d’une démarche d’E-apprentissage par projet, approche pédagogique qui facilite l’apprentissage en ligne de l’IS basé sur des projets. Dans ce contexte, nous avons décidé de piloter notre environnement Eapprentissage par des projets initiés à partir des processus normalisés en IS. Nous avons également guidé la formalisation de ces processus standardisés par l’intégration des modèles de compétences d’IS afin de soutenir le développement professionnel d’un système. Lors de la phase d’apprentissage, différents étudiants collaborent à distance. Ce partage d’information est fondé généralement sur des échanges formels ou informels. L’intérêt de l’acquisition de ces connaissances, issues des compte-rendus écrits, des retours d’expérience et des erreurs rectifiées, est d’aider à étudier et évaluer les expériences et les activités des étudiants pour favoriser l’apprentissage actif et collaboratif de l’IS. Notre proposition est une solution permettant l’évaluation des connaissances acquises fondée sur des outils sémantiques. La solution s’adresse aux étudiants et aux enseignants de la plateforme. D’une part, elle permet le suivi et l’évaluation des étudiants d’une manière intelligente et d’autre part, elle permet l’accompagnement de l’enseignant lors de la définition de son projet. Tout d’abord, nous présentons une méthode d’évaluation mixte qui combine le raisonnement à partir de cas et le processmining afin de fournir des représentations visuelles qui aident l’enseignant dans son processus d’évaluation ainsi que la définition de son scénario d’apprentissage. Nous exploitons des techniques d’analyse de réseaux sociaux pour étudier les interactions des apprenants. Ensuite, nous proposons un processus d’annotation sémantique des travaux des étudiants. Le processus a pour but de guider l’enseignant dans son processus d’évaluation. De plus, afin d’enrichir la mise en œuvre de l’évaluation des connaissances, nous introduisons le concept d’évaluation par les pairs afin de promouvoir la réflexivité et la confiance en soi de l’apprenant. Enfin, les différentes contributions sont illustrées au moyen d’une étude de cas. A la lumière de cette étude de cas, nous avons montré que les hypothèses de recherche sont valides. / To remain competitive and to deal with the complexities of developing complex systems, it is necessary to have skilled and experienced system engineers on the labor market. As a result, system engineers, teachers and researchers must put in place strategies and didactic methodologies to prepare future systems engineers. The idea is to ensure engineering students with depth preparation for system engineering (SE) and a quasiprofessional expertise based on practical experiences. This thesis meets the need for student evaluation, to verify their knowledge of the processes of developing a complex system throughout its lifecycle. We are particularly interested in the problem of evaluating the knowledge acquired by learners during the active learning of the SE in a collaborative Elearning environment based on the knowledge acquisition approach. For this, we have developed and implemented our research as part of an E-learning project approach. This is a pedagogical approach that facilitates online learning of SE based on projects. We decided to pilot our E-learning environment with projects initiated from standard SE processes. We also conducted a formalization of these standardized processes by integrating SE competencies models to support the professional development of a system. During the learning phase, different students collaborate remotely. This sharing of information is generally based on formal or informal exchanges. The interest of the acquisition of this knowledge, resulting from written reports, feedback and rectified errors, is to help study and evaluate the experiences and activities of students to promote active learning and collaboration of the SE. Our proposal is a solution for the evaluation of acquired knowledge based on semantic tools. The solution is addressed to students and teachers of the platform. On the one side, it allows the monitoring and evaluation of students in an intelligent way. On the other side, it allows to support the teacher during the definition of his project. First, we present a mixed assessment method that combines reasoning from cases and process-mining to provide visual representations that help the teacher in his assessment process as well as the definition of his learning scenario. We use social network analysis techniques to study learner interactions. Then, we propose a semantic annotation process of student works. The purpose of this process is to guide the teacher in his assessment process. Furthermore, we introduce the concept of peer review in order to promote the reflexivity and self-confidence of learner. Finally, the different contributions are illustrated by a case study. Based on this case study, we show that the research hypotheses are valid.
|
209 |
Modeling and mining business process variants in cloud environments / Modélisation et fouille de variants de procédés d'entreprise dans les environnements cloudYongsiriwit, Karn 23 January 2017 (has links)
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels / More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases
|
210 |
Les arcanes de la cryptomonnaie et de la chaîne de blocs à travers le prisme de l'article 8 de la Charte canadienneDuong, Alexandre 11 1900 (has links)
L’essor fulgurant des cryptomonnaies au cours des dernières années a propulsé à l’avant-plan la chaîne de blocs auprès du public. Exploitant l’anonymat et la décentralisation du système, les acteurs dans le monde criminel ont profité de la commodité de ces devises pour faciliter leurs activités. Compte tenu de leur popularité récente, les principes en droit criminel demeurent embryonnaires et la littérature peu développée à ce sujet.
Ce mémoire vise à déterminer s’il existe une attente raisonnable de vie privée à l’égard de la chaîne de blocs et des cryptomonnaies. À travers une analyse prospective des fondements de l’article 8 de la Charte canadienne entourant les fouilles et les perquisitions, nous exposerons le cadre juridique applicable à l’égard de ces technologies. En raison de ses caractéristiques intrinsèques, la garantie juridique ne s’applique pas aux données répertoriées sur la chaîne de blocs. Cependant, la protection s’étend aux portefeuilles de cryptomonnaie étant donné la nature sensible de leur contenu. Nous examinerons finalement les différents mandats applicables lors d’une saisie de ces actifs. / Over the last few years, the rapid growth of cryptocurrencies has brought blockchain to the forefront of the public. Harnessing the network’s anonymous and decentralized power, criminals have been using cryptocurrencies to facilitate their activities. However, owing to its recent surge in popularity, principles within criminal law are still undergoing development and the existing literature on the subject remains thin.
This thesis aims to determine whether there is a reasonable expectation of privacy in blockchain and cryptocurrencies. Through a prospective analysis of the general principles on search and seizure, we will outline the analytical framework applicable to these technologies. Due to its intrinsic characteristics, the Canadian Charter does not confer protection to data stored on blockchain. However, the scope extends to cryptocurrency wallets due to its sensitive nature. We will also discuss the general and specific warrants used during a seizure of these assets.
|
Page generated in 0.0556 seconds