• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 26
  • 6
  • Tagged with
  • 111
  • 36
  • 22
  • 21
  • 21
  • 19
  • 17
  • 17
  • 15
  • 14
  • 14
  • 13
  • 13
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

L'interlangue des apprenants roumains de FLE au carrefour des langues romanes (études de cas sur des apprenants roumains étudiant aussi l'Italien et l'espagnol / The Interlanguage of the Romanian FFL learners at the crossroads between Romance languages (study case on the Romanian students learning also Italian and Spanish)

Caslaru, Mariana diana 05 September 2013 (has links)
Apprendre une nouvelle langue signifie exploiter, plus ou moins consciemment,l’espace de la proximité du système linguistique cible avec d’autres langues. Cette proximité encourage les transferts entre les systèmes linguistiques, qui acquièrent une valeur positive ou négative à l’intérieur de l’interlangue vue comme le troisième système linguistique développé par l’apprenant, différent de la langue source et de la langue cible. Nous nous intéressons à ces transferts et à l’influence que ceux-ci exercent sur l’interlangue, dans le cas des apprenants roumains de FLE, étudiant aussi l’italien et l’espagnol. L’analyse des données nous permet de rendre compte du rapport qui s’établit entre la conformité avec la norme et la complexité de l’interlangue et aussi de déterminer le rôle des transferts linguistiques positifs et négatifs par rapport à ces deux dimensions de l’interlangue (la complexité et la conformité) / Learning a new language means making use, more or less consciously, of the sphere ofproximity between the target linguistic system and the other languages. This proximitystimulates some transfers between the linguistic systems, thus acquiring either a positive or anegative value within interlanguage. This one is considered the third language system developedby the learner, being different from the source language and the target language. We focus onthese transfers and on their influence over interlanguage, in the case of the Romanian learnersstudying French as a foreign language, but also Italian and Spanish.The data analysis enables us, on the one hand, to give an account of the connectionexisting between the conformity to the norm and the complexity of interlanguage and, on theother hand, to ascertain the role of both positive and negative linguistic transfers against thesetwo dimensions of interlanguage (the complexity and the conformity) / A învăţa o nouă limbă înseamnă a exploata, în mod mai mult sau mai puţin conştient,spaţiul proximităţii sistemului lingvistic ţintă cu alte limbi. Această proximitate încurajeazătransferurile între sistemele lingvistice, care capătă o valoare pozitivă sau negativă în interiorulunei interlangue vazută ca fiind al treilea sistem lingvistic dezvoltat de un elev, diferit de limbasursă şi de limba ţintă. Suntem interesaţi de analiza acestor transferuri şi de influenţa pe careacestea o exercită asupra acestei interlangue, în cazul elevilor români care studiază FLE şiitaliana sau spanilola.Analiza datelor ne permite să explicăm raportul care se stabileşte între conformitatea cunorma şi complexitatea limbii elevului şi să determinăm rolul transferurilor lingvistice pozitive şinegative în raport cu aceste două dimensiuni ale unei interlangue (complexitatea şiconformitatea)
72

Intérêt général des pays en développement à la lumière de leur engagement dans les traités bilatéraux d’investissement

Nzohabonayo, Anaclet January 2014 (has links)
La préoccupation d’assurer le développement économique a poussé les pays en développement (PED), sortis fraichement de la colonisation, à déclencher un mouvement d’affirmation de la souveraineté sur leurs ressources naturelles devant l’Organisation des Nations Unies (ONU). La contestation a abouti à la résolution 1803 sur la souveraineté permanente sur les ressources naturelles (Résolution 1803)1. La poursuite des revendications pour l’acquisition de la souveraineté économique a débouché sur la naissance de la Charte des droits et des devoirs économiques des États2 (la Charte). Ces deux instruments ont affirmé les droits des PED de régler les différends d’investissements dans leurs juridictions internes, réglementer les activités économiques des étrangers, de nationaliser et d’exproprier les investissements étrangers. Pour les pays développés (PD), l’acquisition de cette souveraineté équivalait à un déclin de la protection et aboutissait au relâchement du caractère contraignant des engagements des PED au regard de la protection des investissements étrangers. C’est dans cet environnement de tension juridique, entre la protection des droits des investisseurs des PD et la protection des intérêts économiques des PED, que les PD ont conçu les traités bilatéraux d’investissement (TBI) pour baliser la protection des intérêts des investisseurs étrangers. La grande innovation de ce régime des TBI consiste à conférer le droit, aux investisseurs étrangers, de poursuivre les pays d’accueil devant le Centre international de règlement des différends en matière d’investissement (CIRDI). Les arbitrages d’investissement qui résultent des réclamations des investisseurs étrangers mettent au-devant de la scène la question de protection de l’intérêt général des PED qui fait l’objet de cette étude. Nous soutenons que ce régime d’investissement, que les PED ont intégré nonobstant leur manque d’expertise pour négocier des TBI prenant en compte leur préoccupation de développement économique, a marginalisé la prise en compte de l’intérêt général dans ces accords. Nous proposons par conséquent deux approches qui, à notre avis, accroitraient la protection de l’intérêt général des PED. L’une est juridique, l’autre institutionnelle. L’approche juridique se compose de trois volets qui convergent tous vers le renforcement de la flexibilité normative des PED. Le premier volet consisterait à introduire dans les TBI des normes de responsabilité sociale des entreprises (RSE). Le deuxième volet s’articulerait sur la délimitation du concept d’investissement afin de réduire son élasticité. Le troisième volet préconise le recours à la marge d’appréciation comme norme de contrôle des interventions réglementaires devant les tribunaux arbitraux du CIRDI. L’approche institutionnelle viserait à accroitre la capacité des PED pour acquérir les connaissances et l’expertise requise pour négocier des TBI et mettre en place des réglementations et politiques d’investissement compatibles avec leurs préoccupations de développement économique.
73

Les déterminants de la fidélité à l'enseigne-marque de service : application dans le secteur bancaire vietnamien / The determinants of service encounter / brand loyalty : application in Vietnamese banking sector

Phan, Kim Ngoc 15 November 2013 (has links)
Cette thèse a pour objectif de déterminer les facteurs explicatifs de la fidélité à l’enseigne - marque de service dans le contexte du pays émergent en intégrant le management de service et le marketing relationnel. Elle se compose de deux parties. La première partie permet de clarifier le concept de la fidélité à l’enseigne-marque de service selon une approche historique, conceptuelle et pluridisciplinaire. Elle vise à mieux comprendre la nature économique, culturelle, socio-démographique des pays émergents. Après une étude qualitative exploratoire, elle propose un modèle conceptuel de la fidélité du consommateur en combinant l’ensemble des concepts de l’expérience de service (qualité de service, image corporate) et de la relation client-marque (confiance, attachement). La deuxième partie est consacrée au test des hypothèses et à l’analyse des résultats suite à une enquête quantitative réalisée auprès des consommateurs bancaires vietnamiens. Les données sont traitées par les méthodes des équations structurelles, d’analyse des effets médiateurs simples et multiples, et la méthode d’orthogonalisation. Les résultats précisent la nécessité de concilier l’approche servicielle et relationnelle dans les études de la fidélité. Plus précisément : Valider l’impact direct et positif de toutes les variables centrales sur la fidélité du consommateur en soulignant le rôle pivot de la qualité perçue de service ; Valider l’impact indirect et positif de la qualité perçue, de l’image sur la fidélité à travers la confiance et l’attachement; Détecter et valider l’effet modérateur des variables contextuelles de la conformité sociale et de la familiarité du consommateur des pays émergents. / The objective of this thesis is to determine the factors explaining the service encounter/brand loyalty in the context of an emerging country by integrating service management and relationship marketing. It consists of two parts.The first part deals with the conceptual framework of this research. It clarifies the concept of service encounter/brand loyalty from a historical, conceptual and multidisciplinary approach. Second, it aims to better understand the demographic, economic and cultural nature of emerging countries. Finally, this section proposes, after an exploratory qualitative study, a conceptual model of customer loyalty by combining all of the concepts of the service experience (perceived service quality, corporate image) and customer - brand relationship (trust, attachment).The second part presents the empirical framework. It is dedicated to assumptions testing and results analyzing based on a quantitative survey of Vietnamese banking consumers. The data are processed by the methods of structural equation analysis, single and multiple mediating effects, and orthogonalization method. The results indicate the need to balance the service-based and relational approach in studies of loyalty. More specifically: i. Validate the direct and positive impact of all central variables on the customer loyalty by highlighting the pivotal role of the perceived quality of service; ii. Validate indirect and positive impact of perceived quality and corporate image on loyalty through trust and attachment; and iii. Detect and validate moderating effect of contextual variables of social compliance and familiarity of the consumer in emerging markets.
74

Test de conformité de contrôleurs logiques spécifiés en grafcet / Conformance test of logic controllers from Grafcet specification

Provost, Julien 08 July 2011 (has links)
Les travaux présentés dans ce mémoire de thèse s'intéressent à la génération et à la mise en œuvre de séquences de test pour le test de conformité de contrôleurs logiques. Dans le cadre de ces travaux, le Grafcet (IEC 60848 (2002)), langage de spécification graphique utilisé dans un contexte industriel, a été retenu comme modèle de spécification. Les contrôleurs logiques principalement considérés dans ces travaux sont les automates programmables industriels (API). Afin de valider la mise en œuvre du test de conformité pour des systèmes de contrôle/commande critiques, les travaux présentés proposent: - Une formalisation du langage de spécification Grafcet. En effet, l'application des méthodes usuelles de vérification et de validation nécessitent la connaissance du comportement à partir de modèles formels. Cependant, dans un contexte industriel, les modèles utilisés pour la description des spécifications fonctionnelles sont choisis en fonction de leur pouvoir d'expression et de leur facilité d'utilisation, mais ne disposent que rarement d'une sémantique formelle. - Une étude de la mise en œuvre de séquences de test et l'analyse des verdicts obtenus lors du changement simultané de plusieurs entrées logiques. Une campagne d'expérimentation a permis de quantifier, pour différentes configurations de l'implantation, le taux de verdicts erronés dus à ces changements simultanés. - Une définition du critère de SIC-testabilité d'une implantation. Ce critère, déterminé à partir de la spécification Grafcet, définit l'aptitude d'une implantation à être testée sans erreur de verdict. La génération automatique de séquences de test minimisant le risque de verdict erroné est ensuite étudiée. / The works presented in this PhD thesis deal with the generation and implementation of test sequences for conformance test of logic controllers. Within these works, Grafcet (IEC 60848 (2002)), graphical specification language used in industry, has been selected as the specification model. Logic controllers mainly considered in these works are Programmable Logic Controllers (PLC). In order to validate the carrying out of conformance test of critical control systems, this thesis presents: - A formalization of the Grafcet specification language. Indeed, to apply usual verification and validation methods, the behavior is required to be expressed through formal models. However, in industry, the models used to describe functional specifications are chosen for their expression power and usability, but these models rarely have a formal semantics. - A study of test sequences execution and analysis of obtained verdicts when several logical inputs are changed simultaneously. Series of experimentation have permitted to quantify, for different configurations of the implantation under test, the rate of erroneous verdicts due to these simultaneous changes. - A definition of the SIC-testability criterion for an implantation. This criterion, determined on the Grafect specification defines the ability of an implementation to be tested without any erroneous verdict. Automatic generation of test sequences that minimize the risk of erroneous verdict is then studied.
75

Méthodologie et composants pour la mise en oeuvre de workflows scientifiques / Methodology and components for scientific workflow building

Lin, Yuan 07 December 2011 (has links)
Les sciences relevant des sciences du vivant et de l'environnement (biologie, risques naturels, télédétection, etc.) ont depuis de nombreuses années accumulé les données d'observation et développé de grandes variétés de traitements.Les scientifiques de ces domaines doivent asseoir leur réflexion par des validations expérimentales. Celles-ci nécessitent la mise en œuvre de chaînes de traitements (ou protocoles expérimentaux) plus ou moins complexes.Le concept de "workflow" a été introduit de manière globale et raffiné en "workflow scientifique".Les systèmes actuels restent cependant difficiles à appréhender par des scientifiques dont les préoccupations ne relèvent pas directement de l'ingénierie informatique.L'approche suivie, en terme de méthodologie et de composants, propose une solution à ce problème.L'hypothèse initiale repose sur la vision utilisateur qui conçoit son travail en trois étapes :- La phase de planification, qui consiste à définir un modèle métier abstrait d'un workflow ;- La phase intermédiaire, qui consiste à concrétiser le modèle abstrait précédemment défini, en localisant les diverses ressources existantes au sein de ce que nous désignons comme contexte de travail. La définition, la vérification et la validation des modèles concrets reposent sur la connaissance des experts et sur la compatibilité des éléments du modèles ;- La phase dynamique, qui consiste à exécuter le modèle concret validé avec un moteur d'exécution.La thèse se focalise principalement sur les divers problèmes soulevés dans les deux premières phases (planification et intermédiaire).A partir d'une analyse des travaux existants, nous déclinons les divers maillons :méta modèle et langage de workflow, contexte de travail, graphe de ressources, traitement de cas d'incompatibilité de la proposition.La validation des travaux s'est effectuée dans plusieurs domaines cibles: biologie, risques naturels et télédétection.Un prototype a été développé, il propose les fonctionnalités suivantes :conception et sauvegarde de chaines de traitements abstraites,description et localisation de ressources, vérification de la validité des chaînes concrètes. / For many years in life and the environmental science domains (such asbiology, risk, remote sensing, etc.), observational data haveaccumulated and a great number of related applications have beenimplemented. Scientists working in these domains have to establish theirreflections and evaluations based on experimental validations, whichrequire a more or less complex workflow. The "workflow" has beenintroduced as a global and general concept, and defined as "scientificworkflow". However, the current complex systems remain difficult toaccess by scientist, whose expertise is not directly related to thedomain of computer science engineering.Within the following approach we propose a methodical solution for thisproblem.The initial hypothesis is based on the vision of an user, who conceiveshis work in three stages:1) The conception stage, which consists of constructing an abstractworkflow model;2) The intermediate stage, which represents an instantiation step of thepre-defined abstract model, by locating different existing resources inan environment, named "work context" in our approach. The definition,verification and validation of a concrete model depend on the experts'knowledge of his specialized domain and the compatibility of elements inthe model.3) The dynamic stage, which consists of establishing and executing thevalid concrete model by using a workflow execution engine.In this thesis we mainly concentrate on the different problems raised bythe first two stages (conception and intermediate). Based on an analysisof existing efforts we decline some elements such as meta model and theassociated workflow language, work context, resource graph, solution propositions for incompatible compositions.The validation for our approach has been carried out in various target domains such as biology, natural risk and remote sensing. A prototype has been developed, which provides the following functionalities:construction and saving the abstract workflow models, description and location of (data / application) resource, verification and validation of concrete workflow models.
76

Les lois anticorruption brésilienne et canadienne et leurs effets sur la compliance des entreprises au Brésil

Parente Freire Moreira, Caroline 12 1900 (has links)
No description available.
77

OntoApp : une approche déclarative pour la simulation du fonctionnement d’un logiciel dès une étape précoce du cycle de vie de développement / OntoApp : a declarative approach for software reuse and simulation in early stage of software development life cycle

Pham, Tuan Anh 22 September 2017 (has links)
Dans cette thèse, nous étudions plusieurs modèles de collaboration entre l’ingénierie logiciel et le web sémantique. À partir de l’état de l’art, nous proposons une approche d’utilisation de l’ontologie dans la couche de métier d’une application. L’objectif principal de notre travail est de fournir au développeur des outils pour concevoir la matière déclarative une couche de métier "exécutable" d’une application afin de simuler son fonctionnement et de montrer ainsi la conformité de l’application par rapport aux exigences du client au début du cycle de vie du logiciel. Un autre avantage de cette approche est de permettre au développeur de partager et de réutiliser la description de la couche de métier d’une application dans un domaine en utilisant l’ontologie. Celle-ci est appelée "patron d’application". La réutilisation de la description de la couche de métier d’une application est un aspect intéressant à l'ingénier logiciel. C’est le point-clé que nous voulons considérer dans cette thèse. Dans la première partie de notre travail, nous traitons la modélisation de la couche de métier. Nous présentons d’abord une approche fondée sur l’ontologie pour représenter les processus de métiers et les règles de métiers et nous montrons comment vérifier la cohérence du processus et de l’ensemble des règles de métier. Puis, nous présentons le mécanisme de vérification automatique de la conformité d’un processus de métier avec un ensemble de règles de métier. La deuxième partie de cette thèse est consacrée à définir une méthodologie, dite de personnalisation, de création une application à partir d'un "patron d’application". Cette méthode permettra à l'utilisateur d'utiliser un patron d'application pour créer sa propre application en évitant les erreurs de structures et les erreurs sémantiques. Nous introduisons à la fin de cette partie, la description d’une plateforme expérimentale permettant d’illustrer la faisabilité des mécanismes proposés dans cette thèse. Cette plateforme est réalisée sur un SGBD relationnel. / In this thesis, we study several models of collaboration between Software Engineering and Semantic Web. From the state of the art, we propose an approach to the use of ontology in the business application layer. The main objective of our work is to provide the developer with the tools to design, in the declarative manner, a business "executable" layer of an application in order to simulate its operation and thus show the compliance of the application with the customer requirements defined at the beginning of the software life cycle. On the other hand, another advantage of this approach is to allow the developer to share and reuse the business layer description of a typical application in a domain using ontology. This typical application description is called "Application Template". The reuse of the business layer description of an application is an interesting aspect of software engineering. That is the key point we want to consider in this thesis. In the first part of this thesis, we deal with the modeling of the business layer. We first present an ontology-based approach to represent business process and the business rules and show how to verify the consistency of business process and the set of business rules. Then, we present an automatic check mechanism of compliance of business process with a set of business rules. The second part of this thesis is devoted to define a methodology, called personalization, of creating of an application from an "Application Template". This methodology will allow the user to use an Application Template to create his own application by avoiding deadlock and semantic errors. We introduce at the end of this part the description of an experimental platform to illustrate the feasibility of the mechanisms proposed in the thesis. This platform s carried out on a relational DBMS.Finally, we present, in a final chapter, the conclusion, the perspective and other annexed works developed during this thesis.
78

Model-based testing real-time and interactive music systems / Tests de systèmes musicaux interactifs et temps réel basés sur modèles

Poncelet Sanchez, Clément 10 November 2016 (has links)
Est-il possible de tester automatiquement le comportement temporisé des systèmes interactifs temps réel ? Ces travaux proposent une solution en fournissant un ensemble d’outils de test basé sur modèles pour Systèmes Musicaux Interactifs (SMI). Les SMIs doivent calculer et réagir pendant une performance musicale et ainsi accompagner les musiciens. Certains de ces SMIs peuvent être basés sur partition et doivent, dans ce cas, suivre à tout prix les contraintes temporelles imposées par le document haut-niveau appelé partition. En somme, pendant une performance, le système doit réagir en temps réel aux signaux audio venant des musiciens en suivant cette partition. Ceci demande au système une forte fiabilité temporelle et une robustesse face aux erreurs pouvant arriver en entrée du système. Hors, la vérification formelle de propriétés, comme la fiabilité temporelle avant l’exécution du système lors d’une performance, est insuffisamment traitée par la communauté de l’informatique musicale. Nous présentons dans cette thèse, la réalisation d’un ensemble d’outils de test basé sur modèles appliqué à un SMI. Il est à noter que ces outils de test ont été définis formellement dans le but de tester plus généralement le comportement temporelle des systèmes interactifs temps réel prenant en compte des évènements discrets et des durées définissables sur des échelles multiples. Pour ce résumé nous présentons rapidement l’état de l’art de nos travaux avant d’introduire la définition de notre modèle créé pour spécifier les aspects évènementiel («event-triggerred») et temporel («timed-driven») des SMIs. Ce modèle a la particularité d’être automatiquement construit depuis les conditions temporelles définies dans un document haut-niveau et peut être traduit vers un réseau d’Automates Temporisés (TA). Dans le cadre de la performance musique mixte électronique/instrumentale nous avons introduit une notion de durée multi-temps gérée par notre modèle et une génération de trace d’entrée musicalement pertinente par notre ensemble d’outils de test. Pour tester un SMI selon les différentes attentes de l’utilisateur, notre ensemble d’outils a été implémenté avec plusieurs options possibles. Parmi ces options, la possibilité de tester automatiquement, selon une approche différée ou temps réel, la conformité temporelle du SMI est proposée. En effet, l’approche différée utilise des outils de la gamme du logiciel Uppaal [44] pour générer une suite de traces d’entrées exhaustive et garantir la conformité temporelle du système testé. Il est également possible de tester une trace d’entrée particulière ou une version altérée («fuzzed») de la trace idéale définie par la partition. L’approche temps réel interprète quand-à elle directement le modèle comme des instructions de byte-code grâce à une machine virtuelle. Finalement, des expériences ont été conduites via une étude de cas sur le suiveur de partition Antescofo. Ces expériences ont permis de tester ce système et d’évaluer notre ensemble d’outils et ses différentes options. Ce cas d’étude applique nos outils de test sur Antescofo avec succès et a permit d’identifier des bogues parfois non triviaux dans ce SMI. / Can real-time interactive systems be automatically timed tested ? This work proposes an answer to this question by providing a formal model based testing framework for Interactive Music Systems (IMS). IMSs should musically perform computations during live performances, accompanying and acting like real musicians. They can be score-based, and in this case must follow at all cost the timed high-level requirement given beforehand, called score. During performance, the system must react in real-time to audio signals from musicians according to this score. Such goals imply strong needs of temporal reliability and robustness to unforeseen errors in input. Be able to formally check this robustness before execution is a problem insufficiently addressed by the computer music community. We present, in this document, the concrete application of a Model-Based Testing (MBT) framework to a state-of-the-art IMS. The framework was defined on purpose of testing real-time interactive systems in general. We formally define the model in which our method is based. This model is automatically constructed from the high-level requirements and can be translated into a network of time automata. The mixed music environment implies the management of a multi-timed context and the generation of musically relevant input data through the testing framework. Therefore, this framework is both time-based, permitting durations related to different time units, and event-driven, following the musician events given in input. In order to test the IMS against the user’s requirements, multiple options are provided by our framework. Among these options, two approaches, offline and online, are possible to assess the system timed conformance fully automatically, from the requirement to the verdict. The offline approach, using the model-checker Uppaal, can generate a covering input suite and guarantee the system time reliability, or only check its behavior for a specific or fuzzed input sequence. The online approach, directly interprets the model as byte-code instructions thanks to a virtual machine. Finally, we perform experiments on a real-case study: the score follower Antescofo. These experiments test the system with a benchmark of scores and a real mixed-score given as input requirements in our framework. The results permit to compare the different options and scenarios in order to evaluate the framework. The application of our fully automatic framework to real mixed scores used in concerts have permitted to identify bugs in the target IMS.
79

MODELING HETEROTACHY IN PHYLOGENETICS

Zhou, Yan 04 1900 (has links)
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques. / Heterotachy, substitution rate variation across sites and time, has shown to be a frequent phenomenon in the real data. Failure to model heterotachy could potentially cause phylogenetic artefacts. Currently, there are several models to handle heterotachy, the mixture branch length model (MBL) and several variant forms of the covarion model. In this project, our objective is to find a model that efficiently handles heterotachous signals in the data, and thereby improves phylogenetic inference. In order to achieve our goal, two individual studies were conducted. In the first study, we make comparisons among the MBL, covarion and homotachous models using AIC, BIC and cross validation. Based on our results, we conclude that the MBL model, in which sites have different branch lengths along the entire tree, is an over-parameterized model. Real data indicate that the heterotachous signals which interfere with phylogenetic inference are generally limited to a small area of the tree. In the second study, we relax the assumption of the homogeneity of the covarion parameters over sites, and develop a mixture covarion model using a Dirichlet process. In order to evaluate different heterogeneous models, we design several posterior predictive discrepancy tests to study different aspects of molecular evolution using stochastic mappings. The posterior predictive discrepancy tests demonstrate that the covarion mixture +Γ model is able to adequately model the substitution variation within and among sites. Our research permits a detailed view of heterotachy in real datasets and gives directions for future heterotachous models. The posterior predictive discrepancy tests provide diagnostic tools to assess models in detail. Furthermore, both of our studies reveal the non-specificity of heterogeneous models. Our studies strongly suggest that different heterogeneous features in the data should be handled simultaneously.
80

The relevancy and effectiveness of the United Nations Convention Against Corruption

Brunelle-Quraishi, Ophélie 08 1900 (has links)
La Convention des Nations Unies contre la corruption, adoptée en 2003, est le premier outil international criminalisant la corruption de façon aussi détaillée. Ce mémoire tente d'évaluer sa portée en analysant les dispositions concernant la prévention, la criminalisation, la coopération internationale et le recouvrement d'avoirs. Il tente d’évaluer la pertinence et l'efficacité de la Convention en illustrant ses défis en matière de conformité, pour ensuite étudier d'autres outils internationaux existants qui lui font compétition. Malgré sa portée élargie, il est débattu que la Convention souffre de lacunes non négligeables qui pourraient restreindre son impact à l'égard de la conduite d'États Membres. / The United Nations Convention Against Corruption (adopted in 2003) is the first global in-depth treaty on corruption. This work attempts to assess its significance by analyzing its provisions, in particular concerning the areas of prevention, criminalization, international cooperation and asset recovery. It then seeks to assess its relevancy and effectiveness by giving an overview of the Convention's main compliance challenges, as well as other existing initiatives that tackle corruption. Although the Convention innovates in many respects, it is argued that it also suffers from weaknesses that cannot be overlooked, preventing it from having a real impact on States' behavior.

Page generated in 0.0759 seconds