• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 11
  • 7
  • 1
  • Tagged with
  • 53
  • 36
  • 19
  • 18
  • 17
  • 15
  • 10
  • 9
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La référence dans le langage des sciences de la nature

Clémencon, Éric 21 October 2011 (has links)
La question à laquelle nous essayons de répondre est : comment les sciences réfèrent à des entités posées comme "réelles", extralinguistiques? Le problème est divisé en deux problématiques : par quels outils linguistiques les sciences assurent-elles la relation référentielle ? A quelles sortes d'entités (individus, classes, classes de classes) les sciences réfèrent-elles ? L'enquête prend la forme d'une analyse linguistique du langage des sciences de la nature. Nous commençons par étudier la structure des classifications. En effet, les lexiques scientifiques sont impliqués dans des systèmes formels, dont nous cherchons à montrer qu'ils sont justiciables de la théorie des types russellienne. Les 2nde et 3ème parties examinent ces lexiques normalisés et codifiés que sont les nomenclatures des sciences naturelles. Nous retraçons d'abord l'origine des nomenclatures biologique et chimique de Linné à Lavoisier. Nous exposons ensuite les débats nomenclaturaux et taxinomiques de la biologie systématique qui se sont déroulés au cours de la 2nde moitié du 20ème siècle. Cette présentation est centrée sur le "type nomenclatural" ou "type porte-nom" qui apparaît comme l'outil méthodologique par excellence par lequel la biologie assure la fonction référentielle des noms des espèces. Nous confrontons enfin le type nomenclatural au "stéréotype" de Putnam et cherchons à déterminer dans quelle mesure la théorie de la référence causale est utile pour clarifier la référence dans les sciences de la nature. / We try to answer the question: How do sciences refer to entities that are deemed "real", extralinguistic? The problem is two-fold: (i) What linguistic tools do sciences use in order to establish and ensure the relation of reference? (ii) What kinds of entities (individuals, classes ans classes of classes) do sciences refer to? Our enquiry takes the form of a linguistic analysis of the language of the natural sciences.The first step consists of a study of the structure of classifications. Actually, the scientific lexicons of entities have a distinctive feature: they are involved in formal systems, that is say, in nomenclatures. We purport to establish that Russell's theory of types provides a sound account of such systems. The 2nd and 3rd parts examine those standarized and codified vocabularies found in sciences. We first relate the origin of biological and chemical nomenclatures from Linnaeus to Lavoisier. We then present the nomenclatural and taxonomic debates conducted in the 2nd half of 20th century in systematic biology. This presentation focuses on the "nomenclatural type" or "name-bearer" as the major methodological tool by which biology fixes the reference of species's names. We conclude by comparing the nomenclatural type with the "stereotype" elaboratd by Putnam in the context of the causal theory of reference, and we try to determinate if and to what extend this theory can be useful in order to throw light on reference in the language of the natural sciences.
42

Activité physique et santé mentale chez les jeunes au collégial

Doré, Isabelle 12 1900 (has links)
No description available.
43

Narrative generation by associative network extraction from real-life temporal data

Vaudry, Pierre-Luc 10 1900 (has links)
Les données portant sur des événements abondent dans notre société technologique. Une façon intéressante de présenter des données temporelles réelles pour faciliter leur interprétation est un récit généré automatiquement. La compréhension de récits implique la construction d'un réseau causal par le lecteur. Les systèmes de data-to-text narratifs semblent reconnaître l'importance des relations causales. Cependant, celles-ci jouent un rôle secondaire dans leurs planificateurs de document et leur identification repose principalement sur des connaissances du domaine. Cette thèse propose un modèle d'interprétation assistée de données temporelles par génération de récits structurés à l'aide d'un mélange de règles d'association automatiquement extraites et définies manuellement. Les associations suggèrent des hypothèses au lecteur qui peut ainsi construire plus facilement une représentation causale des événements. Ce modèle devrait être applicable à toutes les données temporelles répétitives, comprenant de préférence des actions ou activités, telles que les données d'activités de la vie quotidienne. Les règles d'association séquentielles sont choisies en fonction des critères de confiance et de signification statistique tels que mesurés dans les données d'entraînement. Les règles d'association basées sur les connaissances du monde et du domaine exploitent la similitude d'un certain aspect d'une paire d'événements ou des patrons causaux difficiles à détecter statistiquement. Pour interpréter une période à résumer déterminée, les paires d'événements pour lesquels une règle d'association s'applique sont associées et certaines associations supplémentaires sont dérivées pour former un réseau associatif. L'étape la plus importante du pipeline de génération automatique de texte (GAT) est la planification du document, comprenant la sélection des événements et la structuration du document. Pour la sélection des événements, le modèle repose sur la confiance des associations séquentielles pour sélectionner les faits les plus inhabituels. L'hypothèse est qu'un événement qui est impliqué par un autre avec une probabilité relativement élevée peut être laissé implicite dans le texte. La structure du récit est appelée le fil associatif ramifié, car il permet au lecteur de suivre les associations du début à la fin du texte. Il prend la forme d'un arbre couvrant sur le sous-réseau associatif précédemment sélectionné. Les associations qu'il contient sont sélectionnées en fonction de préférences de type d'association et de la distance temporelle relative. Le fil associatif ramifié est ensuite segmenté en paragraphes, phrases et syntagmes et les associations sont converties en relations rhétoriques. L'étape de microplanification définit des patrons lexico-syntaxiques décrivant chaque type d'événement. Lorsque deux descriptions d'événement doivent être assemblées dans la même phrase, un marqueur discursif exprimant la relation rhétorique spécifiée est employé. Un événement principal et un événement principal précédent sont déterminés pour chaque phrase. Lorsque le parent de l'événement principal dans le fil associatif n'est pas l'événement principal précédent, un anaphorique est ajouté au marqueur discursif frontal de la phrase. La réalisation de surface peut être effectuée en anglais ou en français grâce à des spécifications lexico-syntaxiques bilingues et à la bibliothèque Java SimpleNLG-EnFr. Les résultats d'une évaluation de la qualité textuelle montrent que les textes sont compréhensibles et les choix lexicaux adéquats. / Data about events abounds in our technological society. An attractive way of presenting real-life temporal data to facilitate its interpretation is an automatically generated narrative. Narrative comprehension involves the construction of a causal network by the reader. Narrative data-to-text systems seem to acknowledge causal relations as important. However, they play a secondary role in their document planners and their identification relies mostly on domain knowledge. This thesis proposes an assisted temporal data interpretation model by narrative generation in which narratives are structured with the help of a mix of automatically mined and manually defined association rules. The associations suggest causal hypotheses to the reader who can thus construct more easily a causal representation of the events. This model should be applicable to any repetitive temporal data, preferably including actions or activities, such as Activity of Daily Living (ADL) data. Sequential association rules are selected based on the criteria of confidence and statistical significance as measured in training data. World and domain knowledge association rules are based on the similarity of some aspect of a pair of events or on causal patterns difficult to detect statistically. To interpret a specific period to summarize, pairs of events for which an association rule applies are associated. Some extra associations are then derived. Together the events and associations form an associative network. The most important step of the Natural Language Generation (NLG) pipeline is document planning, comprising event selection and document structuring. For event selection, the model relies on the confidence of sequential associations to select the most unusual facts. The assumption is that an event that is implied by another one with a relatively high probability may be left implicit in the text. The structure of the narrative is called the connecting associative thread because it allows the reader to follow associations from the beginning to the end of the text. It takes the form of a spanning tree over the previously selected associative sub-network. The associations it contains are selected based on association type preferences and relative temporal distance. The connecting associative thread is then segmented into paragraphs, sentences, and phrases and the associations are translated to rhetorical relations. The microplanning step defines lexico-syntactic templates describing each event type. When two event descriptions need to be assembled in the same sentence, a discourse marker expressing the specified rhetorical relation is employed. A main event and a preceding main event are determined for each sentence. When the associative thread parent of the main event is not the preceding main event, an anaphor is added to the sentence front discourse marker. Surface realization can be performed in English or French thanks to bilingual lexico-syntactic specifications and the SimpleNLG-EnFr Java library. The results of a textual quality evaluation show that the texts are understandable and the lexical choices adequate.
44

Le traducteur en tant que médiateur culturel - L'exemple de Rifâ'a Al-Tahtâwî (1801-1873) / The Traslator as Cultural Mediator - The example of Rifâ'a At-Tahtâwî (1801-1873)

Azab, Lamiss 15 January 2015 (has links)
Malgré l’ancrage de la médiation et de la médiation culturelle en traductologie surtout depuis le Tournant Culturel, il manque encore à ces notions une définition traductologique arrêtée. Partant des apports provenant de différents domaines – notamment la communication culturelle – et prenant appui sur une théorie causale de la traduction, nous proposons une réflexion en trois temps sur le traducteur comme médiateur culturel et sur ses interventions délibérées, dans une approche identitaire, textuelle et fonctionnaliste. Nous sondons la particularité de la construction identitaire du traducteur, acteur marqué par sa formation linguistique et par ses normes socioculturelles d’origine, mais très empathique envers l’Autre et son système normatif. Dans ce premier volet, les stratégies traductives sont étudiées en miroir des stratégies identitaires déployées par le traducteur pour préserver cohérence et valorisation de sa construction identitaire. Ensuite, nous considérons le texte et le type de texte à traduire comme des créations culturelles que le traducteur re-présente à sa communauté, en lui rendant la différence abordable aux niveaux formel, lexical et discursif. Pour ce faire, il déploie une panoplie de stratégies traductives variant de la norme rédactionnelle la plus conformisante à la plus différenciatrice. Dans ce deuxième volet, la préface du traducteur est étudiée comme un lieu de médiation directe, pour informer et recommander la lecture. Enfin, nous analysons deux finalités traductives par lesquelles le traducteur agit sur l’identité culturelle de sa communauté par le biais de sa re-présentation : la formation intellectuelle et la déconstruction/re-construction identitaire. Que ce soit à travers de simples textes ou des institutions à caractère éducatif, l’objectif premier du traducteur est d’informer le lecteur et, par cette information, il agit sur la re-définition de fondements essentiels de sa construction identitaire. / Though mediation and cultural mediation seem to be enrooted in Translation Studies especially since the Cultural Turn, a specialized definition of these notions is still missing. Based on their definitions in other different domains – especially cultural communication – and on a causal theory of translation, we present a three-fold thesis on the translator as a cultural mediator and on his deliberate interventions. The three axes we develop here are based on identity, textual and functionalist approaches. First, we analyze the specificity of the identity of the translator seen as a construction that is not only marked by the linguistic formation and the sociocultural norms of his original community, but also by the actor’s empathy towards the Other and his system of norms. In this first fold, translation strategies are studied as mirrors of identity strategies the translator follows in order to keep the coherence and the valorization of his identity construction. Then, the texts and types of texts are considered as cultural creations that the translator re-presents to his community through making cultural differences understandable on the formal, lexical and discourse levels. To do so, he uses different writing norms from the most conforming to the most differentiating one. In this second fold, the translator’s preface is seen as a privileged place for a direct mediation, in which he already informs his reader about the translation he’s about to read and recommends the reading. Finally, we study two translation functions through which the translator acts on the cultural identity of his community based on his re-presentation of the text: the intellectual formation of the reader and the de-construction/ re-construction of his identity. By the means of a simple text or of an educational institution, the translator’s first aim is to inform the reader, and through this information, he acts on the re-definition of essential foundations of his identity construction.
45

Analyse économique des faillites bancaires : un essai sur les propriétés informationnelles des ruées bancaires / Economic analysis of bank failures : an essay on the informational properties of bank runs

Bédard, Mathieu 16 June 2015 (has links)
Cette thèse cherche à intégrer une conception riche de l'information à l'étude des ruées bancaires et de la contagion informationnelle. Elle s'intéresse à la détection de l'insolvabilité bancaire et à l'initiation des procédures de résolution. Le premier chapitre est une revue de la littérature sur les ruées bancaires s'intéressant du modèle "canonique" de Diamond & Dybvig (1983, J Pol Econ 91 (3): 401-19) et ses alternatives. Le second chapitre traite des théories de la contagion financière. Puis, la thèse propose une réinterprétation de ces deux littératures s'intéressant aux propriétés qualitatives de l'information produite par l'apprentissage endogène. La seconde partie est consacrée aux conséquences de cette réinterprétation pour le droit bancaire. D'abord, des parallèles sont tracés entre les ruées bancaires et le modèle de la "négociation des créanciers" de la théorie de l'insolvabilité. L'analyse positive suggère qu'il satisfait mieux la littérature empirique, et l'analyse normative que les "négociations des créanciers" sont mieux gérées par les institutions de la faillite d'entreprise plutôt que par les résolutions administratives. Ensuite, ces apports sont utilisés pour une analyse comparative institutionnelle des régimes de faillite des grandes institutions financières non bancaires américaines s'appuyant sur les principes de la Robust Political Economy. La thèse présente deux résultats principaux. Les crises informationnelles bancaires produisent l'information nécessaire à leurs résolutions. L'initiation des procédures de résolution de l'insolvabilité par le débiteur peut être un mécanisme robuste dans certains des cas étudiés. / This dissertation seeks to integrate a rich conception of information in the study of bank runs and informational contagion. In particular, it is interested in the detection of bank insolvency and the initiation of insolvency resolution procedures.The first chapter is a review of the literature on bank runs focused on the "canonical" model of Diamond & Dybvig (1983, J Pol Econ 91 (3): 401-19) and its alternatives. The second chapter deals with the theories of financial contagion. Then the dissertation proposes a reinterpretation of these two literatures focusing on the qualitative properties of the information produced by endogenous learning.The second part deals with the consequences of this reinterpretation for banking law. First, parallels are drawn between bank runs and the "creditors' bargain" model of bankruptcy theory. The positive analysis suggests that it better satisfies the empirical literature, and normative analysis that "creditor bargains" are better managed by the institutions of corporate bankruptcy than administrative resolutions. Then, these contributions are used for a comparative institutional analysis of bankruptcy regimes large US non-bank financial institutions based on the principles of Robust Political Economy.The thesis has two main results. Informational banking crises produce the information necessary for their own resolutions. The initiation of insolvency resolution procedures by the debtor can be a robust mechanism in some of the cases studied.
46

Apprentissage basé sur le Qini pour la prédiction de l’effet causal conditionnel

Belbahri, Mouloud-Beallah 08 1900 (has links)
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations. / Uplift models deal with cause-and-effect inference for a specific factor, such as a marketing intervention. In practice, these models are built on individual data from randomized experiments. A targeted group contains individuals who are subject to an action; a control group serves for comparison. Uplift modeling is used to order the individuals with respect to the value of a causal effect, e.g., positive, neutral, or negative. First, we propose a new way to perform model selection in uplift regression models. Our methodology is based on the maximization of the Qini coefficient. Because model selection corresponds to variable selection, the task is haunting and intractable if done in a straightforward manner when the number of variables to consider is large. To realistically search for a good model, we conceived a searching method based on an efficient exploration of the regression coefficients space combined with a lasso penalization of the log-likelihood. There is no explicit analytical expression for the Qini surface, so unveiling it is not easy. Our idea is to gradually uncover the Qini surface in a manner inspired by surface response designs. The goal is to find a reasonable local maximum of the Qini by exploring the surface near optimal values of the penalized coefficients. We openly share our codes through the R Package tools4uplift. Though there are some computational methods available for uplift modeling, most of them exclude statistical regression models. Our package intends to fill this gap. This package comprises tools for: i) quantization, ii) visualization, iii) variable selection, iv) parameters estimation and v) model validation. This library allows practitioners to use our methods with ease and to refer to methodological papers in order to read the details. Uplift is a particular case of causal inference. Causal inference tries to answer questions such as ``What would be the result if we gave this patient treatment A instead of treatment B?" . The answer to this question is then used as a prediction for a new patient. In the second part of the thesis, it is on the prediction that we have placed more emphasis. Most existing approaches are adaptations of random forests for the uplift case. Several split criteria have been proposed in the literature, all relying on maximizing heterogeneity. However, in practice, these approaches are prone to overfitting. In this work, we bring a new vision to uplift modeling. We propose a new loss function defined by leveraging a connection with the Bayesian interpretation of the relative risk. Our solution is developed for a specific twin neural network architecture allowing to jointly optimize the marginal probabilities of success for treated and control individuals. We show that this model is a generalization of the uplift logistic interaction model. We modify the stochastic gradient descent algorithm to allow for structured sparse solutions. This helps fitting our uplift models to a great extent. We openly share our Python codes for practitioners wishing to use our algorithms. We had the rare opportunity to collaborate with industry to get access to data from large-scale marketing campaigns favorable to the application of our methods. We show empirically that our methods are competitive with the state of the art on real data and through several simulation setting scenarios.
47

Methodological challenges in the comparative assessment of effectiveness and safety of oral anticoagulants in individuals with atrial fibrillation using administrative healthcare data

Gubaidullina, Liliya 08 1900 (has links)
La fibrillation auriculaire (FA), l’arythmie cardiaque la plus courante est un facteur de risque majeur pour le développement de l’accident vasculaire cérébral ischémique (AVC). Les anticoagulants oraux directs (AOD) ont largement remplacé la warfarine en usage clinique pour la prévention des AVC dans la FA. Cette recherche a examiné deux défis méthodologiques importants qui peuvent survenir dans les études observationnelles sur l’efficacité et l’innocuité comparatives des AOD et de la warfarine. Premièrement : un biais d’information résultant d’une classification erronée de l’exposition au traitement à la warfarine suite aux ajustements de doses fréquentes qui ne sont pas adéquatement consignés dans les données de dispensations pharmacologiques. Deuxièmement : un biais de sélection, en raison de la censure informative, généré par des mécanismes de censure différentiels, chez les patients exposés aux AOD, ou à la warfarine. À l’aide des données administratives du Québec, j’ai mené trois études de cohortes rétrospectives qui ont portées sur toutes les personnes ayant initié un anticoagulant oral de 2010 à 2016. Ces études étaient restreintes aux résidents du Québec couverts par le régime public d'assurance médicaments (environ 40% de la population au Québec), c’est-à-dire : des personnes âgées de 65 ans et plus; des bénéficiaires de l’aide sociale; des personnes qui n’ont pas accès à une assurance-maladie privée; et les personnes à leur charge. Dans la première étude, nous avons émis l'hypothèse que les données sur les réclamations en pharmacie ne reflètent pas correctement la durée de la dispensation de la warfarine. Les écarts entre les renouvellements consécutifs étaient plus grands pour la warfarine que les AOD. Dans cette étude, on a trouvé que l'écart moyen pour les usagers de la warfarine était de 9.3 jours (avec un intervalle de confiance de 95% [IC]: 8.97-9.59), l'apixaban de 3.08 jours (IC de 95%: 2.96--3.20), et de 3.15 jours pour le rivaroxaban (IC de 95%: 3.03-3.27). Les écarts entre les renouvellements consécutifs présentaient une plus grande variabilité chez les personnes qui prenaient de la warfarine comparativement à celles qui prenaient des AOD. Cette variation peut refléter les changements de posologie de la warfarine lorsque la dose quotidienne est ajustée par le professionnel de la santé en fonction des résultats du rapport normalisé international (INR). L’ajustement de la dose peut prolonger (ou raccourcir) la période couverte par le nombre de comprimés délivrés. Dans la deuxième étude, nous avons émis l'hypothèse que la définition de la durée d'exposition basée sur la variable des « jours fournis », disponible dans la base de données, et le délai de grâce fixe, entraîneront une erreur de classification différentielle de l’exposition à la warfarine par rapport aux AOD. Dans cette étude, on a utilisé deux approches pour définir la durée des dispensations : la variable des « jours fournis » disponible dans la base de données ainsi qu’une approche axée sur les données pour la définition de la durée de dispensation qui tient compte des antécédents de distribution précédents. La deuxième étude a révélé qu'en utilisant la variable des « jours fournis », la durée moyenne (et l'écart type) des durées des dispensations pour le dabigatran, le rivaroxaban, et la warfarine étaient de 19 (15), 19 (14), et de 13 (12) jours, respectivement. En utilisant l’approche fondée sur des données, les durées étaient de 20 (16), 19 (15), et de 15 (16) jours, respectivement. Ainsi, l'approche fondée sur les données s’est rapprochée de la variable des « jours fournis » pour les thérapies à dose standard telles que le dabigatran et le rivaroxaban. Une approche axée sur les données pour la définition de la durée de dispensation, qui tient compte des antécédents de distribution précédents, permet de mieux saisir la variabilité de la durée de dispensation de la warfarine par rapport à la méthode basée sur la variable des « jours fournis ». Toutefois, cela n’a pas eu d’impact sur les estimations du rapport de risque sur la sécurité comparative des AOD par rapport à la warfarine. Dans la troisième étude, nous avons émis l'hypothèse que lors de l'évaluation de l’effet d’un traitement continu avec des anticoagulants oraux (l'analyse per-protocole), la censure élimine les patients les plus malades du groupe des AOD et des patients en meilleure santé du groupe de warfarine. Cela peut baisser l'estimation de l'efficacité et de l'innocuité comparative en faveur des AOD. L’étude a démontré que les mécanismes de censure chez les initiateurs d’AOD et de warfarine étaient différents. Ainsi, certaines covariables pronostiquement significatives, telles que l’insuffisance rénale chronique et l’insuffisance cardiaque congestive, étaient associées avec une augmentation de la probabilité de censure chez les initiateurs d’AOD, et une diminution de la probabilité de censure chez les initiateurs de warfarine. Pour corriger le biais de sélection introduit par la censure, nous avons appliqué la méthode de pondération par la probabilité inverse de censure. Deux stratégies de spécification du modèle pour l’estimation des poids de censure ont été explorées : le modèle non stratifié, et le modèle stratifié en fonction de l’exposition. L’étude a démontré que lorsque les poids de censure sont générés sans tenir compte des dynamiques de censure spécifiques, les estimés ponctuels sont biaisés de 15% en faveur des AOD par rapport à l'ajustement des estimés ponctuels avec des poids de censure stratifiée selon l’exposition (rapport de risque: 1.41; IC de 95%: 1.34, 1.48 et rapport de risque: 1.26; IC de 95%: 1.20, 1.33, respectivement). Dans l’ensemble, les résultats de cette thèse ont d’importantes implications méthodologiques pour les futures études pharmacoépidémiologiques. À la lumière de ceux-ci, les résultats des études observationnelles précédentes peuvent être revus et une certaine hétérogénéité peut être expliquée. Les résultats pourraient également être extrapolés à d’autres questions cliniques. / Atrial fibrillation (AF), the most common cardiac arrhythmia is a major risk factor for the development of ischemic stroke. Direct oral anticoagulants (DOACs) replaced warfarin in clinical use for stroke prevention in AF. This research investigated two important methodological challenges that may arise in observational studies on the comparative effectiveness and safety of DOACs and warfarin. First, an information bias resulting from misclassification of exposure to dose-varying warfarin therapy when using days supplied value recorded in pharmacy claims data. Second, a selection bias due to informative censoring with differential censoring mechanisms in the DOACs- and the warfarin exposure groups. Using the Québec administrative databases, I conducted three retrospective cohort studies that included patients initiating an oral anticoagulant between 2010 and 2016. The studies were restricted to Québec residents covered by the public drug insurance plan (about 40% of Québec’s population), including those aged 65 years and older, welfare recipients, those not covered by private medical insurance, and their dependents. In the first study, we hypothesized that pharmacy claims data inadequately captured the duration of the dispensation of warfarin. Gaps between subsequent dispensations (refill gaps) and their variation are larger for warfarin than for DOACs. In this study, we found that the average refill gap for the users of warfarin was 9.3 days (95% confidence interval [CI]:8.97-9.59), apixaban 3.08 days (95%CI: 2.96--3.20), dabigatran 3.70 days (95%CI: 3.56-3.84) and rivaroxaban 3.15 days (95%CI: 3.03-3.27). The variance of refill gaps was greater among warfarin users than among DOAC users. This variation may reflect the changes in warfarin posology when the daily dose is adjusted by a physician or a pharmacist based on previously observed international normalized ratio (INR) results. The dose adjustment may lead to a prolongation of the period covered by the number of dispensed pills. In the second study, we hypothesized that the definition of duration of dispensation based on the days supplied value and a fixed grace period will lead to differential misclassification of exposure to warfarin and DOACs. This may bias the estimate of comparative safety in favor of DOACs. In this study, we used two approaches to define the duration of dispensations: the recorded days supplied value, and the longitudinal coverage approximation (data-driven) that may account for individual variation in drug usage patterns. The second study found that using the days supplied, the mean (and standard deviation) dispensation durations for dabigatran, rivaroxaban, and warfarin were 19 (15), 19 (14), and 13 (12) days, respectively. Using the data-driven approach, the durations were 20 (16), 19 (15), and 15 (16) days, respectively. Thus, the data-driven approach closely approximated the recorded days supplied value for the standard dose therapies such as dabigatran and rivaroxaban. For warfarin, the data-driven approach captured more variability in the duration of dispensations compared to the days supplied value, which may better reflect the true drug-taking behavior of warfarin. However, this did not impact the hazard ratio estimates on the comparative safety of DOACs vs. warfarin. In the third study, we hypothesized that when assessing the effect of continuous treatment with oral anticoagulants (per-protocol effect), censoring removes sicker patients from the DOACs group and healthier patients from the warfarin group. This may bias the estimate of comparative effectiveness and safety in favor of DOACs. The study showed that the mechanisms of censoring in the DOAC and the warfarin exposure groups were different. Thus, prognostically meaningful covariates, such as chronic renal failure and congestive heart failure, had an opposite direction of association with the probability of censoring in the DOACs and warfarin groups. To correct the selection bias introduced by censoring, we applied the inverse probability of censoring weights. Two strategies for the specification of the model for the estimation of censoring weights were explored: exposure-unstratified and exposure-stratified. The study found that exposure-unstratified censoring weights did not account for the differential mechanism of censoring across the treatment group and failed to eliminate the selection bias. The hazard ratio associated with continuous treatment with warfarin versus DOACs adjusted with exposure unstratified censoring weights was 15% biased in favor of DOACs compared to the hazard ratio adjusted with exposure-stratified censoring weights (hazard ratio: 1.41; 95% CI: 1.34, 1.48 and hazard ratio: 1.26; 95%CI: 1.20, 1.33, respectively). Overall, the findings of this thesis have important methodological implications for future pharmacoepidemiologic studies. Moreover, the results of the previous observational studies can be reappraised, and some heterogeneity can be explained. The findings can be extrapolated to other clinical questions.
48

Toward causal representation and structure learning

Mansouri Tehrani, Sayed Mohammadamin 08 1900 (has links)
Dans les annales de l'Intelligence Artificielle (IA), la quête incessante pour émuler la cognition humaine dans les machines a sous-tendu l'évolution technologique, repoussant les limites du potentiel humain et des capacités de résolution de problèmes. L'intégration de l'IA a catalysé des progrès remarquables, pénétrant divers domaines et redéfinissant des industries. Cependant, un défi demeure imperturbable : l'obstacle de la généralisation hors de la distribution (OOD). Alors que l'IA triomphe avec des données familières, elle échoue avec des données en dehors de son domaine d'entraînement. En santé, en finance et au-delà, les limitations de l'IA entravent l'adaptation à des scénarios nouveaux. Cette lacune découle de l'écart entre les schémas appris et les caractéristiques causales et invariantes sous-jacentes, entravant l'adaptabilité à des scénarios inexplorés. Cette thèse franchit des étapes significatives pour aborder cette question en innovant et en exploitant des méthodes issues de l'apprentissage de structure causale et de représentation. Le parcours commence par un algorithme novateur d'apprentissage de structure, les ``Reusable Factor Graphs'', qui tire parti des biais inductifs issus de la causalité et de la cognition humaine pour une meilleure généralisation. Ensuite, en explorant l'apprentissage de représentation causale, nous découvrons des représentations désenchevêtrées centrées sur les objets en utilisant une supervision faible basée sur une connaissance partielle de la structure causale des données. Ces connaissances se conjuguent pour préconiser l'apprentissage conjoint de la structure causale et de la représentation. L'architecture proposée, les ``Reusable Slotwise Mechanisms'' (RSM), relie théorie et pratique, démontrant une promesse réelle à travers ses représentations centrées sur les objets et ses mécanismes causaux réutilisables. Cette fusion offre une solution potentielle pour surmonter les limitations de la généralisation OOD en IA. / In the annals of Artificial Intelligence (AI), an enduring quest to emulate human cognition in machines has underpinned technological evolution, driving the boundaries of human potential and problem-solving capabilities. The integration of AI has catalyzed remarkable progress, infiltrating various domains and redefining industries. Yet, a challenge remains unshaken: the hurdle of out-of-distribution (OOD) generalization. While AI triumphs with familiar data, it falters with data outside its training realm. In healthcare, finance, and beyond, AI's limitations hinder adaptation to novel scenarios. This deficiency arises from the gap between learned patterns and underlying causal and invariant features, hindering adaptability to uncharted scenarios. This thesis takes significant steps toward tackling this issue by innovating and leveraging methods from causal structure and representation learning. The journey begins with an innovative structure learning algorithm, Reusable Factor Graphs, leveraging inductive biases from causality and human cognition for improved generalization. Next, delving into causal representation learning, we uncover object-centric disentangled representations using weak supervision from partial knowledge of the causal structure of data. These insights synergize in advocating joint learning of causal structure and representation. The proposed Reusable Slotwise Mechanisms (RSM) architecture bridges theory and practice, demonstrating real-world promise through its object-centric representations and reusable causal mechanisms. This fusion offers a potential solution for tackling OOD generalization limitations in AI.
49

Les victimisations et les conséquences de la traite et l’esclavage négriers transatlantique selon les Afro-descendants

Tagodoé, Noutépé 09 1900 (has links)
La traite et l’esclavage négriers transatlantique n’ont jamais été étudiés d’un point de vue criminologique. En fait, à part l’histoire, peu de disciplines des sciences sociales et humaines se sont intéressées aux évènements qui constituent la traite et l’esclavage négriers transatlantique. Toutefois, de récentes recherches commencent à se pencher sur les séquelles résultant des multiples victimisations (agressions physiques et psychologiques) subies par les Noirs durant la traite et l’esclavage négriers transatlantique. Nous postulons que la criminologie peut également contribuer à une meilleure compréhension de ces évènements. Ainsi, cette étude vise à sonder les perceptions des Afro-descendants sur les victimisations et les conséquences de la traite et de l’esclavage négriers transatlantique. L’analyse des entretiens réalisés démontrent clairement que la traite et l’esclavage négriers transatlantique n’appartiennent pas seulement au passé. Au contraire, la traite et l’esclavage négriers transatlantique restent présents dans les esprits et les cœurs. Ils sont surtout perçus comme une source de victimisations actuelles touchant la communauté africaine et antillaise tels que la faible confiance en soi, la faible estime de soi, la hiérarchie de la couleur, le racisme interne…Aussi, tous les répondants plaident pour au moins une forme de réparation (pécuniaire et monétaire, éthique ou politique, historique, éducative, psychologique, diplomatique) des conséquences de la traite et l’esclavage négriers transatlantique. Les entrevues mettent également en évidence une division dans les représentations basées sur la version (fonctionnaliste ou intentionnaliste) de cette histoire, ainsi que des différences de représentations selon le groupe ethnique d’appartenance (Africain ou Antillais). / The transatlantic slave trade has never been studied in a criminology way. In fact, with the exception to history, few disciplines in the social sciences and human studies have made interest to study the surrounding events of the slave trade. However, recent studies have begun to seize the multiple victimizations (physical and psychological attacks) undergone by Blacks during the transatlantic slave trade. We postulate that criminology can also contribute to a better understanding of the transatlantic slave trade, therefore, this study aims to evaluate Afro-descendants perceptions of the transatlantic slave trade victimizations and effects. The qualitative interview data clearly illustrates that the slave trade does not belong to the past. It is quite the contrary, the slave trade is still vivid on the spirits and the hearts. The atlantic slave trade effects hit the Afro-descendants in their daily life by means of low self esteem, low self confidence, skin color hierarchy, internal racism and self hatred. Consequently, all respondents argue for, at least, a form of reparation (monetary, ethical or political, historical, educational, pscychological, diplomatic) for the atlantic slave trade and its consequences. The data, moreover, shows that there is a division in the representations of the atlantic slave trade between those who believe the functionalist approach and those who believe the intentionalist approach, and also differences of representations according to the ethnic group (African or Carraibean).
50

Analyse de l'introduction de l'EDI dans les entreprises congolaises : une contribution à l'impact organisationnel des TI / EDI adoption's analysis in Congolese firms : an organizational structure impact of IT.

Ivinza-Lepapa, Alphonse Christian 07 December 2007 (has links)
Résumé Le cadre théorique de la contingence structurelle associe généralement « contexte, structure et performance » (Burns et Stalker, 1961; Woodward, 1965; Lawrence et Lorsch, 1967 ; Mintzberg, 1979).Le besoin de tester cette théorie dans l’environnement d’un pays sous développé (PSD) nous a conduit, dans cette recherche, à l’utilisation d’un cadre réduit basé uniquement sur des liens entre la technologie (remplacée par TI) et la structure (Galbraith, 1972 ; Lacrampe, 1974 ; Leifer, 1988). Notre cadre théorique s’appuie sur les approches managériales, économiques et organisationnelles des TI et de l’EDI (Leavitt, 1968 ; Scott Morton, 1991). Il utilise la théorie contingente de la gestion comptable (Otley, 1980; Chapman, 1997) et des systèmes d’information comptable AIS (Sutton, 1995; Maudlin et Ruchala, 1999; Baldwin et alii, 2000; Dunk, 2001) comme domaine d’opérationnalisation (système d’information fonctionnel). Ce travail commence par la constitution d’une boîte à outils contenant toutes les notions de base à utiliser (théories organisationnelles, TI - technologies de l'information, réseaux informatiques et EDI – échange des données informatisées), conformément aux principes fondateurs du MIS basés sur trois disciplines : Computer, Management et Organization Sciences (Culman et Swanson, 1986). La grille de lecture de la littérature est inspirée par la taxonomie de Urbaczenski, Jessup and Wheeler (2002) qui propose quatre catégories de recherche : économique, organisationnelle, technique et autre. Cette revue de la littérature permettra de proposer un modèle de recherche d’impact des TI et de l’EDI basé sur le cadre de référence structuro - fonctionnaliste et élaboré selon les principes de la théorie des systèmes. Le modèle de recherche utilise une structure causale conçue suivant l’impératif technologique (Markus et Robey, 1988). Il vise à expliquer l'impact organisationnel des TI à travers la stratégie (Porter et Millar, 1985; Wiseman, 1985 ; Palvia, Palvia et Zigli, 1990) sur la conception des MIS / AIS et des structures organisationnelles dans les entreprises d’un pays sous développé (PSD). Ce modèle d’impact organisationnel teste les hypothèses proposées, à partir des données d’une observation longitudinale (1970 à 2002) de quatorze (14) entreprises de la République Démocratique du Congo. Les entreprises échantillonnées de façon non probabiliste en deux catégories sont observées à travers l'introduction de l'EDI dans le système d’information comptable. Les tests de structure des données et de fonctionnement du modèle établissent l’impact des TI sur les structures organisationnelles et parfois sur les systèmes d’information, mais avec des nuances d’atténuation et de contribution suivant la nature de l’environnement ou l’usage de la stratégie. La conclusion de cette étude propose un processus d’apprentissage aux managers congolais pour éviter les dysfonctionnements organisationnels lors de l’adoption d’une nouvelle TI. Elle pose aussi le problème de validité des structures causales utilisées dans les recherches pour analyser l’impact organisationnel des TI. Abstract EDI adoption’s analysis in Congolese firms : an organizational structure impact of IT This research aims to identify the impact of IT (information technology) on organizational structure transformation in the firms of an under developed country. The framework of the contingency theory generally associates "context, structure and performance" (Burns and Stalker, 1961; Woodward, 1965; Lawrence and Lorsch, 1967; Mintzberg, 1979). The model of impact of TI and EDI suggested by this research uses a reduced framework only based on links between technology (replaced by IT) and structure (Galbraith, 1972; Lacrampe, 1974; Leifer, 1988). Based on the original paradigm of MIS, our theoretical framework uses managerial, economic and organizational approaches of IT and EDI (Leavitt, 1968; Scott Morton, 1991). It uses the contingent theory of accounting management (Otley, 1980; Chapman, 1997) and of accounting information systems (AIS - Sutton, 1995; Maudlin and Ruchala, 1999; Baldwin and alii, 2000; Dunk, 2001) as empirical field (functional information system). This workshop begins with the constitution of a toolbox containing all basic concepts to use (organization theories, IT - information technologies, computer networks and EDI – electronic data interchange), in accordance with the original MIS paradigm founded on three disciplines: Computer, Management and Organization Sciences (Culman and Swanson, 1986, p. 298). Then, we draw a theoretical framework of analysis which begins with a literature review inspired by Urbaczenski, Jessup and Wheeler’s taxonomy (2002). This literature review will allow to proposing a research model of IT and EDI designed according to the functionalist framework and system theory principles. The model of research uses a causal structure conceived according to the technological imperative (Markus and Robey, 1988). It aims at explaining the organizational impact of IT through the strategy (Porter and Millar, 1985; Wiseman, 1985; Palvia, Palvia and Zigli, 1990) on the design of MIS / AIS and the organizational structures in the companies of an under developed country (UDC). This study tests the hypotheses of the organizational impact‘s model suggested, basing from the data of a longitudinal observation (1970 to 2002) of fourteen (14) Congolese firms. The companies sampled by convenience in two layers are observed through the introduction of EDI into the accounting information system. The tests of data structure and of operating model performed on the introduction of accounting EDI, confirm the impact of IT on the organizational structures and sometimes on the information systems - IS. That with nuances of attenuation and contribution according to the nature of the environment or the use of the strategy. The conclusion of this study proposes a process of training to the congolese managers to avoid the organizational dysfunctions during the adoption of new IT. It poses also the problem of validity of the causal structures used in research to analyze the organizational impact of IT.

Page generated in 0.0351 seconds