201 |
Identification de nouveaux substrats des kinases Erk1/2 par une approche bio-informatique, pharmacologique et phosphoprotéomiqueCourcelles, Mathieu 12 1900 (has links)
La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques.
Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions.
Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine.
Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle. / Phosphorylation is an omnipresent post-translational modification of proteins that regulates numerous cellular processes. This modification is controlled by the enzymatic activity of protein kinases and phosphatases. Erk1/2 kinases are central to an important signaling pathway that modulates translation, cell cycle, cytoskeleton rearrangement and transcription. They are also implicated in organism development, glucose metabolism, immune response and memory. Different human pathologies such as diabetes, cardiovascular diseases, and most importantly cancer, are associated with misregulation or mutations in members of this pathway. Considering the biological and clinical importance of those two kinases, discovering the extent of their enzymatic activity could favor the development of new pharmacological therapies.
In this context, the principal objective of this thesis was to measure the influence of this pathway on the phosphoproteome and to discover new substrates of the Erk1/2 kinases. A phosphoproteomics study on the pharmacological inhibition kinetics of the Erk1/2 signaling pathway was initiated. The success of this study was based on three key technologies such as phosphopeptides enrichment with titanium dioxide, high-throughput and high-resolution mass spectrometry, and the development of ProteoConnections, a bioinformatics analysis platform. This platform is dedicated to organize proteomics data, evaluate data quality, report changes of abundance and accelerate data interpretation. A distinctive functionality of ProteoConnections is the annotation of phosphorylated sites (kinases, domains, structures, conservation, phospho-dependant protein interactions, etc.). This information was essential for the dataset analysis of 9615 phosphorylated sites identified on 2108 proteins during the study, which is, until now, the largest one reported for rat. Protein domain analysis revealed that domains implicated in proteins, nucleic acids and other molecules binding were the most frequently phosphorylated and that these sites are strategically located to affect the interactions.
An algorithm was implemented to find Erk1/2 kinases potential substrates of identified sites using their phosphorylation motif, serum stimulation and Mek1/2 inhibition kinetic profile. A list of 157 potential Erk1/2 substrates was obtained. Twelve of them were previously reported and many more have functions associated to known substrates. Six substrates (Ddx47, Hmg20a, Junb, Map2k2, Numa1, and Rras2) were confirmed by in vitro kinase assays with Erk1. Our immunofluorescence experiments demonstrated that the phosphorylation of Hmg20a on serine 105 by Erk1/2 affects the nucleocytoplasmic localization of this protein.
Finally, phosphopeptides positional isomers, peptides with the same amino acids sequence but phosphorylated at different positions, were studied with two new algorithms. This study allowed us to determine their frequency in an enriched phosphopeptide extract and to evaluate their separation by reverse-phase liquid chromatography. An analytical strategy that uses one of the algorithms was developed to do a targeted mass spectrometry analysis to discover the isomers that had been missed by the conventional method.
|
202 |
Signaling potential gender effect in a spontaneous reporting system : cardiac effects associated with the use of antibioticsFerrarotto, Felicia January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
203 |
Right to asylum and border control : implications of european union policies on access to EU territory of people in need of international protectionKalaydzhieva, Varka 07 1900 (has links)
Depuis plusieurs années, les États membres de l’Union européenne (UE) se soumettent à des politiques restrictives, en matière d’asile, qui les contraignent à respecter leur engagement de protéger les personnes qui fuient la persécution.
Plusieurs politiques de dissuasion de l’UE sont controversées. Certaines ont d’abord été élaborées dans différents États, avant que l’UE ne mette en place une politique commune en matière d’asile. Certaines des ces politiques migratoires ont été copiées, et ont un effet négatif sur la transformation des procédures d’asile et du droit des réfugiés dans d’autres pays, tel le Canada.
En raison des normes minimales imposées par la législation de l’UE, les États membres adoptent des politiques et instaurent des pratiques, qui sont mises en doute et sont critiquées par l’UNHCR et les ONG, quant au respect des obligations internationales à l'égard des droits de la personne.
Parmi les politiques et les pratiques les plus critiquées certaines touchent le secteur du contrôle frontalier. En tentant de remédier à l’abolition des frontières internes, les États membres imposent aux demandeurs d’asile des barrières migratoires quasi impossibles à surmonter. Les forçant ainsi à s’entasser dans des centres de migration, au nord de l’Afrique, à rebrousser chemin ou encore à mourir en haute mer. / For many years, EU member states have imposed strict controls on asylum and have often failed to respect their commitment to provide protection to persons fleeing persecution. Many of the controversial EU policies of deterrence have been developed by different member states and implemented on an EU level. Some of those policies have been copied and brought negative changes to the refugee law system in other countries, such as Canada. Under the minimal standards imposed by the EU legislation, the states are adopting and putting in place policies and practices whose compliance with the international human rights obligations is questionable and criticized by the UNHCR and NGOs.
Some of the most controversial policies and practices put in place are in the area of border control. Aiming to compensate for the abolishment of internal borders, EU member states are imposing nearly insurmountable barriers to asylum seekers who find themselves suffocating in migration centres in North Africa, turned back or left to die at high sea.
|
204 |
La spécificité des contrats liés aux technologies issues du numérique. Quelles singularités ces contrats présentent-ils, comparés à ceux du monde analogique ? / The specificity of agreements linked to digital technologies. What are their singularities, compared with the agreements of the analogical world?Cohen, Véronique-Déborah 16 December 2011 (has links)
Les technologies issues du numérique ont donné naissance à des contrats qui nécessitent une approche particulière et qui posent parfois des difficultés de mise en oeuvre, d’application, d’interprétation, et même de qualification, tant leur existence ne peut désormais plus être ignorée dans le paysage juridique. A cela, s’ajoute le fait qu’ils répondent à un réel besoin, à la fois de la part des praticiens du droit et des acteurs de ces contrats. C’est sans compter qu’ils se démarquent des conventions issues du monde analogique en de nombreux points, sachant que néanmoins, ils s’inscrivent dans le cadre d’une évolution logique et naturelle du droit. C’est ainsi que depuis quelques années, le droit voit se profiler des contrats imposant au législateur d’élaborer de nouveaux textes, en raison des lacunes juridiques encore grandes en la matière. La question qui se pose d’emblée est alors de savoir quelle est leur place dans la vie juridique, et surtout, comment ils sont perçus et analysés par rapport à ceux plus « classiques » issus du monde analogique. Dès lors, d’autres interrogations s’enchaînent : dans quel type d’environnement évoluent-ils ? Quels sont les critères qui caractérisent le mieux les contrats liés aux technologies issues du numérique ? Et surtout, qu’est-ce qui les rend si spécifiques et si inédits par rapport aux autres contrats, et qu’est-ce qui fait leur essence même ? On en vient alors à se demander si la dématérialisation de leur objet et leur orientation tournée vers les technologies influencent leur mode de formation et leur exécution. Autrement dit, quel est leur impact sur l’équilibre contractuel et quelles sont leurs implications juridiques concrètes ? Une chose est sûre : si ces contrats font appel à un vocabulaire technique propre au monde numérique et que leur objet peut sembler de prime abord inédit et complexe, en réalité, il en est autrement, les prestations auxquelles ils renvoient étant au final, très proches de celles qui nous entourent depuis toujours. / Over the last decades, the fast-evolving technologies and the information and communication technologies (I.C.T) have been widespread in the current analogical world. They are engendered agreements which need a particular approach and which can’t be ignored today, because of their difficulties of application, interpretation, and even of qualification. The analogical world failed to offer a legal framework to that innovative and dynamic digital world creating tremendous legal uncertainty. Consequently, the emerging lack of appropriate agreements forced policymakers, regulators and legislators to elaborate new governance, new regulation and new acts to respond to those needs and expectations issued of the Information Society. The purpose is also to answer to the real needs of the lawyers and the professors of Law. These agreements are very different of the agreements of the analogical world in numerous points, but are inscribed in a logical and natural evolution of the Right of contracts. That’s why, it’s necessary to know what is their place in the legal life, and above all, how they are perceived and analyzed regarding the more "classical" contracts of the analogical world. Furthermore, other questions may be asked : in which kind of environment they evolve? What is characterizing the contracts linked to the information and communication technologies? What makes them so specific and so particular compared with the other agreements? The dematerialization of technology centered object can influence their way of formation, their execution and the balance of the agreements? What are their legal implications? If these agreements make reference to an specific and technical terminology of I.C.T., to the digital world, and if their object may be complex, in reality, the services generated by the Information Society are surrounding us in our daily life and are not different of the services we know since ever.
|
205 |
Rapprochement de données pour la reconnaissance d'entités dans les documents océrisés / Data matching for entity recognition in ocred documentsKooli, Nihel 13 September 2016 (has links)
Cette thèse traite de la reconnaissance d'entités dans les documents océrisés guidée par une base de données. Une entité peut être, par exemple, une entreprise décrite par son nom, son adresse, son numéro de téléphone, son numéro TVA, etc. ou des méta-données d'un article scientifique tels que son titre, ses auteurs et leurs affiliations, le nom de son journal, etc. Disposant d'un ensemble d'entités structurées sous forme d'enregistrements dans une base de données et d'un document contenant une ou plusieurs de ces entités, nous cherchons à identifier les entités contenues dans le document en utilisant la base de données. Ce travail est motivé par une application industrielle qui vise l'automatisation du traitement des images de documents administratifs arrivant en flux continu. Nous avons abordé ce problème comme un problème de rapprochement entre le contenu du document et celui de la base de données. Les difficultés de cette tâche sont dues à la variabilité de la représentation d'attributs d'entités dans la base et le document et à la présence d'attributs similaires dans des entités différentes. À cela s'ajoutent les redondances d'enregistrements et les erreurs de saisie dans la base de données et l'altération de la structure et du contenu du document, causée par l'OCR. Devant ces problèmes, nous avons opté pour une démarche en deux étapes : la résolution d'entités et la reconnaissance d'entités. La première étape consiste à coupler les enregistrements se référant à une même entité et à les synthétiser dans un modèle entité. Pour ce faire, nous avons proposé une approche supervisée basée sur la combinaison de plusieurs mesures de similarité entre attributs. Ces mesures permettent de tolérer quelques erreurs sur les caractères et de tenir compte des permutations entre termes. La deuxième étape vise à rapprocher les entités mentionnées dans un document avec le modèle entité obtenu. Nous avons procédé par deux manières différentes, l'une utilise le rapprochement par le contenu et l'autre intègre le rapprochement par la structure. Pour le rapprochement par le contenu, nous avons proposé deux méthodes : M-EROCS et ERBL. M-EROCS, une amélioration/adaptation d'une méthode de l'état de l'art, consiste à faire correspondre les blocs de l'OCR avec le modèle entité en se basant sur un score qui tolère les erreurs d'OCR et les variabilités d'attributs. ERBL consiste à étiqueter le document par les attributs d'entités et à regrouper ces labels en entités. Pour le rapprochement par les structures, il s'agit d'exploiter les relations structurelles entre les labels d'une entité pour corriger les erreurs d'étiquetage. La méthode proposée, nommée G-ELSE, consiste à utiliser le rapprochement inexact de graphes attribués modélisant des structures locales, avec un modèle structurel appris pour cet objectif. Cette thèse étant effectuée en collaboration avec la société ITESOFT-Yooz, nous avons expérimenté toutes les étapes proposées sur deux corpus administratifs et un troisième corpus extrait du Web / This thesis focuses on entity recognition in documents recognized by OCR, driven by a database. An entity is a homogeneous group of attributes such as an enterprise in a business form described by the name, the address, the contact numbers, etc. or meta-data of a scientific paper representing the title, the authors and their affiliation, etc. Given a database which describes entities by its records and a document which contains one or more entities from this database, we are looking to identify entities in the document using the database. This work is motivated by an industrial application which aims to automate the image document processing, arriving in a continuous stream. We addressed this problem as a matching issue between the document and the database contents. The difficulties of this task are due to the variability of the entity attributes representation in the database and in the document and to the presence of similar attributes in different entities. Added to this are the record redundancy and typing errors in the database, and the alteration of the structure and the content of the document, caused by OCR. To deal with these problems, we opted for a two-step approach: entity resolution and entity recognition. The first step is to link the records referring to the same entity and to synthesize them in an entity model. For this purpose, we proposed a supervised approach based on a combination of several similarity measures between attributes. These measures tolerate character mistakes and take into account the word permutation. The second step aims to match the entities mentioned in documents with the resulting entity model. We proceeded by two different ways, one uses the content matching and the other integrates the structure matching. For the content matching, we proposed two methods: M-EROCS and ERBL. M-EROCS, an improvement / adaptation of a state of the art method, is to match OCR blocks with the entity model based on a score that tolerates the OCR errors and the attribute variability. ERBL is to label the document with the entity attributes and to group these labels into entities. The structure matching is to exploit the structural relationships between the entity labels to correct the mislabeling. The proposed method, called G-ELSE, is based on local structure graph matching with a structural model which is learned for this purpose. This thesis being carried out in collaboration with the ITESOFT-Yooz society, we have experimented all the proposed steps on two administrative corpuses and a third one extracted from the web
|
206 |
Evolutionary analysis of the β-lactamase families / Analyse évolutive des familles de β-lactamaseKeshri, Vivek 05 July 2018 (has links)
Les antibiotiques β-lactamines sont parmi les médicaments antimicrobiens les plus anciens et les plus utilisés. L'enzyme bactérienne β-lactamase hydrolyse l'antibiotique β-lactame en cassant la structure de base "anneau β-lactame". Pour identifier les nouvelles β-lactamases, une étude complète a été réalisée dans diverses bases de données biologiques telles que Human Microbiome Project, env_nr et NCBI nr. L'analyse a révélé que les séquences ancestrales putatives et les recherches de profil HMM jouaient un rôle important dans l'identification de la base de données homologue et métagénomique à distance dans l'enzyme β-lactamase existante comme matière noire. Les larges analyses phylogénétiques des β-lactamases existantes et nouvellement identifiées représentent les nouveaux clades dans les arbres. En outre, l'activité d'hydrolyse des antibiotiques β-lactamines de séquences nouvellement identifiées (provenant d'archées et d'humains) a été étudiée en laboratoire, ce qui montre l'activité de la β-lactamase. La deuxième phase de l'étude a été entreprise pour examiner l'évolution fonctionnelle des β-lactamases. Premièrement, des séquences de protéines ß-lactamase 1155 ont été extraites de la base de données ARG-ANNOT et des valeurs CMI la littérature correspondante. Les résultats ont révélé que l'activité fonctionnelle de la β-lactamase évoluait de manière convergente au sein de la classe moléculaire. La troisième phase de cette thèse représente le développement d'une base de données intégrative de β-lactamases. La base de données publique actuelle de β-lactamases a des informations limitées, par conséquence, une base de données intégrative a été développée. / The β-lactam antibiotics are one of the oldest and widely used antimicrobial drugs. The bacterial enzyme β-lactamase hydrolyzes the β-lactam antibiotic by breaking the core structure “β-lactam ring”. To identify the novel β-lactamases a comprehensive investigation was performed in different biological databases such as Human Microbiome Project, env_nr, and NCBI nr. The analysis revealed that putative ancestral sequences and HMM profile searches played a significant role in the identification of remote homologous and uncovered the existing β-lactamase enzyme in the metagenomic database as dark-matter. The comprehensive phylogenetic analyses of extant and newly identified β-lactamase represent the novel clades in the trees. Further, the β-lactam antibiotic hydrolysis activity of newly identified sequences (from archaea and human) was investigated in laboratory, which shows β-lactamase activity.The second phase of the investigation was undertaken to examine the functional evolution of β-lactamases. First, 1155 β-lactamase protein sequences were retrieved from ARG-ANNOT database and MIC values from the corresponding literature. The results revealed that the functional activity of β-lactamase evolved convergently within the molecular class.The third phase of this thesis presents development of an integrative β-lactamase database. The existing public database of β-lactamase has limited information, therefore, an integrative database was developed.
|
207 |
Base de données et cartographie juridiques, deux outils d'aide à la décision pour une gestion intégrée des espaces naturels : une proposition de modélisation du droit / Legal database and legal mapping, two decision support tools for integrated management of natural areas : a proposal of legal modelingBenzada Jouira, Karima 30 June 2014 (has links)
A l’instar des autres disciplines, notamment celles relatives à l’informatique, le développement technologique et l’avènement de nouvelles techniques ont permis de faire évoluer une certaine manière de connaître et d’appréhender le droit. Cette recherche vise plus particulièrement le droit relatif aux espaces naturels et tente d’apporter, par l’utilisation des systèmes d’information, une aide à la décision portant sur des problèmes juridiques posés par la diversité́ des instruments de protection de la nature et des acteurs concernés par cette protection. Elle propose l’élaboration d’une méthodologie collaborative et l’expérimentation de deux outils analytiques visant à faciliter l'aide à la décision en matière de protection des espaces naturels, à savoir une base de données juridiques Jurisbase et une cartographie juridique Juriscarto. / Like other disciplines, particularly those related to computing, the development of high technologies and the emergence of new technics allowed the development of a certain knowledge and understanding concerning law. This research focuses on law related to natural areas. It aims at providing, through the use of information systems, a decision support to legal problems posed by the diversity of instruments used to protect natural areas, and the diversity of actors involved in such a protection. This research proposes the development of a collaborative methodology and the experiment of two analytical tools aiming at facilitating the decision making process in the protection of natural areas, namely a legal database Jurisbase, and legal mapping Juriscarto.
|
208 |
Modélisation sémantique des bases de données d'inventaires en cycle de vie / Semantic modelling of life cycle inventory databasesBertin, Benjamin 25 June 2013 (has links)
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise. / Environmental impact assessment of goods and services is nowadays a major challenge for both economic and ethical reasons. Life Cycle Assessment provides a well accepted methodology for modeling environmental impacts of human activities. This methodology relies on the decomposition of a studied system into interdependent processes in a step called Life Cycle Inventory. Every process has several environmental impacts and the composition of those processes provides the cumulated environmental impact for the studied human activities. Several organizations provide processes databases containing several thousands of processes with their interdependency links that are used by LCA practitioners to do an LCA study. Understanding and audit of those databases requires to analyze a huge amount of processes and their dependency relations. But those databases can contain thousands of processes linked together. We identified two problems that the experts faces using those databases: - organize the processes and their dependency relations to improve the comprehensibility; - calculate the impacts and, if it is not possible, find why it is not feasible. In this thesis, we: - show that there are some semantic similarities between the processes and their dependency relations and propose a new way to model the dependency relations in an inventory database. In our approach, we semantically index the processes using an ontology and we use a multi-layers model of the dependency relations. We also study a declarative approach of this multi-layers approach; - propose a method to calculate the environmental impacts of the processes based on linear algebra and graph theory, and we study the conditions of the feasibility of this calculation when we have a cyclic model. We developed a prototype based on this approach that showed some convincing results on different use cases. We tested our prototype on a case study based on a data set extracted from the National Renewable Energy restricted to the electricity production in the United-States.
|
209 |
Evaluation de l'abus et du détournement des médicaments psychoactifs en addictovigilance : analyse de bases de données hétérogènesPauly, Vanessa 26 September 2011 (has links)
L’objectif de ce travail était d’analyser de manière conjointe différents indicateurs d’abus, de dépendance et de détournement de médicaments psychoactifs en conditions réelles d’utilisation issus de sources de données hétérogènes afin d’en présenter une vision synthétique. Les sources de données utilisées dans ce travail sont issues des outils et programmes des Centres d’Evaluation et d’Information sur la Pharmacodépendance – Addictovigilance (CEIP-A). Elles permettent de mesurer directement l’abus auprès de populations spécifiques de patients dépendants ou sous traitement de substitution par l’enquête OPPIDUM (Observation des Produits Psychotropes Illicites ou Détournés de leur Utilisation Médicamenteuse). Ces outils permettent aussi de mesurer le détournement via la mesure du nombre d’ordonnances falsifiées par l’enquête OSIAP (Ordonnances Suspectes, Indicateur d’Abus Possible) ainsi que la mesure du phénomène de « Doctor Shopping » (chevauchement d’ordonnances) et la mesure du nombre de patients présentant des comportements déviants (issu d’une analyse de classification) à partir de bases de données de remboursement de l’assurance maladie. Cette approche multi-sources a d’abord été appliquée à l’analyse de l’importance du détournement d’usage du clonazépam (Publication n°1). Ce travail a permis de mettre en évidence le détournement émergent du clonazépam et a surtout permis d’illustrer les difficultés à faire émerger cette information de manière cohérente et standardisée au travers des différentes sources de données. Ensuite, l’un des pré-requis d’un système de surveillance de l’abus et du détournement de médicaments étant de permettre d’étudier des tendances évolutives, nous avons proposé la méthode de classification visant à établir des profils de sujets déviants de manière à analyser l’évolution de détournement d’usage de méthyphénidate sur quatre années (Publication n°2). Cette méthode de classification a par la suite, été appliquée de manière conjointe à une méthode de mesure du « Doctor Shopping » pour étudier le détournement d’usage de la Buprenorphine Haut Dosage (BHD) dans la région PACA-Corse (Publication n°3). Cette étude nous a non seulement permis de mettre en évidence un problème important de détournement d’usage de la BHD mais elle nous a permis aussi de montrer la concordance entre ces deux méthodes (mesure du « Doctor Shopping » et méthode de classification) et d’évaluer leurs apports respectifs pour la surveillance de l’abus des médicaments. Ces deux méthodes ont par la suite été analysées de manière conjointe aux données issues des enquêtes OPPPIDUM et OSIAP pour permettre d’étudier et de comparer le détournement d’usage des médicaments de la famille des benzodiazépines (Publication n°4) et des opioïdes (Publication n°5). Cette approche multi-sources permet de limiter les biais inhérents à chaque méthode ou source prise isolément. L’ensemble de nos travaux met en exergue la pertinence d’un tel système pour évaluer l’abus d’un médicament mais aussi pour le comparer à d’autres substances. Néanmoins, le développement d’un tel système appliqué au domaine de la pharmacodépendance est relativement nouveau, et nécessite des améliorations tant dans l’intégration d’autres sources de données, que dans la méthodologie employée pour intégrer et synthétiser l’information ainsi obtenue. Finalement, cette thèse a montré que les CEIP-A avaient le potentiel pour mettre en œuvre un système multi-sources pouvant apporter une réelle contribution à l’étude de la pharmacodépendance en France. / The objective of this work was to analyze abuse, dependence and diversion of psychoactive medicines in real settings using jointly different indicators issued from mixed datasources in order to present a synthetic vision. The datasources used in this work are issued from the tools developed by the Centres for Evaluation and Information on Pharmacodependency (CEIP). They allow to measure directly drug abuse with specific populations of dependent patients or under opiate treatment (OPPIDUM (Observation of the Illicit Psychotropic Products or Diverted from their Medicinal Use) survey)). These tools also allow to measure the diversion via the measure of the phenomenon of “doctor shopping” (overlapping of prescriptions) and the measure of the number of patients presenting a deviant behaviour from general health insurance databases; then they measure diversion through falsified prescriptions presented at pharmacies (the OSIAP (Forged prescriptions indicating potential abuse) survey).This multisources approach has been firstly applied to analyse abuse and diversion of clonazepam (1st publication). This study has highlighted the emerging problem of diversion of clonazepam, after flunitrazepam and has also illustrated the difficulty of analysing with consistency the information gathered by these different datasources. A good system for controlling drug diversion and abuse has to allow analysing trends. We have so proposed a classification method aiming at revealing profile of subjects with deviant behaviour to use it on an evolutive manner so as to study diversion of methylphenidate on a four year period (2nd publication). This classification method has then been applied jointly with a method measuring the “doctor shopping” to analyse diversion of High Dosage Buprenorphine (HDB) (3rd publication). This study has revealed an important problem of diversion of HDB, has also demonstrated that the two methods were globally concordant and has allowed to evaluate their advantages for the controlling of the abuse and diversion of prescription drugs. These two last methods have then been analysed jointly with data from the OPPIDUM and OSIAP surveys to allow to study and compare diversion of benzodiazepine drugs (4th publication) and opioids drugs (5th publication). This multisource approach allows to limit biases linked to each method seen individually. Our work points out the relevance of such a multisources system to estimate the abuse of a prescription drug and to compare it with the other substances. Nevertheless, the development of such a system applied to the domain of the drug dependency is relatively new, and requires improvements concerning the integration of the other sources of data and the methodology used to join and synthetize the information obtained. Finally, such a system "multi-sources” has the potential to exist and to make a real contribution to the domain of the drug dependency in France.
|
210 |
La déconstruction du droit d'auteur sous prétexte de technologie numérique / Deconstruction of author's right under the pretext of digital technologyGraça, Orlanda Gisela 09 November 2012 (has links)
L'avènement des technologies numériques, notamment des réseaux numériques, a servi de prétexte pour introduire dans le droit d'auteur des réformes qui mènent à une mutation profonde de ce droit. Un précédent a été créé par l'inclusion des logiciels et des bases de données électroniques dans son champ de protection ; ce sont de créations strictement fonctionnelles, qui ne devraient pas appartenir à la catégorie « oeuvre de l'esprit ». Cela ne pouvait qu'engendrer une distorsion du critère de l'originalité. En outre, la nature de ces objets imposera d'adapter le régime juridique ainsi que les règles de titularité. Naquit ainsi, au sein du droit d'auteur classique, un paradigme spécial que tout rapproche du copyright américain. Centré sur l'investisseur et sur la notion de fixation, il est désormais en train de contaminer le droit d'auteur. Au demeurant, on ne peut négliger l'influence capitale du copyright américain dans tout ce processus de construction et d'extension puisque certains de ses concepts et principes se retrouvent aujourd'hui dans le droit d'auteur. On assiste à un véritable mouvement de déconstruction du droit d'auteur personnaliste hérité de la Révolution française et dont l'apogée fut la loi du 11 mars 1957. Nous mettrons en évidence les divers facteurs qui ont agi et qui agissent conjointement aux niveaux national, communautaire et international, tout en démontrant que si l'environnement numérique pose certes des difficultés pour l'exploitation des oeuvres de l'esprit, le droit d'auteur, centré sur l'auteur et fondé sur la notion de communication au public, était bel et bien capable d'y faire face sans avoir besoin d'ébranler ses assises / The advent of digital technologies, including digital networks, served as a pretext to introduce author's right reforms that lead to a profound change in this right. A precedent was set with the inclusion of software and electronic databases in the field of protection as these are strictly functional creations that should not belong to the category of "oeuvre de l'esprit". This inclusion leads to a distortion of the criteria of originality as well as the need to change both the rules of ownership and the legal regime of author's rights. Consequently a special paradigm, similar to U.S. copyright, is born inside the classical author's right system. Focused on the investor and in the notion of fixation, this special right of sotware and database now contaminates the author's right system. We cannot ignore the important influence of American concept of copyright in the whole process of construction and expansion of this special paradigm as some of its concepts and principles are reflected in today's notion of author's rights. We are witnessing a movement of deconstruction of the author's rights personalist legacy of the French Revolution which culminated in the Act of 11 March 1957. We will highlight the various factors that have acted and act jointly at national, EU and international level to produce this result, while demonstrating that while the digital environment certainly poses difficulties for the use of works of authorship, the author's right, author-centered and based on the notion of communication to the public, would indeed be able to cope with digital environment without the need to undermine its foundations
|
Page generated in 0.0221 seconds