141 |
Archéologie et inventaire du patrimoine national : recherches sur les systèmes d'inventaire en Europe et Méditerranée occidentale (France, Espagne, Grande-Bretagne, Tunisie) : comparaisons et perspectives / Archaeology and national heritage record : research on record systems in Europe and western Méditerranée (France, Spain, Great-Britain, Tunisia) : comparisons and prospectsOurnac, Perrine 28 September 2011 (has links)
La comparaison des systèmes d'inventaire du patrimoine archéologique en France, Espagne, Grande-Bretagne et Tunisie consiste à observer l'organisation et les résultats de ces inventaires, au niveau national lorsqu'il existe, ou le cas échéant, au niveau régional. Il s'agit d'identifier, pour chaque pays, le mode de réalisation d'une base de données, dont les objectifs sont la protection et la mise en valeur du patrimoine archéologique. Ainsi, la naissance des premiers recensements, le cadre réglementaire, la structure institutionnelle, les conditions d'accessibilité, et la forme actuelle des inventaires ont été observés. L'analyse critique des différents cas, à l'issue des descriptions et des tests, permet de mettre en avant des paramètres conditionnant d'une part, l'existence réelle d'un inventaire national du patrimoine archéologique, d'autre part, le niveau d'accessibilité des données regroupées par ces inventaires. / Compare archaeological heritage record systems in France, Spain, Great-Britain and Tunisie consists in studying organization and results of these records, at the national level, or, where it does not exist, at the regional level. The database design, aimed at protecting and promoting archaeological resource, has been identified in each country. The first inventories, the legal and institutional structures, the condition of accessibility, and the current frame of archaeological records have been studied. Analysis shows, after describing and testing these case, that there are circumstances conditioning: the existence of a national archaeological record, but also, the level of accessibility of data maintained in these records.
|
142 |
Variants de la portion Fc des IgG : Cartographie et analyse brevets, confrontation aux biomédicaments en développement et proposition d'une nouvelle nomenclature / IgG Fc variants : patent mapping and analysis, confrontation with biologics in development and proposition of a new nomenclaturePottier, Jérémy 16 December 2016 (has links)
Plus de 40 ans après la découverte de la technologie des hybridomes, une soixantaine d’anticorps monoclonaux thérapeutiques IgG ou assimilés sont aujourd’hui commercialisés. Leur succès découle de leur humanisation, en particulier celle de la portion Fc qui dérive de différents variants humains naturels, isotypes et allotypes. Depuis quelques années, apparaissent sur le marché de nombreux anticorps comportant des portions Fc artificiellement modifiées dans le but de moduler diverses propriétés pharmacologiques (propriétés cytolytiques, demi-vie, stabilité, etc.), dont certaines ont été particulièrement étudiées suite aux travaux de notre équipe. Les variants Fc sont protégés par des technologies brevetées dont on connaît mal l’étendue, qui ne font pas nécessairement l’objet de publications scientifiques, et dont la raison d’être reste méconnue des chercheurs et plus encore des professionnels de santé. Nous avons donc entrepris de réaliser une cartographie et une analyse fine des brevets traitant des modifications dans la portion Fc des IgG. Cette analyse a été menée de front avec une étude bibliographique détaillée, car les données scientifiques décrites dans les brevets sont toujours à considérer avec prudence, les demandes de brevets n’étant pas revues par des pairs. Nous avons eu l’occasion d’ailleurs d’épingler certaines dérives, comme celle de considérer qu’il pourrait y avoir plus de 4 sous-classes d’IgG dans l’espèce humaine (jusqu’à 19 dans certaines revendications…). / More than 40 years after the discovery of the hybridoma technology, around sixty therapeutic monoclonal antibodies based on IgG or assimilated are marketed today. Their success comes from their humanization, especially of the Fc portion derived from various natural human variants, isotypes and allotypes. For some years, many antibodies artificially modified in their Fc portions have emerged, in order to alter various pharmacological properties (cytolitic properties, half-life, stability, etc.), some of them having been particularly studied following the works of our team. Fc variants are covered by patented technologies of which little is known about the extent, which are not necessarily the subject of scientific publications, and whose purpose remains unknown for researchers and even more for health professionals. We therefore undertook to realize a landscape and a detailed analysis of patents dealing with modifications in the Fc portion of IgG. This analysis has been conducted in front with a detailed literature survey, since the scientific data described in patents must be treated with caution, as patent application are not peer reviewed. We actually point certain abuses, such as to consider that there might be more than four human IgG subclasses (up to 19 in some claims…).
|
143 |
Caractérisation des mesures d’exposition à des produits chimiques dans les bases de données françaises COLCHIC et SCOLA pour la prévention des maladies professionnelles / Caracterization of measurements of exposure to chemicals in the french databases COLCHIC and SCOLA for the prevention of occupational diseasesMater, Gautier 13 December 2016 (has links)
En France, deux bases de données d’exposition professionnelle, COLCHIC et SCOLA, coexistent avec des objectifs différents (prévention et réglementation). Leur représentativité par rapport à la population générale est cependant inconnue, et fait l’objet de ce travail. Après avoir effectué une analyse descriptive comparative, l’étude de l’association entre les niveaux d’exposition et les éléments contextuels a été réalisée par modélisation statistique pour chaque agent, séparément pour COLCHIC et SCOLA, puis dans un jeu de données commun. La synthèse à travers les agents s’est faite par Méta analyse. COLCHIC et SCOLA contiennent respectivement 929 700 (670 agents chimiques) et 429 104 données (105). Trois forts prédicteurs « Durée de prélèvement », « Equipement de protection individuelle » et « Année » sont systématiquement associés aux niveaux dans les deux bases et 3 autres sont spécifiques à chacune d’elles. Avec des niveaux deux fois plus élevés dans COLCHIC comparés à SCOLA en 2007, leurs concentrations deviennent comparables entre 2012 et 2015. COLCHIC et SCOLA représentent une source importante d’informations. La prise en compte des descripteurs associés aux mesures et l’utilisation de méthodes prédictives permettront d’en améliorer l’interprétation / Two occupational exposure databases of occupational exposures to chemicals, COLCHIC and SCOLA, coexist in France with different objectives (prevention and compliance). Little is known about their representativeness of exposures in the general population. We explored to what extent COLCHIC and SCOLA adequately reflect occupational exposures in France. After performing a descriptive and comparative analysis, associations between exposure levels and ancillary information were explored for each agent, separately for COLCHIC and SCOLA and in a common dataset, using statistical modelling. Modelling results were synthesized across agents using Meta analysis. COLCHIC and SCOLA contain, respectively, 929 700 (670 chemicals) and 429 104 records (105). Three predictors "Sample Time", "Personal protective equipment" and "Year" are strongly associated with exposure levels across a large majority of chemicals in both databases, and 3 others are specific to each one. Exposure levels are in average twice higher in COLCHIC compared to SCOLA in 2007, but become comparable from 2012-2015. COLCHIC and SCOLA are an important source of information. Inclusion of descriptors associated with exposure levels in our study and the use of predictive methods should help to improve their interpretation.
|
144 |
Dictionnaire des hapax dans la poésie archaïque, d'Homère à Eschyle / Dictionary of hapax legomena in early Greek poetry, from Homer to AeschylusKozak, Alexandra 07 April 2018 (has links)
Le Dictionnaire des hapax dans la poésie grecque archaïque, d'Homère à Eschyle vise à inventorier les hapax absolus (mots uniques) de la poésie archaïque. Chaque entrée du dictionnaire offre une traduction du lemme, son analyse morphologique et lexicale ainsi que sa situation en contexte, pour expliquer son sémantisme et son étiologie. Des remarques métriques viennent compléter ces explications. Ce dictionnaire peut servir de référence ouverte à tous ceux qui s’intéressent à la création lexicale de près ou de loin, à la fois pour des travaux stylistiques et métriques, mais aussi des travaux de traduction, de papyrologie ou d’épigraphie. Il représente un outil précieux pour favoriser la recherche sur la création lexicale pour tous les linguistes. Il peut être utile aux spécialistes de littérature dans toutes les langues car il constitue une base de travail pour une véritable réflexion sur la création poétique. Un volume de commentaire au dictionnaire, Hapax legomena dans la poésie archaïque, offre une définition précise et une réflexion sur la notion d’hapax absolu, une analyse des caractéristiques majeures de la création deshapax chez les auteurs archaïques, un inventaire thématique des principaux morphèmes préfixaux et suffixaux mais aussi des lexèmes les plus récurrents en composition. Enfin, la question de la réception des hapax en synchronie, par les spectateurs ou auditeurs anciens mais aussi par les scholiastes et lexicographes, comme en diachronie, à cause des difficultés d’interprétation de certaines leçons dans les manuscrits, est traitée. / The Dictionary of hapax legomena in early Greek poetry, from Homer to Aeschylus, aims to inventory the absolute hapax unique words) in archaic poetry. Each entry in the dictionary offers a translation of the lemma, its morphological and lexical analysis as well as its situation in context, to explain its semantics and etiology. Metric remarks complete these explanations. This dictionary can serve as an open reference for all those interested in lexical creation from near and far, both for stylistic and metrical work, but also works of translation, papyrology or epigraphy. It is a valuable tool for promoting lexical creation research for all linguists. It can be useful to literary specialists in all languages as it provides a basis for a real reflection on poetic creation. A volume of commentary on the dictionary, Hapax legomena in early poetry, offers a precise definition and a reflection about the notion of absolute hapax, an analysis of the major features of hapax creation in archaic authors, a thematic inventory of the main prefix and suffixal morphemes, but also the most recurrent lexemes in composition. Finally, the question of the reception of the hapax is treated, first in synchrony, by the spectators or listeners but also by scholiasts and lexicographers, then in diachronic, because of the difficulties of interpretation of some lessons in the manuscripts.
|
145 |
Résidus de médicaments d'un cours d'eau urbain : constitution d'une base de données pour la gestion des risques écotoxicologiques / Drug residues in urban water : a database for ecotoxicological risk managementDestrieux, Doriane 28 March 2018 (has links)
Les Résidus de Médicaments (RM) sont des molécules biologiquement actives et leur présence dans l'environnement peut induire des effets sur les écosystèmes. Afin de caractériser l'impact écotoxicologique lié à l'utilisation de ces molécules dans la région toulousaine, 26 RM ont été recherchés dans les eaux usées de deux Stations de Traitement des Eaux Usées (STEU) de la ville de Toulouse et dans le milieu récepteur de leurs rejets, la Garonne. Dans la Garonne, les prélèvements ont été réalisés en amont et en aval des effluents des STEU afin d'étudier l'impact de ces effluents sur le risque associé à la présence de ces RM dans le fleuve. Le risque écotoxicologique potentiel a été évalué en comparant, pour chacun des RM étudiés, les concentrations mesurées in situ (exposition) et les concentrations écotoxiques (danger). Ces comparaisons ont permis la définition de quotient de risque (RQ) en fonction du temps et de l'espace. Les résultats des analyses ont montré que, malgré le fait que la plupart des molécules soient détectées dans la Garonne en amont des rejets des STEU, certains RM ont présenté des concentrations significativement plus importantes dans la Garonne en aval des rejets. Ces résultats soulignent l'impact des effluents toulousains sur le risque associé à la la présence de RM dans la Garonne. Dans le cadre de ces travaux de recherches une base de données (BDD) a été développée qui intègre 1/ des données d'écotoxicité issues de la littérature scientifique (1237 données issues de bio-essais, modélisations et bio-marqueurs et 382 Predicted No Effect Concentrations (PNEC)) ; 2/ des données d'exposition à l'échelle de l'agglomération toulousaine (125 échantillons récoltés). L'étude des RQ, à partir des plus basses PNEC actuellement disponibles dans la BDD, a montré des risques écotoxicologiques potentiels liés à la présence de 7 RM dans la Garonne sur les 26 recherchés. Ces 7 RM sont, dans l'ordre décroissant des pourcentages d'occurrence des risques associés, Carbamazépine (anti-épileptique) (100%), Clarithromycine (100%), Diclofénac (anti-inflammatoires non stéroïdiens (AINS)) (100%), Estrone (hormone sexuelles) (100%), Ofloxacine (antibiotiques) (93%), Ibuprofène (AINS) (62%) et Propranolol (cardiovasculaire) (31%). L'étude des concentrations écotoxiques inclues dans la BDD ont montré des variabilités intramoléculaires importantes. Pour l'évaluation des risques environnementaux (ERE), la réglementation européenne recommande d'utiliser une seule donnée d'écotoxicité pour définir le seuil toxique requis pour l'ERE (PNEC). Ces variabilités intramoléculaires démontrent que le déploiement de la démarche proposée par la réglementation pour l'ERE peut générer une sous-estimation des risques écotoxicologiques. De plus, la variabilité temporelle des données d'exposition engendre, pour les 7 RM identifiés comme potentiellement dangereux, 1/ l'alternance des périodes à risque et à non risque pour le Ibuprofène, Ofloxacine et Propranolol; 2/ des risques avérés quelle que soit la période considérée pour la Carbamazépine, Clarithromycine, Diclofénac et Estrone. Ces résultats suggèrent que, la variabilité des concentrations, qu'elles soient prédites (PEC) ou mesurées (MEC), doit être prise en compte pour mesurer l'impact de la présence de RM sur les écosystèmes aquatiques. Avec un meilleur accès aux soins de santé et une population vieillissante menant à une poly-médication, la production, l'utilisation et l'élimination des produits pharmaceutiques devraient augmenter. De par le rôle des médicaments dans la santé publique et les impacts potentiels sur les écosystèmes, cette problématique associée à la présence de RM dans les milieux aquatiques doit être prise en charge par une action concertée afin de prévenir, réduire et gérer l'introduction des RM dans l'environnement. / Drug residues (DR) are biologically active molecules and their environmental occurrence can produce negatives effects on the ecosystems. In order to identify the ecotoxicological impact linked to their use in the Toulouse area, 26 DR were searched in two waste water treatment plant (WWTP) of Toulouse, inlet and outlet, and into the natural water receiving the WWTP releases, the Garonne river. In the Garonne river, sampling were carried out upstream and downstream of WWTP outlets in order to study impact of their releases on the ecotoxicological risks linked to the DR occurrence in the river. Ecotoxicological risks were estimated with the ratio between measured environmental concentrations (exposure) and environmental hazard threshold (hazard) for each drug. These ratios allowed to define hazard quotients (HQ) according to time and space. Despite the fact that most of DR were detected in the Garonne upstream of WWTP releases, some of them showed significant greater concentrations downstream the WWTP releases. For these last ones, results highlight that WWTP releases are responsible for the ecotoxicological risks linked to the presence of DR in the Garonne river. As part of this study, a database was made, including 1/ ecotoxicity data coming from scientific literature (1237 data provided from bioassays, modellings and biomarkers and 382 Predicted No Effect Concentrations (PNEC)); 2/ exposition data from Toulouse city (125 collected samplings). Since the lowest PNEC available in the database, the HQ study showed ecotoxicological risks linked to the occurrence of 7 DR in the Garonne among the 26 searched. In the decreasing order of the risks percentage occurrence, these 7 DR are Carbamazepine (antiepileptic) (100%), Clarithromycin (antibiotic) (100%), Diclofenac (non-steroidal anti-inflammatory drug (NSAID)) (100%), Estrone (sexual hormone) (100%), Ofloxacin (antibiotic) (93%), Ibuprofen (NSAID) (62%) and Propranolol (cardiovascular) (31%). The ecotoxicity concentrations integrated in the database showed important intra-molecular variabilities. For environmental risk assessment (ERA), european regulation recommends to use only one ecotoxicity data to define the environmental threshold required for the ERA (PNEC). These intra-molecular variabilities demonstrate that implementation of the ERA process proposed by regulation could create under-estimations of the ecotoxicological risks. Moreover, exposure data temporel variability for the 7 DR identified as potentially hazardous causes 1/ alternation of risked and non-risked periods for Ibuprofen, Ofloxacin and Propranolol; 2/ proven risks whatever the considered period for Carbamazepine, Clarithromycin, Diclofenac and Estrone. These results suggest that concentrations variability, whether predicted (PEC) or measured (MEC), should be taken into account to assess the DR impact on the aquatics ecosystems. With better access to health care and an ageing population leading to a multiple medication, the production, the use and the pharmaceuticals elimination should increase. Because of their role in the public health and their potential impact on the ecosystems, the presence of DR in the aquatic environments is an issue that should be taken in hand by a concerted action in order to prevent, reduce and manage DR release in the environment.
|
146 |
Sténoses carotidiennes athéromateuses : causes fondamentales et conséquences cliniques / Cariotid stenosis : causes and consequencesKretz, Benjamin 16 October 2014 (has links)
Le traitement de référence des lésions sténosantes carotidiennes de haut grade est la chirurgie associée à un traitement médical. Nous avons mis en place depuis 2003 une base de données prospective colligeant l’ensemble des patients hospitalisés dans notre service pour prise en charge d’une lésion sténosante carotidienne d’indication chirurgicale. Depuis 2012, cette base de données cliniques s’est vue complétée par la mise en place d’une tissuthèque et d’une plasmathèque. Nous présentons ici la méthode de mise en place d’une telle base, puis les résultats de quatre études originales sur la thématique du « patient à risque » en chirurgie carotidienne, portant sur l’influence de la fonction rénale, du délai entre les symptômes et la chirurgie et du statut de l’artère carotide controlatérale sur les résultats de cette chirurgie, ainsi que la proposition d’un score pronostic d’intolérance au clampage carotidien. Nous avons montré que l’insuffisance rénale influait sur les résultats de la chirurgie carotidienne de manière différente en fonction de la méthode d’appréciation de la fonction rénale (créatinine plasmatique, clearance de la créatinine calculée selon Cockcroft-Gault ou selon la formule MDRD) ; que le statut hémodynamique de la carotide controlatérale influait sur le taux de shunt sans modifier la morbidité ; que la chirurgie précoce des sténoses carotidiennes symptomatiques n’était pas grevée d’une surmortalité ; et qu’il était possible dans une certaine mesure de prédire la nécessité de mise en place d’un shunt carotidien. Nous abordons enfin les projets à venir utilisant la collection biologique pour tenter d’identifier les plaques athéromateuses à risque / The treatment of high-grade carotid stenosis is surgery combined with best medical treatment. We established since 2003, a prospective database including all patients hospitalized in our vascular surgery department for management of carotid stenosis. Since 2012, the clinical database was completed for the establishment of a biological database. We present here the method of setting up such a database, and the results of four original studies on the theme of "high-risk patient" for carotid surgery: the influence of renal function, of the delay between symptoms and surgery and of the contralateral carotid artery on outcome and the proposal of a prognostic score of intolerance to carotid clamping. We have shown that renal failure influenced outcome of carotid surgery in different ways depending on the method of assessment of renal function (serum creatinine, creatinine clearance calculated by Cockcroft-Gault or MDRD formula) ; the hemodynamic status of the contralateral carotid affected the rate of shunt without changing morbidity; that early surgery for symptomatic carotid stenosis was not burdened with excess mortality; and that it is possible to predict the need for establishment of a carotid shunt. Finally, we discuss future projects using biological collection to try to identify atherosclerotic plaques at risk
|
147 |
Étude d'une terminologie bilingue (français / arabe) du droit de propriété intellectuelle sur internet / A study of a bilingual terminology (French-Arabic) of the intellectual property law on the internet / دراسة اصطلاحية باللغتين الفرنسية و العربية لحقوق الملكية الفكرية على الإنترنتBarsoum, Yasmine 27 October 2012 (has links)
Cette thèse intitulée « Étude d’une terminologie bilingue (français-arabe) du droit de la propriété intellectuelle sur internet » porte sur la terminologie juridique et traite de la problématique suivante : "Comment peut-on, à travers l’analyse et le dépouillement d'un corpus bien délimité (français et arabe), constituer une terminologie bilingue de la propriété intellectuelle sur Internet, ayant pour retombée la création d’une base de données terminologiques?". Cette base de données est exploitable par des étudiants, des enseignants, des chercheurs, des traducteurs et des organismes spécialisés dans le domaine objet d’étude.L’objectif de la thèse est donc de répondre aux besoins terminologiques d’un public bilingue intéressé au domaine du droit et en particulier à la propriété intellectuelle, en faisant une mise au point et un traitement minutieux des deux langues arabe et française dans trois secteurs d’activité à savoir le droit, l’informatique et l’internet. La confection de cette terminologie est basée sur deux approches : lexico-sémantique et conceptuelle. Cette thèse est constituée de cinq chapitres dans lesquels les processus terminologiques sont analysés minutieusement dans les deux langues du point de vue théorique et pratique. Des contributions et des recommandations sont apportées à travers cette recherche dans le domaine de la terminologie, par exemple, les tentatives visant à combler les lacunes des dictionnaires spécialisés dans les deux langues, la promotion de la langue arabe en matière de logiciels de TAL et de terminologie et le renforcement de la coopération entre les spécialistes du domaine (juristes et informaticiens) et les terminologues. / This thesis entitled “A study of a bilingual terminology (French-Arabic) of the intellectual property law on the internet” tackles the juridical terminology and handles the following research question: “How can we establish, through the analysis and mining of a well-bounded French-Arabic corpus, a bilingual terminology of the intellectual property on the internet leading to the creation of a terminological database?”. This database is usable by students, teachers, researchers, translators and specialized organizations in this field. The purpose of this thesis is therefore to meet the terminological needs of a bilingual public interested in law in general and in intellectual property in particular, by doing a deep processing of the two languages in three activity sectors: law, computer science and internet. The process of creating this terminology database is based on both lexico-semantic and conceptual approaches. This thesis consists of five chapters in which the terminological processes are deeply analyzed in both languages from the theoretical and practical points of view. Among the contributions and recommendations that are made through this research in the field of terminology are the attempts to fill the gaps in specialized dictionaries in both languages, the promotion of Arabic language as regards to Automatic Language Processing (ALP) and terminological softwares and the reinforcement of the cooperation between a field’s specialists (jurists and computer engineers) and terminologists. Keywords: bilingual terminology, terminological database, law, intellectual property, internet, copyright.
|
148 |
2P2IDB : Une base de données dédiée à la druggabilité des interactions protéine-protéine.Bourgeas, Raphael 20 December 2012 (has links)
Le nombre considérable d'interactions protéine-protéine (PPIs) existant au sein d'un organisme, ainsi que leur implication cruciale dans la vie cellulaire et dans de nombreuses pathologies, font des PPIs un immense réservoir de cibles potentielles pour la recherche de médicaments. Les PPIs sont aujourd'hui sur le devant de la scène grâce au développement de méthodologies innovantes et la validation récente de molécules chimiques modulant ces interactions dans des essais précliniques.L'étude des modulateurs d'interactions protéine-protéine (PPIM), a des implications tant dans la recherche fondamentale que thérapeutique. Les PPIMs peuvent aider à la compréhension des réseaux d'interactions. Elles permettront également de faire émerger de nouvelles familles d'agents thérapeutiques actifs dans diverses pathologies.Mon travail de thèse a principalement porté sur deux aspects de l'étude de l'inhibition des PPIs. D'une part, l'étude de l'implication des divers paramètres physicochimiques gouvernant une PPI dans sa capacité à être modulée (étude dite de la « druggabilité »), m'a amené à participer à la création d'une base de données structurale des interactions protéine-protéine : 2P2IDB (http://2p2idb.cnrs-mrs.fr/). D'autre part, j'ai contribué à l analyse de l'espace chimique des molécules présentes dans la base de données 2P2IDB. Nous avons défini la « Rule Of 4 » comme ligne de conduite pour caractériser ces molécules. Nous avons de plus utilisé le SVM afin de créer un protocole innovant (2P2IHUNTER) qui nous a permis de filtrer de grandes collections de composés afin de créer des chimiothèques dédiées aux PPIs. / The number of protein-protein interactions (PPIs) existing in an organism, and their crucial implication in cellular life and in many pathologies, demonstrates the importance of PPIs as a large reservoir of potential targets for medicinal research. Neglected for a long time by both pharmaceutical companies and academic laboratories because they were historically classified as difficult targets, PPIs are now getting into the groove due to the development of innovative methodologies and the growing number of small molecule compounds modulating these interactions.The study of PPI modulators has implications in both fundamental and therapeutics research. On the one hand, PPI modulators can be used in basic research to decipher the role of PPIs in biological networks. On the other hand, they represent a valuable source of new families of therapeutic agents in pathologic processes.In the first part of my PhD, I contributed to the development of a structural database dedicated to protein-protein interactions: 2P2IDB (http://2p2idb.cnrs-mrs.fr/). The interface descriptors of protein-protein interfaces which are typical of complexes present in 2P2IDB have been used to develop a qualitative scoring function to assess the ‘druggability' of PPI targets.In the second part of my PhD, I contributed to the analysis of the chemical space of PPI inhibitors present in the 2P2I database using chemoinformatics tools. We defined the ‘Rule-of-4' as a guideline to characterize these compounds. We have used support vector machine approaches to elaborate a protocol: 2P2IHUNTER, which allows filtering large collection of compounds to design chemical libraries dedicated to PPI targets.
|
149 |
Réplication de données dans les systèmes de gestion de données à grande échelle / Data replication in large-scale data management systemsTos, Uras 27 June 2017 (has links)
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur. / In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider.
|
150 |
Analyse bio-informatique du protéome mitochondrial et du spectre des mutations de la protéine Opa1Ferré, Marc 15 December 2009 (has links) (PDF)
Les mitochondries sont impliquées dans de nombreux processus cellulaires essentiels tels que le catabolisme des nutriments, la phosphorylation oxydative, l'apoptose et la régulation des flux calciques. Elles ont une structure dynamique, qui s'adapte en permanence aux besoins cellulaires, et sont sous le contrôle de réseaux de régulation coordonnant leur masse, leur structure et leurs fonctions. Le protéome mitochondrial est ainsi composé d'une très grande diversité de protéines qui dérive en partie de l'ancêtre procaryote des mitochondries et résulte majoritairement d'une information codée par le génome nucléaire, mais aussi d'une information plus restreinte portée par le génome mitochondrial. Sept cents protéines mitochondriales ont été caractérisées chez l'homme, grâce à diverses approches de protéomique, de génomique et de bio-informatique, mais il est probable que les mitochondries en comportent un nombre bien supérieur. La caractérisation de ces protéines est essentielle à la compréhension des nombreuses maladies génétiques et communes associées à des dysfonctionnements mitochondriaux. Au cours de ce travail de thèse nous avons comparé in silico les séquences des protéines mitochondriales humaines avec celles des procaryotes, mettant en évidence que les protéines impliquées dans les pathologies sont majoritairement homologues à des protéines procaryotes. Nous avons ensuite développé une stratégie de recherche bio-informatique de nouvelles protéines mitochondriales basée sur leur origine procaryote et la présence d'une extension N-terminale caractéristique. L'ensemble des protéomes procaryotes connus a été comparé au génome humain et différents outils de filtrage ont été développés pour identifier de nouvelles protéines. Parallèlement à cette stratégie globale de criblage, nous nous sommes focalisés sur l'étude d'une des protéines participant à la fusion mitochondriale qui est associée à l'atrophie optique autosomique dominante, la protéine Opa1. Cette dynamine GTPase est impliquée dans le remodelage de la membrane interne mitochondriale, l'apoptose, la maintenance de l'ADN mitochondrial et le métabolisme énergétique. Nous avons développé une base de données internationale répertoriant les différents variants affectant Opa1 afin de caractériser son spectre mutationnel. Cet outil a secondairement servi à une étude clinique multicentrique portant sur près de mille patients porteurs d'une neuropathie optique. À travers ces deux approches, nous avons pu développer de nouveaux outils bio-informatiques qui devraient contribuer à une meilleure compréhension de la physiopathologie mitochondriale.
|
Page generated in 0.0281 seconds