121 |
L'intelligence économique en contexte hostile : l'information brevet et l'innovation frugale, outils de promotion de l'innovation. / Competitive intelligence in hostile context : patent information and frugal innovation, as tools to promote innovationSeck, Mohamadou 13 December 2016 (has links)
: Les PED dans leur globalité et l’Afrique en particulier ont accusé un retard technologique par rapport aux pays développés. Cet écart s’est renforcé avec les différentes révolutions industrielles qui ont permis au bloc occidental de s’émanciper et de renforcer sa domination sur les pays du tiers monde. Cette hégémonie se manifeste aujourd’hui par le nombre impressionnant de brevets déposés par ces pays, pendant que la plupart des Etats africains peinent à dépasser la barre des 100 brevets par pays et par an. Pour les pays les moins avancés, continuer à appliquer les mêmes modèles que les occidentaux ne fera que renforcer leur dépendance vis-à-vis de ces pays. Il s’agit alors de penser de nouveaux modèles qui collent mieux avec les réalités des ces pays dont les milieux sont souvent hostiles.Cette thèse vise à montrer dans quel cadre l’information contenue dans les documents brevets peut être utilisée pour le développement de solutions technologiques adaptées aux contextes hostiles des pays en développement. Il s’agit surtout de l’information sur les inventions dont les brevets sont tombés dans le domaine public et qui sont donc légalement réutilisables même dans une optique commerciale, mais aussi de toutes les autres informations contenues dans les bases de données brevets. Ainsi, ce travail met en exergue, dans une première partie, les techniques d’exploitation des bases de données brevets, les méthodes pour compléter l’information recueillie ainsi que les possibilités de transformation de cette information en solutions technologiques grâce à la reverse engineering et à la cartographie des brevets notamment. La deuxième partie fait un benchmark des meilleures pratiques en matière d’innovation développées par des pays en développement. Une étude approfondie d’une vingtaine d’innovations frugales a permis de différencier cette forme de créativité avec les techniques traditionnelles, ses caractéristiques ainsi que les conditions de sa mise en œuvre. Elle a été l’occasion de démontrer comment des zones, qui étaient jusque là considérées comme des lieux de « non innovation », étaient devenues des nids de créativités qui se confrontaient souvent aux défis de la valorisation. Ces deux premières parties ont permis de proposer dans une troisième partie un modèle d’organisation adapté aux contextes hostiles. Il consiste d’une part à rompre la chaine traditionnelle de l’innovation caractérisée par les normes et conventions, à penser différemment d’où la notion d’Ethical Non Practicing Entities et à réorganiser les systèmes nationaux d’innovation. / Developing countries as a whole and Africa in particular continue to lag behind industrialized nations in their technological advances. The technologies invented during and since the Industrial Revolution reinforced the West’s domination over developing countries.This hegemony is manifested today by the majority of patents currently being filed by industrialized nations, while most African countries do not exceed 100 patents per year. For developing nations continuing to apply Western models that Western reinforces their dependence on the West. Developing countries need new models that accommodate the reality of their often-hostile physical and political environment.This thesis aims to demonstrate how the contextual information contained in patent documents can be used to develop technological solutions adapted to the harsh environments in developing countries.This thesis focuses on the patents of innovations that fall into the public domain which makes them legally reusable, even commercially, and includes all the other information contained in patent databases.This work highlights the operation of technical patent databases, the methods employed to supplement the information gathered, and thus the possibilities for transformation through reverse engineering solutions, patents mapping and the frugal innovation in particular.The second part is a benchmark for innovative practices from developing countries. A thorough study of twenty frugal- and reverse-innovations helped differentiate this form of creativity from the traditional techniques by its characteristics and the harsh conditions for which these innovations are created.This study offered an opportunity to demonstrate that areas previously considered places of "non-innovation" have become nests of creativity that confront the challenges of recovery.This suggests an organizational model suitable for patents in hostile environments. It breaks the traditional chain of innovation characterized by Western norms and conventions, to think differently about the notion of Ethical Non Practicing Entities and the organization of national systems of innovation.
|
122 |
Développement de la surveillance observationnelle / Development of the observational surveillanceRieutort, Delphine 12 November 2015 (has links)
L'impact de la population sur l'environnement et celui de l'environnement sur la santé humaine est indéniable et représente depuis les années 2000 de réels enjeux de Santé Publique. Il a été constaté en outre des augmentations de prévalence de cancer, de maladies respiratoires ou encore des troubles de la reproduction, dont les origines multifactorielles sont de plus en plus suspectées. Dans ce contexte, la surveillance est devenue un outil indispensable à la prise de décision en santé publique, et les réseaux de surveillances des évènements sanitaires se sont multipliés, donnant naissance à de nombreuses bases de données, parfois massives, dont les utilisations sont encore limitées.L'objectif de ces travaux de thèse était de développer un nouveau concept de surveillance, la Surveillance Observationnelle (SO), permettant une utilisation optimale des bases de données observationnelles, généralisable à différentes bases et problématiques, et pouvant tenir compte des informations multiples qu'elles contiennent.La SO est basée sur la méthode de l'exposome, ayant pour but de restructurer les données sous forme de réseau, permettant ainsi l'étude des associations entre les informations mais également l'étude de leur structure. Il a alors été développé plusieurs indicateurs permettant d'étudier à la fois les différentes associations d'informations recrutées au sein d'une base de données pour un évènement de santé, mais également d'étudier l'évolution de leur structure dans le temps par un suivi dynamique, ces indicateurs permettant de générer la signature unique d'un évènement de santé : le spectre. Un outil, appelé « Observational Surveillance Analysis » (OSA) permettant l'utilisation en routine de la méthodologie a également été développé dans la plateforme R, permettant une automatisation et une standardisation des résultats.Des exemples d'applications ont permis d'illustrer le déroulement de l'analyse de la SO ainsi que sa portabilité et adaptabilité au contexte et à la problématique. Trois applications sont basées sur les données du Réseau National de Vigilance et de Prévention des Pathologies Professionnelles (RNV3P) : le cancer de la vessie, l'asthme et enfin le lymphome non hodgkinien. Trois autres applications sont basées sur la base de données du groupe de médecins du travail Belge IDEWE : les douleurs à la gorge, les aides-soignants et les agriculteurs.Grâce aux différentes applications, il a été démontré la portabilité de la méthodologie de la SO à des bases de données différentes, mais également à des configurations d'analyse différentes, pathologie/expositions ou activité/expositions. De plus, l'outil « OSA » qui a été développé permet une utilisation facilitée pour l'analyse en routine des données et pourrait à terme être intégré dans un réseau de surveillance déjà existant. / Impact of population on the environment, and conversely, is obvious and represents a real challenge for Public Health since 2000. It has been shown an increase in cancer prevalence, respiratory disease or even reproductive disorders, for which multifactorial origins are strongly suspected. In this context, surveillance has become an essential tool to decision making in public health, and surveillance networks of health events are multiplying, giving rise to numerous databases (sometimes considered as “big data”), still poorly used.Objective of this thesis work was to develop a new concept of surveillance, the Observational Surveillance (OS). This allows an optimal use of observational databases, extendable to different kind of databases and problematics, taking into account various multiple information available.OS is based on the exposome approach, to restructure data as a network, allowing the study of associations between information and also their structure. In this purpose, several indicators have been developed to study in the meantime the different recruited association for an event of interest, but also the evolution of their structure over time. These indicators allow generating the unique signature of the event: the spectrum. A tool, named “Observational Surveillance Analysis” (OSA), allowing the routine use of methodology, has been developed in the R platform, which permits automation and standardization of results.Applications were used to illustrate the OS analysis and its portability and adaptability to different context and problematic. Three applications are based on the French National Occupational Diseases Surveillance and Prevention Network (RNV3P): bladder cancer, asthma and non-Hodgkin lymphoma. Three other applications are based on the Belgium occupational physicians group IDEWE: sore throat, caregivers and farmers.Thanks to different applications, it has been demonstrated the portability of the OS methodology to different databases, and also, to different analysis configuration, disease/exposures or activity/diseases. Furthermore, the “OSA” tool which has been developed, allows an easier use to routine analysis and, in the end, could be integrated in an existing surveillance network.
|
123 |
Querying and Mining Multigraphs / Requêtes et fouille de multigraphesIngalalli, Vijay 27 February 2017 (has links)
Avec des volumes de données et d’informations de plus en plus importants, des données de plus en plus complexes et fortement inter-reliées, l’extraction de connaissances reste un véritable défi. Les graphes offrent actuellement un support de représentation efficace pour représenter ces données. Parmi les approches existantes, les multi-graphes ont montré que leur pouvoir d’expression était particulièrement adapté pour manipuler des données complexes possédant de nombreux types de relations entre elles. Cette thèse aborde deux aspects principaux liés aux multigraphes : la recherche de sous graphes et la fouille de sous graphes fréquents dans des multigraphes.Elle propose trois propositions dans le domaines du requêtage et de la fouille de données.La première contribution s’inscrit dans la recherche de sous graphes et concerne l’isomorphisme de sous graphes dans des multigraphes. Cette approche peut, par exemple, être appliquée dans de nombreux domaines d’applications comme l’analyse d’images satellites ou de réseaux sociaux. Dans la seconde, nous nous intéressons aux graphes de connaissances et abordons la problématique de l’homorphisme de graphes dans des multigraphes RDF. Dans les deux contributions, nous proposons de nouvelles techniques d’indexations pour représenter efficacement les informations contenues dans les multigraphes. La recherche des sous graphes tire avantage de ces nouveaux index et différentes heuristiques et optimisations sont également proposées pour garantir de bonnes performances lors de l’exécution des requêtes. La seconde contribution s’inscrit dans le domaine de la fouille de données et nous proposons un algorithme efficace pour extraire les multigraphes fréquents. Etant donné l’espace de recherche à considérer, la recherche de motifs fréquents dans des graphes est un problème difficile en fouille de données. Pour parcourir efficacement l’espace de recherche encore plus volumineux pour les multigraphes, nous proposons de nouvelles techniques et méthodes pour le traverser efficacement notamment en éliminant des candidats où détectant à l’avance les motifs non fréquents. Pour chacune de ces propositions de nombreuses expérimentations sont réalisées pour valider à la fois leurs performances et exactitudes en les comparant avec les approches existantes. Finalement, nous proposons une étude de cas sur des jeux de données issues d’images satellites modélisées sous la forme de multigraphe et montrons que l’application de nos propositions permet de mettre en évidence de nouvelles connaissances utiles. / With the ever-increasing growth of data and information, extracting the right knowledge has become a real challenge.Further, the advanced applications demand the analysis of complex, interrelated data which cannot be adequately described using a propositional representation. The graph representation is of great interest for the knowledge extraction community, since graphs are versatile data structures and are one of the most general forms of data representation. Among several classes of graphs, textit{multigraphs} have been captivating the attention in the recent times, thanks to their inherent property of succinctly representing the entities by allowing the rich and complex relations among them.The focus of this thesis is streamlined into two themes of knowledge extraction; one being textit{knowledge retrieval}, where we focus on the subgraph query matching aspects in multigraphs, and the other being textit{knowledge discovery}, where we focus on the problem of frequent pattern mining in multigraphs.This thesis makes three main contributions in the field of query matching and data mining.The first contribution, which is very generic, addresses querying subgraphs in multigraphs that yields isomorphic matches, and this problem finds potential applications in the domains of remote sensing, social networks, bioinformatics, chemical informatics. The second contribution, which is focussed on knowledge graphs, addresses querying subgraphs in RDF multigraphs that yield homomorphic matches. In both the contributions, we introduce efficient indexing structures that capture the multiedge information. The query matching processes introduced have been carefully optimized, w.r.t. the time performance and the heuristics employed assure robust performance.The third contribution is in the field of data mining, where we propose an efficient frequent pattern mining algorithm for multigraphs. We observe that multigraphs pose challenges while exploring the search space, and hence we introduce novel optimization techniques and heuristic search methods to swiftly traverse the search space.For each proposed approach, we perform extensive experimental analysis by comparing with the existing state-of-the-art approaches in order to validate the performance and correctness of our approaches.In the end, we perform a case study analysis on a remote sensing dataset. Remote sensing dataset is modelled as a multigraph, and the mining and query matching processes are employed to discover some useful knowledge.
|
124 |
Gestion de flux de données pour l'observation de systèmes / Data stream management for systems monitoringPetit, Loïc 10 December 2012 (has links)
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k. / Due to the popularization of technology, non-expert people can now use more and more advanced devices and applications. Such systems produce data streams as well as persistent data with heterogeneous schemas and dynamics. This thesis is focused on monitoring data coming from those systems to help users to understand and to perform diagnosis on them. We propose an algebraic model Astral able to treat data coming from streams or relations without semantic ambiguity. The engine Astronef has been developed on top of a service-oriented component framework to enable a large adaptability. It embeds a query builder which can select a composition of components to provide an efficient query plan. Its extension Asteroid interfaces with a DBMS in order to manage persistent data in an integrated manner. Our contributions have been confronted to practice with the deployment of a monitoring system for the digital home and with a performance study. Finally, we extend our approach with an operator to personalize the results by introducing a top-k preference model.
|
125 |
Architecture et cartographie à la lumière du numérique : naissance du Système d’information géographique du CanadaKowal, Stephan 12 1900 (has links)
Le sujet principal de cette thèse est le développement du Système d’information géographique du Canada à partir de 1962, permettant de combiner des informations statistiques et des documents cartographiques, spécifiquement dans le but d’aider à la prise de décision dans la planification du territoire. La recherche revisite le contexte politique et économique menant au développement du premier système de ce type autour du programme gouvernemental pour l’inventaire des terres du Canada, le Canada Land Inventory (CLI), issu de la Loi sur la remise en valeur et l’aménagement des terres agricoles (ARDA) puis de sa modification pour inclure tout l’aménagement rural, établissant des relations entre des sociétés privées (Spartan Air Services, Canada et IBM Canada) et des chercheurs universitaires. La recherche présente des documents de la Bibliothèque et Archives Canada.
C’est la nature cartographique de ce système développé au Canada et le transfert de cartes dessinées à la main dans un format numérique, par l’entremise du système binaire, qui fournissent de nouvelles idées sur des changements importants concernant la théorie de la représentation conventionnelle. Par le biais de lectures attentives de ces instruments de transcription automatique et non automatique développés à la fin des années 1950 et au début des années 1960, et, plus précisément, par le développement d’un dispositif spécialement conçu pour ce système, le Special Cartographic Scanner, la thèse traite de la transition depuis des cartes dessinées manuellement à des bases de données manipulables : elle examine la nature des informations cartographiques en termes du point, de la ligne, de la surface, de l’échelle et du cadrage, bouleversant certaines notions de la projection conventionnelle dans la représentation, par l’entremise de la procédure de numérisation, du développement d’une nouvelle technique de séquençage des fichiers, de l’introduction d’un système de coordonnées de référence, de régions de données traitables, de leurs superpositions. La thèse démontre que les notions de position, de ligne et de cadre dans la représentation traditionnelle ont changé, au profit du point numérique et de la sélection.
Dans une volonté de relier la cartographie numérique à la conception en architecture, la thèse exemplifie la transition de la représentation développée depuis la Renaissance autour de l’œil, à l’usage d’instruments de télédétection et dans des images générées par des ordinateurs, et de la recherche de patterns, influençant l’approche dans la prise de décision et la conception, par la capacité du système à générer de nouvelles connaissances par la superposition et la combinaison d’éléments ponctuels. La thèse situe le Système d’information géographique du Canada dans le contexte de la cybernétique et des théories de l’information, pour le positionner dans la théorie de la concrétisation des objets techniques du philosophe Gilbert Simondon, puis à sa théorie des points-clefs, auxquels sont rattachés les objets techniques dans le territoire, considéré comme subjectif et une production esthétique. / The main topic of this thesis is the development of the Canada Geographic Information System (CGIS) initiated in 1962, an integrated computer system capable of combining national statistical information and cartographic documents, specifically intended for decision-making in regional planning. The text revisits the political and economic context leading to the development of the first system of this type, arising from the Canada Land Inventory (CLI), a government program stemming from the Agricultural Rehabilitation and Development Act (ARDA), which was expanded to include all rural development. It establishes relations between the CLI and private companies (Spartan Air Services, Canada and IBM Canada) and scholars. This research presents material from the Library and Archives Canada.
It is the cartographic nature of this system developed in Canada, and the transfer of hand-drawn cartographic documents into a digital format through the binary system, which provides renewed insights into important changes concerning conventional representation theory. Through close examination of these automatic and non-automatic transcription devices developed in the 1950s and 1960s, and more precisely, through the development of a device specifically designed for this system, the Special Cartographic Scanner, this text deals with the transition from hand-drawn maps to manipulable digital databases. This thesis examines the nature of cartographic information in terms of point, line, surface, scale and frame, disrupting certain conventions of representation and drawing, through digitising procedures, as well as a new technique of sequencing files, the introduction of the world’s coordinate system, regions of processable data, and their overlay. This thesis demonstrates that notions of position, line and frame in conventional representation have changed for the benefit of a digital point and selection.
In an effort to link digital cartography to architectural design, this thesis exemplifies the transition from representations based on the human eye, developed since the Renaissance, to the use of remote sensing devices and computer-generated imageries, pattern recognition, influencing decision-making and design, with the system’s capacity to generate new knowledge with the overlay and combination processes of point elements. This thesis situates the Canada Geographic Information System within the context of Cybernetics and Information theories, and in turn positions it within philosopher Gilbert Simondon’s theory of concretization of technical objects and of his key points theory, linking technical objects to the territory, considered as subjective and aesthetic productions.
|
126 |
Méthodes et modèles pour l’étude de la mobilité des personnes par l’exploitation de données de radiotéléphonie / Method and models to study human mobility using mobile phone dataMilion, Chloé 16 December 2015 (has links)
Ce travail de thèse repose sur les intrications entre deux domaines : celui des transports et celui des télécommunications. L’usage intensif et quotidien des réseaux entraîne de la part des acteurs de chacun des domaines des besoins d’analyse pour assurer et garantir la qualité des services fournis aux usagers. Nous nous proposons alors de fournir aux acteurs du transport des mesures des déplacements réalisées à partir de données de signalisation qu’ils pourront traiter avec leur connaissance métier et prendre des décisions sur des sujets étendus allant de l’aménagement du territoire à l’opération des réseaux de transports. Les méthodologies de mesure de déplacements présentées sont basées sur l’exploitation de traces numériques dans les réseaux mobiles. Ces traces sont le reflet de l’usage d’un réseau de télécommunications et existent à des fins d’opération. Les méthodes proposées ici trouvent leur fondement dans notre connaissance du fonctionnement de la téléphonie mobile et sur le traitement des énormes volumes de données que génèrent les terminaux mobiles quotidiennement en tout endroit opéré par Orange. Nous verrons que l’activité de ces terminaux embarqués au niveau de l’individu permettent d’estimer des attributs des déplacements, des volumes par paires origine-destination, des indicateurs de qualité de service ou encore de quantifier des facteurs explicatifs de choix de déplacements. Les relations d’usage explorées au travers de cette signalisation mobile offrent également la possibilité de caractériser l’usage du sol / This work stands on the close relationship that exists between two areas one use every day, namely transportation and telecommunications. Due to a daily and intensive usage of both networks, actors of each area raise up some needs to ensure delivered services and their quality to their end-users. Then, we propose to the actor of transportation measurement of performed trips that can be treated with the knowledge of the transportation actors trade in order to ease the decision making process on matters that go from land uses up to network operation. The methodologies presented here from trip measurement are based on the exploitation of the digital footprints that are fund within a telecommunication network. Those footprints are reflecting how the network is used and already exist for operating purposes. The methods proposed in this work result from our knowledge of the telecommunication mechanisms and the huge amount of data that are generated at every time and every place where Orange is operating. We introduce that mobile equipment embedded onto individuals of whom we capture their activity can lead to estimate trips attributes, origin-destination trip tables, quality of service indicators and quantification of explain factor of trip choices. We also show how the mining of usage relationship through signaling data can lead to the characterization of land use
|
127 |
Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales / Creating a "grid" database management environment : application to medical data exchangeDe Vlieger, Paul 12 July 2011 (has links)
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu’elles soient d’ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d’offrir une nouvelle approche au partage de l’information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d’ouvrir de nouvelles perspectives pour l’accès distribué aux données. Les principales contraintes d’un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d’accéder à l’information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d’accéder à l’information. En utilisant toute la couche de contrôle d’accès et de sécurité des grilles informatiques, couplée aux méthodes d’authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s’affranchir de la gestion des données médicales, le système étant capable d’aller directement chercher la donnée à la source.L’utilisation de cette approche n’est cependant pas complètement transparente et tous les mécanismes d’identification des patients et de rapprochement d’identités (data linkage) doivent être complètement repensés et réécris afin d’être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne – www.e-sentinelle.org) constitue le cadre d’application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d’échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l’analyse statistique et épidémiologique. / Nominative medical data exchange is a growing challenge containing numerous technical, legislative or relationship barriers. New advanced technologies, in the particular field of grid computing, offer a new approach to handle medical data exchange. The development of the gLite grid middleware within the EGEE project opened new perspectives in distributed data access and database federation. The main requirements of a medical data exchange system, except the high level of security, come from the way to collect and provide data. The original client-server model of computing has many drawbacks regarding data ownership, updates, control, availability and scalability. The method described in this dissertation uses another philosophy in accessing medical data. Using the grid security layer and a robust user access authentication and control system, we build up a dedicated grid network able to federate distributed medical databases. In this way, data owners keep control over the data they produce.This approach is therefore not totally straightforward, especially for patient identification and medical data linkage which is an open problem even in centralized medical systems. A new method is then proposed to handle these specific issues in a highly distributed environment. The Sentinelle project (RSCA) constitutes the applicative framework of this project in the field of cancer screening in French Auvergne region. The first objective is to allow anatomic pathology reports exchange between laboratories and screening structures compliant with pathologists’ requirements and legal issues. Then, the second goal is to provide a framework for epidemiologists to access high quality medical data for statistical studies and global epidemiology.
|
128 |
Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques / Numeric simulation and knowledge-oriented approach for the discovery of new therapeutic moleculesGhemtio Wafo, Léo Aymar 07 May 2010 (has links)
L’innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d’avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l’argent dans la découverte de nouveaux traitements.Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial.Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j’ai mis en place une méthodologie innovante permettant, d’une part, de gérer une masse importante de données hétérogènes et d’en extraire des connaissances et, d’autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L’objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d’optimiser la précision des résultats et les coûts en termes de temps et d’argent du criblage virtuel / Therapeutic innovation has traditionally benefited from the combination of experimental screening and molecular modelling. In practice, however, the latter is often limited by the shortage of structural and biological information. Today, the situation has completely changed with the high-throughput sequencing of the human genome, and the advances realized in the three-dimensional determination of the structures of proteins. This gives access to an enormous amount of data which can be used to search for new treatments for a large number of diseases. In this respect, computational approaches have been used for high-throughput virtual screening (HTVS) and offer an alternative or a complement to the experimental methods, which allow more time for the discovery of new treatments.However, most of these approaches suffer the same limitations. One of these is the cost and the computing time required for estimating the binding of all the molecules from a large data bank to a target, which can be considerable in the context of the high-throughput. Also, the accuracy of the results obtained is another very evident challenge in the domain. The need to manage a large amount of heterogeneous data is also particularly crucial.To try to surmount the current limitations of HTVS and to optimize the first stages of the drug discovery process, I set up an innovative methodology presenting two advantages. Firstly, it allows to manage an important mass of heterogeneous data and to extract knowledge from it. Secondly, it allows distributing the necessary calculations on a grid computing platform that contains several thousand of processors. The whole methodology is integrated into a multiple-step virtual screening funnel. The purpose is the consideration, in the form of constraints, of the knowledge available about the problem posed in order to optimize the accuracy of the results and the costs in terms of time and money at various stages of high-throughput virtual screening
|
129 |
Reconstitution du flux d'impact et des variations paléoclimatiques martiennes par la datation des cratères à éjecta lobés / Reconstitution of the impact rate and martian paleoclimatic variations by layered ejecta craters datingLagain, Anthony 17 November 2017 (has links)
Le comptage de cratères sur une surface planétaire est à l’heure actuelle le seul moyen de préciser la temporalité des événements ayant marqué l’histoire des corps telluriques. Cette technique nécessite de connaitre précisément le taux avec lequel se forme les cratères d’impact, c'est-à-dire le flux d’impact, mais aussi son évolution en fonction du diamètre des cratères, la fonction de production. Ensemble, ces deux variables forment le système de chronologie d’un corps planétaire. Il est relativement bien contraint entre 3,9 et 3,5 milliards d’années avant notre ère et considéré comme constant depuis 3 milliards d’années, une hypothèse remise en cause par des observations lunaires et terrestres. Les cratères d’impact à éjecta lobés sont très nombreux sur Mars. Leur morphologie traduit la présence d’une grande quantité de glace d’eau dans le sous-sol au moment de l’impact. La variation spatio-temporelle de cette couche est très peu contrainte. Celle-ci est principalement influencée par l’obliquité de la planète. Leurs nappes d’éjecta sont continues et constituent donc des surfaces idéales pour dater leur formation. L’objectif de cette thèse est de mieux contraindre la chronologie martienne et la variation de l’extension de la couche de volatiles présente sous la surface de Mars responsable de telles morphologies. Par la datation de la mise en place d’une population de cratères à éjecta lobés situés sur Acidalia Planitia, il a été possible de comparer leur fréquence de formation avec le flux d’impact qui a été utilisé pour les dater. Un important désaccord entre nos données et le modèle à flux constant a pu être observé. Un test d’autocohérence entre le flux d’impact mesuré et le flux utilisé pour dater chaque cratère a permis de montrer que le taux d’impact le plus en accord avec nos données était celui présentant un pic de cratérisation entre 0,5 milliards d’années et la période actuelle. Ce pic est associé à deux collisions dans la ceinture principale d’astéroïdes. Néanmoins, cette méthode inverse est soumise à un problème logique mis en évidence par la simulation d’une population de cratères synthétiques. Il apparaît à posteriori que la variable temporelle de la chronologie martienne doit être la fonction de production des cratères d’une centaine de mètres de diamètre. Ces résultats modifient profondément l’âge des surfaces martiennes qui peuvent être mesurés par comptage de cratères. La datation de l’ensemble des cratères martiens dont les nappes d’éjecta lobés sont très étendues a permis également de mettre en évidence une augmentation de l’âge de ces cratères avec la diminution en latitude. Nous avons interprété ces observations comme étant le résultat de l’évolution récente de l’extension de la couche riche en volatils sous la surface de Mars, en lien avec la variation de l’obliquité de la planète. En effet, une diminution de l’angle d’obliquité de Mars il y a 4 millions d’années a restreint l’extension de la couche de volatils à haute latitude. Le lien étroit entre la localisation de ces cratères et leurs âges a permis de poser certaines conditions quant à l’évolution possible de l’obliquité martienne sur les 80 derniers millions d’années. Enfin, la révision de la base de données de cratères martiens la plus complète à ce jour au moyen d’une interface accessible à tous a permis de créer le premier catalogue de cratères adapté à la datation de surfaces martiennes. Nous avons pour cela mis en place une classification des cratères permettant l’exclusion, lors d’une datation, des cratères de type secondaire, fantôme ainsi que des fausses détections contenus dans la base de donnée originelle. / Counting craters on planetary surfaces is currently the only way to precise the events temporality which have marked the history of terrestrial bodies. This technique requires the precise knowledge of the rate with which impact craters are emplaced over time, the impact flux, but also its evolution in function of crater diameter, the production function. Together, these two variables constitute the chronology system of a planetary body. This system is relatively well constrained between 3,9 and 3,5 billion years before present and considered to be constant since 3 billion years, a hypothesis challenged by earthly and lunar observations. Layered ejecta craters are numerous on Mars. Their morphology is related to the presence of ice-rich material in the subsurface at the moment of the impact. The spatial and temporal evolution of this layer is poorly constrained. This one is primarily influenced by the obliquity of Mars. Their ejecta blankets are continuous and therefore constitute ideal surfaces to date the impact itself. The purpose of this thesis is to better constraint the Martian chronology and to better understand the variation of volatiles layer extent present under the surface of Mars. By the dating of the formation of a layered ejecta crater population located on Acidalia Planitia, it has been possible to compare the emplacement frequency of these structures with the impact flux that has been used to date them. An important mismatch between our data and the constant flux has been noted. An auto-consistency test between the measured impact rate and the rate used to date each crater has shown that the most consistent flux with our data is a cratering spike between 0,5 billion years and the actual period. This spike is associated to two main asteroid break-ups in the main asteroid belt. Nevertheless, this inverse method is challenged by a logical problem highlighted by the simulation of a synthetic population of craters. It appears a posteriori that the temporal fluctuation of the Martian chronology comes from the production function of impact craters of hundred meters of diameter. These results modify considerably the age of the Martian surface that we can measure by counting craters. The dating of all craters which exhibits a high extent of their ejecta blankets has also allowed to highlight an increasing of their age with the decreasing of the latitude. We have interpreted this observation by the result of the late evolution of the volatiles layer extent under the surface of Mars, linked to the shift of the obliquity. A decreasing of the Martian obliquity angle there was 4 million years ago has restricted the volatiles layer extent to high latitude. The close link between the location of these craters and their ages has allowed us to set some conditions of possible evolution of the Martian obliquity during the last 80 Myrs. Finally, the correction of the most complete Martian crater database thanks to a web interface accessible to everyone has allowed to create the first crater catalogue adapted to the martian surface dating. We have developed a crater classification allowing the exclusion, during a surface dating, of secondary craters, ghosts craters as well as false detections contained in the original database.
|
130 |
Exploration de la diversité chimique des Apocynaceae par la technique des réseaux moléculaires : de la création d’une base de données vers l’annotation in silico / Exploration of the chemical diversity of Apocynaceae plants using molecular networking : From the creation of a spectral database to in silico annotationsFox ramos, Alexander 21 December 2018 (has links)
Les alcaloïdes indolo-monoterpéniques (AIMs) constituent une classe de molécules naturelles très étudiée en raison d’un fort potentiel pharmacologique et thérapeutique et d’une grande diversité structurale. D’autre part, les techniques de déréplication par chromatographie liquide couplée à la spectrométrie de masse tandem ont évolué récemment, avec l’émergence de l’approche par réseaux moléculaires (molecular networking). Dans ce contexte, nous avons créé une base de données de spectres de masse tandem moyennés de 172 AIMs témoins, en collaboration avec plusieurs équipes de pharmacognosie dans le monde. Cette base de données, nommée MIADB (Monoterpene Indole Alkaloids DataBase), rendue publique, peut être utilisée comme référence dans des stratégies de déréplication fondées sur l’utilisation des réseaux moléculaires. Nous avons ensuite exploité la MIADB pour l’étude phytochimique de deux Apocynaceae : Geissospermum laeve (Vell.) Miers et Alstonia balansae Guillaumin. Dans un premier temps, l’annotation par la MIADB d’un extrait alcaloïdique des écorces de G. laeve a permis l’isolement et l’élucidation structurale de 3 nouveaux AIMs, dont deux à motif butyrolactone. Par la suite, notre approche a été améliorée par l’emploi du nouvel outil d’annotation in silico MetWork, fondé sur une prédiction métabolique et la modélisation de spectres de masse tandem. C’est ainsi que l’exploration de l’espace chimique d’un extrait alcaloïdique des feuilles d’A. balansae a permis l’identification, puis l’isolement, de 5 nouveaux AIMs du type N-oxyde-sarpagane. La stéréochimie des nouveaux composés a pu être déterminée par l’exploitation de spectres prédits et expérimentaux de dichroïsme circulaire éléctronique.Ce manuscrit décrit, après une introduction consacrée notamment aux emplois du molecular networking pour le ciblage et la découverte de petites molécules naturelles puis aux interconnections biosynthétiques en série AIM, la création puis l’évolution de la MIADB, puis son utilisation dans un workflow de déréplication efficace et de ciblage de nouveaux composés dans des mélanges complexes issus d’Apocynaceae. / Monoterpene indole alkaloids (MIAs) constitute a class of natural products that has been extensively studied due to its important pharmacological and therapeutic potentials, and to its large structural diversity. Dereplication techniques based on liquid chromatography coupled to tandem mass spectrometry have recently evolved, with the implementation of molecular networking-based approaches.In this context, we have created a spectral database that encompasses the averaged tandem mass spectra of 172 reference MIAs, in collaboration with several pharmacognosy research teams around the world. This database, named MIADB (standing for Monoterpene Indole Alkaloids DataBase), was made publicly available and can be used as a reference in the application of molecular networking as a dereplication strategy. Thereafter, we used the MIADB to carry out the phytochemical investigation of two Apocynaceae species: Geissospermum laeve (Vell.) Miers and Alstonia balansae Guillaumin. As a first application, the MIADB-based annotation of an alkaloid extract of the barks of G. laeve led to the isolation and the structural elucidation of three new MIAs, two having a butyrolactone moiety. Afterwards, this approach was improved by the application of a new tool for in silico annotation called MetWork, which is based on metabolic prediction and on the generation of predicted tandem mass spectra. Following this approach, the exploration of the chemical space of an alkaloid extract of the leaves of A. balansae allowed the anticipation and further isolation of five novel MIAs of the N-oxide-sarpagine type. The stereochemistry of all the new molecules could be determined on the basis of experimental and predicted electronic circular dichroism spectra.In the introduction of this manuscript the multiple uses of molecular networking for the identification of small natural molecules are described, as well as the biosynthetic interconnections in the MIAs group. The creation and evolution of the MIADB are then presented, followed by its utilization in efficient dereplication workflows for the targeting of new natural products within complex mixtures from Apocynaceae species.
|
Page generated in 0.0192 seconds