• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 207
  • 106
  • 32
  • Tagged with
  • 319
  • 155
  • 62
  • 60
  • 59
  • 58
  • 47
  • 39
  • 37
  • 36
  • 29
  • 25
  • 23
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Étude des processus introgressifs en évolution par des méthodes de réseaux / Using network-based methods to analyze introgressive events in evolution

Méheust, Raphaël 09 December 2016 (has links)
L'évolution des organismes, des génomes et des gènes n'est pas strictement arborescente; les symbioses, les transferts horizontaux de gènes ou encore la fusion de gènes créent des objets composites formés de parties dont les histoires évolutives sont différentes. Ces processus non arborescents sont appelés introgressifs et ont un impact non négligeable en évolution. Ils sont à l'origine de transitions évolutives majeures comme l'émergence des eucaryotes, des eucaryotes photosynthétiques ou encore de nombreux groupes d'Archaea. Dans le cas des eucaryotes, l'association et la stabilisation d'une Archaea et d'une alpha-protéobactérie a permis l'émergence d'un nouveau groupe d'organismes composites aux propriétés émergentes. L'acquisition de la photosynthèse chez les eucaryotes s'est faite via l'endosymbiose d'une cyanobactérie et, bien que débattue, l'apparition des grands groupes d'Archaea semble être concomitante avec l'acquisition de nombreux gènes d'origine bactérienne. Ces superorganismes ont la particularité d'avoir des génomes composés de gènes de différents partenaires symbiotiques. L'objectif de mon travail de thèse a constitué à étudier l'aspect introgressif de l'évolution par des méthodes de réseaux de similarité de séquence et des méthodes phylogénétiques. Je me suis particulièrement focalisé sur la détection de nouveaux gènes chimériques nommés gènes symbiogénétiques (S-gènes) car composés de parties originaires des différents partenaires symbiotiques. De tels gènes existent dans les génomes et plusieurs règles d'association ont pu être mises en évidence. Plus généralement, la présence de S-gènes étend la notion de mosaïcisme génomique au niveau infra-génique. / Evolution of organisms, genomes and genes does not strictly follow a tree-like process; symbiosis, horizontal gene transfers and gene fusions build high level composite objects with components of phylogenetically distinct origins. Such processes have been called introgressive events and are significant in evolution. They are involved in some major evolutionary transitions such as eukaryogenesis, photosynthesis acquisition in eukaryotes and the origins of major archaeal clades. Eukaryogenesis would have involved (at least) two kinds of partners: an archaeon and an alpha-proteobacterium. Photosynthetic eukaryotes arose from the integration of a cyanobacterium into a eukaryotic cell and recent findings suggested that most archaeal lineages emerged after massive acquisitions of bacterial genes. These composite lineages carry highly chimeric genomes where genes from symbiotic partners co-localize into the same genome. During my PhD thesis, I used sequence similarity networks and phylogenetic methods in order to study reticulate evolution. My research specifically focused on a previously hidden component of composite genomes: symbiogenetic genes (S genes). These chimeric genes are found in genetic mergers, and originate from the association of genes of symbiotic partners. Some association rules have been discovered. In a broad perspective, the discovery of S-genes extends the concept of genome chimerism to the within-gene level.
142

Etude de l'impact d'un changement de régime alimentaire sur le microbiome intestinal de Podarcis sicula / Impact of a quick dietary shift on the microbiome of Podarcis sicula

Vigliotti, Chloé 20 November 2017 (has links)
Nous avons collecté et comparé les microbiotes et les microbiomes intestinaux de plusieurs dizaines de lézards de l’espèce Podarcis sicula, vivant dans des populations continentales et insulaires croates. L’une de ces populations présentait la particularité d’avoir subi un changement de régime alimentaire récent, une transition d’un régime insectivore vers un régime omnivore (à 80% herbivores) sur une période de 46 ans. Les analyses de diversité menées sur la région V4 de l’ARN ribosomique 16S de ces communautés microbiennes ont révélé que la diversité spécifique (diversité alpha) des microbiotes de lézards omnivores (enrichis en archées méthanogènes) excède celle des microbiotes de lézards insectivores. Les communautés microbiennes des lézards apparaissent en outre faiblement structurées : 5 entérotypes peuvent être identifiés au niveau du phylum, et 3 phyla majoraires (les Bactéroidètes, les Firmicutes et les Protéobactéries) sont présents dans cette espèce. Cependant, ni le régime alimentaire, l’origine spatiale ou temporelle, et le sexe des lézards ne se traduisent par des différences significatives et majeures dans les microbiotes. Des analyses linéaires discriminantes avec effet de la taille des OTUs et des reads des microbiomes fonctionnellement annotés indiquent plutôt que le changement de régime alimentaire de Podarcis sicula est associé à des changements ciblés dans l’abondance de certains composants du microbiote et du microbiome de ces lézards, nous conduisant à formuler l’hypothèse de changements ciblés des communautés microbiennes dans cet holobionte non-modèle, par opposition à des transformations plus radicales. Sur un plan plus théorique, cette thèse propose également des modèles de réseaux (réseaux de similarité de reads et graphes bipartis) susceptibles d’aider à approfondir les analyses des microbiomes. / We collected and compared intestinal microbiota and microbiomes from several Podarcis sicula lizards, which live in Croatian continental and insular populations. One of these populations has recently changed its diet over an 46 years timespan, switching from an insectivorous diet to an omnivorous one (up to 80% herbivorous). Diversity analyses of these microbial communities, based on the V4 region of their 16S rRNA, showed that the microbiota taxonomic diversity (or alpha diversity) is higher in omnivorous lizards (enrichment in methanogenic archaea) than in insectivorous ones. Besides, microbial communities seem weakly structured: 5 enterotypes are detected at the phylum level, and 3 major phyla (Bacteroidetes, Firmicutes and Proteobacteria) are present. However, neither diet, spatial or temporal origin, nor lizard gender correlate with significant differences in microbiota. Linear discriminant analyses with size effect, based on OTUs and functionally annotated reads from the microbiomes, suggest that Podarcis sicula diet change is associated to targeted changes of the abundance of some enzymes in the microbiomes. Such a result leads us to propose a hypothesis of targeted changes in the microbial communities of this non-model holobiont, instead of more radical transformations. On a more theoretical level, this thesis also proposes network models (Reads similarity networks and bipartite graphs) that can help improving microbiome analyses.
143

Pipeline intégratif multidimensionnel d'analyse de données NGS pour l'étude du devenir cellulaire / Multi-dimensional and integrative pipeline for NGS-based datasets to explore cell fate decisions

Mohamed Saleem, Mohamed Ashick 30 November 2015 (has links)
L'épigénomique pourrait nous aider à mieux comprendre pourquoi différents types cellulaires montrent différents comportements. Puisque, dans le cadre d'études épigénétiques, il peut êtrenécessaire de comparer plusieurs profils de séquençage, il y a un besoin urgent en nouvelles approches et nouveaux outils pour pallier aux variabilités techniques sous-jacentes. Nous avons développé NGS-QC, un système de contrôle qualité qui détermine la qualité de données et Epimetheus, un outil de normalisation d'expériences de modifications d'histones basé sur les quartiles afin de corriger les variations techniques entre les expériences. Enfin, nous avons intégré ces outils dans un pipeline d'analyse allèle-spécifique afin de comprendre le statut épigénétique de XCI dans le cancer du sein où la perte du Xi est fréquent. Notre analyse a dévoilé des perturbations dans le paysage épigénétique du X et des réactivations géniques aberrantes dans le Xi, dont celles associées au développement du cancer. / Epigenomics would help us understand why various cells types exhibit different behaviours. Aberrant changes in reversible epigenetic modifications observed in cancer raised focus towards epigenetic targeted therapy. As epigenetic studies may involve comparing multi-profile sequencing data, thereis an imminent need for novel approaches and tools to address underlying technical variabilities. Wehave developed NGS-QC, a QC system to infer the experimental quality of the data and Epimetheus, a quantile-based multi-profile normalization tool for histone modification datasets to correct technical variation among samples. Further, we have employed these developed tools in an allele-specific analysis to understand the epigenetic status of X chromosome inactivation in breast cancer cells where disappearance of Xi is frequent. Our analysis has revealed perturbation in epigenetic landscape of X and aberrant gene reactivation in Xi including the ones that are associated with cancer promotion.
144

G4-Hunter : un nouvel algorithme pour la prédiction des G-quadruplexes / G4-Hunter : a new algorithm for G-quadruplexes prediction’s

Bedrat, Amina 06 November 2015 (has links)
Des séquences compatibles avec la formation de G4 sont présentes au niveau de certaines régions clés du génome telles que les extrémités des chromosomes, mais également les régions de commutation de classe des immunoglobulines, les promoteurs de certains gènes dont des oncogènes et des séquences transcrites. Plus de 370 000 cibles potentielles ont été prédites lors des analyses bioinformatiques du génome humain. Cependant, ces prédictions ne sont pas exhaustives étant limitées par la formulation des algorithmes de prédiction utilisés. En effet, les séquences recherchées suivent la formule consensus suivante G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+. Ainsi, en apportant plus de souplesse dans la description du quadruplex nous pourrons identifier et localiser plus de cibles potentielles. C’est pourquoi, nous proposons un nouvel algorithme G4-Hunter qui permettra l’identification la plus exhaustive possible de séquences cibles en prenant en compte la totalité de la région et non plus uniquement la cible potentielle. Par ailleurs, une étude expérimentale à grande échelle (sur une centaine de séquences cibles) a été menée afin de valider et tester la robustesse de G4-Hunter. A l’aide de ce nouvel outil, nous avons pu identifier de nouvelles séquences cibles non identifiées par les approches déjà existantes au sein des génomes humain, HIV et Dictyostelium discoideum. / Biologically relevant G4 DNA structures are formed throughout the genome including immunoglobulin switch regions, promoter sequences and telomeric repeats. They can arise when single-stranded G-rich DNA or RNA sequences are exposed during replication, transcription or recombination. Computational analysis using predictive algorithms suggests that the human genome contains approximately 370 000 potential G4-forming sequences. These predictions are generally limited to the standard G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+ description. However, many stable G4s defy this description and escape this consensus; this is the reason why broadening this description should allow the prediction of more G4 loci. We propose an objective score function, G4- hunter, which predicts G4 folding propensity from a linear nucleic acid sequence. The new method focus on guanines clusters and GC asymmetry, taking into account the whole genomic region rather than individual quadruplexes sequences. In parallel with this computational technique, a large scale in vitro experimental work has also been developed to validate the performance of our algorithm in silico on one hundred of different sequences. G4- hunter exhibits unprecedented accuracy and sensitivity and leads us to reevaluate significantly the number of G4-prone sequences in the human genome. G4-hunter also allowed us to predict potential G4 sequences in HIV and Dictyostelium discoideum, which could not be identified by previous computational methods.
145

Evolutionary insights into the host-­‐specific adaptation and pathogenesis of group B Streptococcus / Etude évolutive de l'adaptation à l'hôte et de la patogénicité des streptocoques du groupe B

Santos Almeida, Alexandre Miguel 31 March 2017 (has links)
Streptococcus agalactiae (streptocoque du groupe B, SGB) est un commensal fréquent des voies intestinale et génito-urinaire dans la population humaine mais constitue une des causes principales d'infections néonatales. Dans le même temps, SGB est connu comme pathogène vétérinaire, responsable de mastites bovines à l'origine de pertes économiques importantes dans plusieurs pays comme le Portugal. L'objectif de ma thèse était d'analyser au niveau génomique les bases de l'adaptation spécifique de SGB à ses hôtes humains et bovins et de l'établissement des lignées plus pathogènes. La comparaison des profils génomiques des souches isolées de nouveau-nés infectés et de leurs mères nous a permis de montrer que la transmission de SGB de mère à enfant est accompagnée dans certains cas par l'acquisition de mutations pathoadaptives. Par ailleurs, l'analyse des séquences génomiques de plus de 600 souches appartenant au complexe clonal (CC) 17, hypervirulent et spécifique à l'hôté humain, nous a permis de caractériser les forces évolutives agissant sur ce complexe. Finalement, l'étude de la colonisation des fermes laitières portugaises par un seul clone CC61 depuis plus de 20 ans a mis en évidence que la régulation spécifique de l'import du fer/manganèse est une stratégie d'adaptation récurrente dans l’environnement bovin. En conclusion, les résultats que nous présentons améliorent notre compréhension de l'adaptation chez les espèces hôte-généralistes, en apportant des idées utiles qui pourront spécifiquement aider à améliorer le contrôle et le traitement des infections de SGB mondialement. / Streptococcus agalactiae (group B Streptococcus, GBS) is a commensal of the intestinal and genitourinary tracts in the human population, while also a leading cause of neonatal infections. Likewise, GBS remains a serious concern in many countries as frequently responsible for bovine mastitis. Therefore, the purpose of my PhD project was to use state-of-the-art whole-genome approaches to decipher the host-specific adaptation and pathogenesis of GBS in both humans and bovines. By comparing the genomic profile of strains from infected newborns and their mothers we showed that the transmission of GBS from mother to child is accompanied in particular instances by the acquisition of specific pathoadaptive mutations. Moreover, from the study of the evolutionary forces acting on the human-specific and hypervirulent clonal complex (CC) 17, we reveal that various systems can evolve to improve the ability of GBS to survive in the human host. Functions related to metabolism, cell adhesion, regulation and immune evasion were among the most preferentially affected in GBS strains from human origin. Conversely, colonization of Portuguese dairy farms by one single CC61 clone for over 20 years highlighted that the specific regulation of iron/manganese uptake is a recurrent adaptive strategy in the bovine environment.
146

A l’assaut du puzzle transcriptomique : optimisations, applications et nouvelles méthodes d’analyse pour le RNA-Seq / Unraveling the transcriptomic puzzle : optimizations, applications and new analysis methods for RNA-Sequencing

Audoux, Jérôme 08 March 2017 (has links)
Depuis leurs apparitions, les technologies de séquençage à haut débit (NGS) ont permis de révolutionner notre connaissance du transcriptome. Le RNA-Seq ou séquençage à haut-débit des transcrits, permet la numérisation rapide d’un transcriptome sous forme de millions de courtes séquences d’ADN. Contenue dans ces données brutes, l’information des transcrits peut être analysée quantitativement sous forme de profils d’expression. Les séquences obtenues contiennent également une multitude d’informations qualitatives comme les jonctions d’épissage, les variants génomiques ou post-transcriptionnels, ainsi que de nouvelles formes de transcriptions moins conventionnelles comme les ARN circulaires, les gènes de fusions ou les longs ARN non-codants.Peu à peu, le RNA-Seq s’impose comme une technologie de référence dans la recherche en biologie, et, demain dans la médecine génomique.Mes travaux de thèse proposent une vue transversale de la technologie RNA-Seq avec comme point de départ l’optimisation des méthodes d’analyses actuelles dans un contexte donné - via des procédures de benchmarking systématiques s’appuyant sur la simulations de données. Ces optimisations sont ensuite exploitées, dans le cadre d’applications sur la biologie des cancer (Leucémies et Hépatoblastome), afin d’identifier de nouveaux biomarqueurs, ainsi qu’une nouvelle stratification des patients dans le but de proposer des pistes thérapeutiques personnalisées. Enfin, mes derniers travaux portent sur la proposition de deux nouvelles méthodes d’analyse du RNA-Seq par décomposition en k-mers. La première, TranSiPedia, propose un nouveau paradigme, ayant pour objectif d'intégrer les données du transcriptome à très large échelle, via l'indexation systématique de données expérimentales. La seconde méthode, DE-kupl, propose une analyse différentielle - sans apriori - des données RNA-Seq pour l’identification de nouveaux biomarqueurs et la caractérisation de nouveaux mécanismes du transcriptome. / Since their introduction, next generation sequencing technologies (NGS) have shaped our vision of the transcriptome. RNA-seq, or high throughput transcript sequencing, enables the fast digitization of a transcriptome in the form of million of short DNA sequences. The information available in the raw data can be used in a quantitative way to extract expression profiles. The obtained sequences also provides a wide range of qualitative information such as splicing junction, genomic or post-transcriptional variants, as well as new forms of less conventional transcription such as circular RNA, fusion genes or long non coding RNA. Gradually, RNA-Seq is becoming a gold standard in molecular biology and tomorrow in genomic medicine.My thesis work proposes a global vision of the RNA-Seq technology, starting with the optimisation of current analysis methods to a particular context through systematic benchmarking procedures relying on the simulation on synthetic data. These optimizations are later used as a part of a work on the biology of cancer in order to identify new biomarkers in leukemia as well as a new stratification of hepatoblastoma patients to propose personalized treatments. Finally, my last work is focused on the proposal of two new analysis methods for RNA-Seq data, both based on the principle of k-mer decomposition. The first method, TranSiPedia, is a new paradigm to integrate transcriptome data at a very large scale through the systematic indexation of experimental data. The second method, DE-Kupl, is a new strategy to perform differential analysis, without a priori knowledge about the transcriptome. DE-kupl is designed to help the discovery of new biomarkers as well as the characterization of new mechanisms of the transcriptome.
147

Comparaison de novo de données de séquençage issues de très grands échantillons métagénomiques : application sur le projet Tara Oceans / De novo comparision of huge metagenomic experiments coming from NGS technologies : application on Tara Oceans project

Maillet, Nicolas 19 December 2013 (has links)
La métagénomique vise à étudier le contenu génétique et génomique d'un échantillon provenant d'un environnement naturel. Cette discipline récente s'attache à étudier les génomes de différents organismes provenant d'un même milieu. La métagénomique pose de nouvelles questions, tant d'un point de vue biologique qu'informatique. Les masses de données générées par les études métagénomiques et la complexité des milieux étudiés, nécessitent de développer de nouvelles structures de données et de nouveaux algorithmes dédiés. Parmi les différentes approches existantes en métagénomique, la métagénomique comparative consiste à comparer plusieurs métagénomes afin d'en connaître les divers degrés de similarité. Lorsque cette comparaison se base uniquement sur le contenu brut des échantillons, sans faire appel à des connaissances externes, on parle de métagénomique comparative de novo. L'objectif des travaux que nous proposons est de développer une méthode permettant d'extraire les séquences similaires de deux jeux de données métagénomiques, où chaque jeu peut être composé de centaines de millions de courtes séquences. La comparaison proposée consiste à identifier les séquences d'un premier jeu similaires à au moins une séquence d'un second jeu. Afin d'être rapide et économe en mémoire, l'implémentation de notre méthode a nécessité la conception d'une nouvelle structure d'indexation, basée sur le filtre de bloom. Le logiciel final, nommé Compareads, a une consommation mémoire faible (de l'ordre de quelques go) et peut calculer l'intersection de deux échantillons de 100 millions de séquences chacun en une dizaine d'heures. Notre méthode est une heuristique qui génère un faible taux de faux positifs. Le logiciel Compareads est dédié à l'analyse de grands jeux de données métagénomiques. À l'heure actuelle, il est le seul outil capable de comparer de tels jeux. Compareads a été appliqué sur plusieurs projets métagénomiques. Notre outil produit des résultats robustes, biologiquement exploitables et en accord avec diverses méthodes fondamentalement différentes. Il est actuellement utilisé de manière intensive sur les échantillons provenant de l'expédition tara oceans. Sur ce projet, notre méthode à permis de mettre en évidence que les grands systèmes océaniques influent sur la répartition globale des micro-organismes marins. / Metagenomics studies overall genomic information of multiple organisms coming from the same biotope. The information is generally provided by next generation sequencing technologies (NGS). Typical data are samples of short reads (i.e. reads of few hundred base pairs). To study such metagenomics information, we developed an original method for extracting similarities between two samples of reads. More precisely, this approach locates the set of common reads present in two samples. In order to fit with current memory capacities and to be time efficient, we used a modified Bloom filter data structure. Finding the common reads between multiple samples and crossing this information with the location of samples leads to visualize some biological processes like ubiquitous species or effect of water stream caring some species. Finally, the tool can also be used as a filter on metagenomics datas to remove for example only one specie. Our software, Compareads, is actually used on the Tara Oceans project where it shows that global dynamic of oceans seems to play a part on the dispersion of marine microorganisms.
148

Applications of proteochemometrics (PCM) : from species extrapolation to cell-line sensitivity modelling / Applications de proteochemometrics : à partir de l'extrapolation des espèces à la modélisation de la sensibilité de la lignée cellulaire

Cortes Ciriano, Isidro 16 June 2015 (has links)
Proteochemometrics (PCM) est une bioactivité prophétique la méthode posante de simultanément modeler la bioactivité de ligands multiple contre des objectifs multiples... / Proteochemometrics (PCM) is a predictive bioactivity modelling method to simultaneously model the bioactivity of multiple ligands against multiple targets. Therefore, PCM permits to explore the selectivity and promiscuity of ligands on biomolecular systems of different complexity, such proteins or even cell-line models. In practice, each ligand-target interaction is encoded by the concatenation of ligand and target descriptors. These descriptors are then used to train a single machine learning model. This simultaneous inclusion of both chemical and target information enables the extra- and interpolation to predict the bioactivity of compounds on targets, which can be not present in the training set. In this thesis, a methodological advance in the field is firstly introduced, namely how Bayesian inference (Gaussian Processes) can be successfully applied in the context of PCM for (i) the prediction of compounds bioactivity along with the error estimation of the prediction; (ii) the determination of the applicability domain of a PCM model; and (iii) the inclusion of experimental uncertainty of the bioactivity measurements. Additionally, the influence of noise in bioactivity models is benchmarked across a panel of 12 machine learning algorithms, showing that the noise in the input data has a marked and different influence on the predictive power of the considered algorithms. Subsequently, two R packages are presented. The first one, Chemically Aware Model Builder (camb), constitues an open source platform for the generation of predictive bioactivity models. The functionalities of camb include : (i) normalized chemical structure representation, (ii) calculation of 905 one- and two-dimensional physicochemical descriptors, and of 14 fingerprints for small molecules, (iii) 8 types of amino acid descriptors, (iv) 13 whole protein sequence descriptors, and (iv) training, validation and visualization of predictive models. The second package, conformal, permits the calculation of confidence intervals for individual predictions in the case of regression, and P values for classification settings. The usefulness of PCM to concomitantly optimize compounds selectivity and potency is subsequently illustrated in the context of two application scenarios, which are: (a) modelling isoform-selective cyclooxygenase inhibition; and (b) large-scale cancer cell-line drug sensitivity prediction, where the predictive signal of several cell-line profiling data is benchmarked (among others): basal gene expression, gene copy-number variation, exome sequencing, and protein abundance data. Overall, the application of PCM in these two case scenarios let us conclude that PCM is a suitable technique to model the activity of ligands exhibiting uncorrelated bioactivity profiles across a panel of targets, which can range from protein binding sites (a), to cancer cell-lines (b).
149

Méthodologie et outils bioinformatiques d'aide à la conception de systèmes biologiques synthétiques pour de nouveaux diagnostics en santé humaine / Methodology and bioinformatics tools to design synthetic biological systems for new human health diagnosis

Rialle, Stéphanie 01 October 2010 (has links)
La biologie synthétique est une discipline en pleine expansion visant à concevoir et construire des systèmes biologiques possédant des fonctions qui n'existent pas dans la nature. Elle se fonde sur des principes d'ingénierie pour rationnaliser la conception de tels systèmes. Le projet CompuBioTic a pour objectif le développement d'un nouveau type de diagnostic du cancer colorectal, se fondant sur une approche de biologie synthétique. Un choix stratégique a été fait et consiste à vouloir développer un système non vivant, ne nécessitant pas de cellule hôte et fondé sur l'utilisation de réseaux protéiques plutôt que génétiques. Très peu de méthodologies et d'outils ont été développés pour faciliter la conception de ce type de système. Cette thèse propose une méthodologie en trois points : conception, simulation et validation expérimentale ainsi que deux outils bioinformatiques, développés pour aider à la conception de réseaux biochimiques synthétiques. Tout d'abord, CompuBioTicDB est une base de données qui regroupe et annote des dispositifs fonctionnels et des molécules réalisant des processus (protéines et petites molécules) pouvant être exploités dans un contexte de biologie synthétique. Deuxièmement, BioNetCAD est un outil permettant de concevoir un réseau biochimique composé de molécules réelles à partir d'un réseau abstrait. BioNetCAD facilite également la simulation spatio-temporelle du système conçu grâce à un lien vers le logiciel HSim. Des portes logiques moléculaires et un dispositif de détection du glucose ont ainsi été conçus, modélisés et validés expérimentalement. Les principes d'un système pour le diagnostic du cancer colorectal sont également proposés. / Synthetic biology is a growing discipline which aims to design and construct biological systems with functions that do not exist in nature. It is based on engineering principles to rationalize the design such systems. The CompuBioTic project aims at the development of a new system for the diagnosis of the colorectal cancer, based on a synthetic biology approach. A strategic choice has been done and consists in wanting to develop a non-living system, which does not require a host cell and which is based on the use of protein rather than genetic networks. Very few methodologies and tools have been developed to facilitate the design of such systems. This thesis proposes a methodology in three steps: design, simulation and experimental validation, as well as two bioinformatics tools, developed to assist the design of synthetic biochemical networks. Firstly, CompuBioTicDB is a database that registers and annotates functional devices and molecules carrying processes (proteins and small molecules) that can be exploited in a context of synthetic biology. Secondly, BioNetCAD is a tool for designing a biochemical network composed of real molecules from an abstract network. BioNetCAD also facilitates spatiotemporal simulation of the designed system with a link to the HSim software. Molecular logic gates and a device for detecting glucose have been designed, modeled and then validated experimentally. The principles of a system for the diagnosis of colorectal cancer are also proposed.
150

Genome-scale metabolic reconstruction and analysis of the Trypanosoma brucei metabolism from a Systems biology perspective / Modélisation du réseau métabolique et analyse du métabolisme de Trypanosoma brucei dans une perspective de biologie des systèmes

Shameer, Sanu 26 April 2016 (has links)
Les progrès récents dans la modélisation informatique des réseaux biologiques permettent maintenant aux chercheurs d'étudier le métabolisme cellulaire des organismes. Dans ce projet, ces approches ont été utilisées pour analyser le métabolisme de Trypanosoma brucei. Ce parasite protozoaire est responsable de la trypanosomiase africaine, une maladie mortelle chez l'homme et qui entraine des dégâts importants dans les élevages. Ce parasite est principalement retrouvé dans les régions d'Afrique sub-sahariennes. Durant cette thèse, des informations sur le métabolisme de T. brucei ont été recueillies à partir d'études publiées, bases de données et de communication personnelle avec des experts qui étudient les différents aspects du métabolisme des trypanosomatides. Cette information a été mise à disposition de la communauté à travers la base de données TrypanoCyc. La base de données a été publiée en Novembre 2014 et a eu plus de 4200 visiteurs provenant de plus de cent pays depuis Novembre 2015. Un modèle métabolique à l'échelle du génome de T. brucei a également été reconstruit sur la base des informations recueillies. Ce modèle a permis de faciliter l'étude du métabolisme de T. brucei en utilisant une approche de biologie des systèmes. Des algorithmes basés sur l'analyse de balance des flux ont été conçus pour optimiser la visualisation et l'étude des propriétés métaboliques du parasite. En utilisant l'algorithme iMat, des modèles spécifiques de la forme sanguine de T. brucei ont été générés à partir des informations fournies par les études publiées et les annotations présentent dans. Enfin, un algorithme a été conçu pour optimiser encore ces modèles spécifiques afin d'améliorer la cohérence de leurs prédictions avec les résultats publiés. Les modèles ainsi créés, spécifiques à la forme sanguine, ont montré une meilleure puissance prédictive que le modèle initial à l'échelle du génome, en particulier pour prédire le comportement métabolique spécifique de différents mutants de T. brucei. / Recent advances in computational modelling of biological networks have helped researchers study the cellular metabolism of organisms. In this project, these approaches were used to analyze Trypanosoma brucei metabolism. This protozoan parasite is the causative agent of African trypanosomiasis, a lethal disease which has been responsible for huge loss of lives and livestock in Sub- Saharan Africa since ancient times. Information on T. brucei metabolism was gathered from published studies, databases and from personal communication with experts studying different areas of Trypanosomatid research. This information has been presented to the public through the TrypanoCyc Database, a community annotated T. brucei database. The database was published in November 2014 and has had over 4200 visitors from more than 100 countries as of November 2015. A manually curated genome-scale metabolic model for T. brucei was also built based on the gathered information to facilitate the study of T. brucei metabolism using systems biology approaches. Flux balance analysis based algorithms were designed to optimize visualization and study interesting metabolic properties. Blood-stream form specific metabolic models were generated using information available from published studies and the TrypanoCyc annotations with the help of the iMAT algorithm. Finally, an algorithm was designed to further optimize these stage specific models to improve the consistency of their predictions with results published in previous studies. These stage-specific models were observed to have a clear advantage over the genome-scale model when predicting stage-specific behaviour of T. brucei, particularly when predicting mutant behaviour.

Page generated in 0.09 seconds