• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 366
  • 155
  • 26
  • 2
  • Tagged with
  • 544
  • 282
  • 155
  • 130
  • 120
  • 114
  • 98
  • 71
  • 71
  • 63
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Contribution à la prévision des crues sur le bassin du Lez : modélisation de la relation pluie-débit en zone karstique et impact de l'assimilation de débits / Improving flood forecasting in the Lez Catchment : modeling the rainfall-runoff relationship in karstic regions and the impact of assimilating discharge data

Coustau, Mathieu 13 December 2011 (has links)
Les crues « éclair » parfois dévastatrices qui touchent les bassins versants méditerranéens du Sud de la France sont difficiles à anticiper. Leur prévision passe par l'utilisation de modèles pluie-débit, dont l'efficacité est encore limitée par les incertitudes liées notamment à la variabilité spatiale des pluies méditerranéennes et à la caractérisation de l'état hydrique initial des hydrosystèmes. Dans le cas de bassins karstiques, à ces incertitudes s'ajoutent celles liées à la dynamique des aquifères et à leur rôle sur la formation des crues. La première partie de ce travail de thèse propose un modèle pluie-débit horaire, distribué, événementiel et parcimonieux pour reproduire les crues « éclair » à l'exutoire du bassin karstique du Lez (Montpellier) de 114 km2. Le modèle est évalué non seulement sur la qualité des simulations de débits mais aussi sur la qualité de son initialisation obtenu grâce à une relation entre sa condition initiale et divers indicateurs de l'état hydrique de l'hydrosystème. Calibré sur 21 épisodes de crues, le modèle fournit des simulations satisfaisantes, et sa condition initiale est significativement corrélée à l'indice d'humidité Hu2 du modèle SIM de Météo-France ou à la piézométrie dans l'aquifère du Lez. Les pluies mesurées par radar en début d'automne sont de bonne qualité et conduisent à une amélioration des simulations de débit et de l'estimation de la condition initiale du modèle. En revanche, les pluies mesurées par radar en fin d'automne sont de moindre qualité et n'améliorent pas les simulations. Face aux incertitudes liées à la paramétrisation du modèle ou à l'estimation des pluies radar, la deuxième partie du travail de thèse analyse l'apport de l'assimilation des débits observés pour corriger en temps réel les paramètres les plus sensibles du modèle et notamment sa condition initiale ou les pluies radar en entrée du modèle. La procédure d'assimilation de données a été mise en place à l'aide du coupleur PALM, qui permet de relier modèle hydrologique à l'algorithme d'assimilation. La correction de la condition initiale du modèle permet généralement d'améliorer les prévisions (sous hypothèse de pluie future connue); la correction de la pluie a des effets similaires. Néanmoins les limites de cette correction sont atteintes dans le cas où le modèle ne reproduit pas de façon satisfaisante la partie initiale de montée des eaux, ce qui pourra être amélioré par la suite. Finalement, ce travail de thèse montre que la complexité d'un bassin karstique peut être représentée efficacement à l'aide d'un nombre réduit de paramètres, pour simuler les débits, et contribue à l'amélioration des outils opérationnels pour la prévision des crues. / The sometimes devastating flash floods which affect the Mediterranean watersheds of the South of France are difficult to anticipate. Flood forecasting requires the use of rainfall-runoff models which are limited in their efficiency by uncertainty related to the spatial variability of Mediterranean rainfall and the characterization of the initial hydric state of the system. In karstic catchments, these uncertainties are added to those due to aquifer dynamics and their role in flood genesis. The first part of this work will present a distributed event-based parsimonious hourly rainfall-runoff model in order to reconstruct flash flood events at the outlet of the 114 km2 Lez Catchment (Montpellier). The model is evaluated not only for the quality of the simulations produced, but for the quality of its parameter initialization obtained using a relationship between the initial condition and various hydric state indicators of the system. Calibrated using 21 flood episodes, the model produces satisfactory simulations and its initial condition is significantly correlated with the Hu2 soil humidity index of the Météo-France model or piezometers measuring the Lez aquifer. Radar rainfall data measured in early fall are of good quality and lead to improved discharge simulations and an improved estimation of the model initial condition. However, rainfall measured by radar in late fall are of poor quality and do not improve the simulations. Confronted with the uncertainty related to model parametrization or the estimation of radar rainfall, the second part of this dissertation analyzes improvements achieved by assimilating observed discharge measurements in order to perform real-time corrections to the most sensitive model parameters and notably the initial condition and the radar rainfall input to the model. The data assimilation procedure was implemented with the help of the PALM coupling software which allows for the linking of the hydrological model with the assimilation algorithm. Correcting the initial condition allowed for, on average, the improvement of forecasting (under a known future rainfall hypothesis); correcting the rainfall had similar effects. Nevertheless, the limits of this approach are reached when the model is unable to satisfactorily reproduce the rising limb of the hydrograph, a problem which may be addressed by future research. Finally, this body of work demonstrates that the complexity of a karstic catchment can be efficiently represented with a reduced number of parameters in order to simulate discharges and contribute to the improvement of operational tools for flood forecasting.
332

Conception d'un dispositif de pesage innovant pour véhicule en mouvement et fabrication de transducteurs en couches épaisses / Designing of an innovative wheigh-in-motion device and manufacturing of thick-film transducers

Coudouel, Denis 24 October 2013 (has links)
Cette thèse de doctorat porte sur l'étude et la réalisation d'une plateforme de pesage dynamique pour véhicule roulant basée sur un concept d'intégration de la charge. Ce concept est mis en œuvre en vue de pouvoir minimiser la taille et l'encombrement de ce type de dispositif tout en effectuant des pesées présentant des caractéristiques métrologiques acceptables. Nous démontrons tout d'abord au travers de la réalisation d'un prototype et de plusieurs campagnes d'essais, la faisabilité de la méthode utilisée. Nous évaluons dans un deuxième temps les performances présentées par le prototype lors du pesage de véhicules légers roulant jusqu'à des vitesses de 35km/h. Une étude est ensuite menée sur les jauges de déformation piézorésistives et les jauges piézoélectriques réalisées en couches épaisses grâce à des techniques de sérigraphie. Nous caractérisons ces transducteurs avec pour objectif leur utilisation dans des dispositifs de pesage en remplacement des jauges de déformation classiques à filaments métalliques. / This PhD thesis is devoted to the study and implementation of a weigh-in-motion platform for vehicle based on a concept of integration of load. This concept is used to minimize the size of this kind of device while performing weighings with acceptable results. First, we show thanks to a protoype and several test campagns, the feasability of the method used. In a second time, we evaluate the performances of the prototype in terms of precision and repeatability with the dynamic weighing of vehicles at speeds up to 35km/h. A study is finally conducted on thick-film piezoresitive strain gauges and piezoelectric gauges manufacturing by a screen-printing process with cermet and polymer pastes. We characterize these tranducers with the goal of used them as an alternative of conventional foil strain gauges.
333

A la découverte des agents pathogènes et microorganismes des tiques par séquençage de nouvelle génération et QPCR microfluidique à haut débit / Screening of tick-borne pathogens and microorganisms in caribbean ticks by next generation sequencing and high-throughput microfluidic real-time PCR

Gondard, Mathilde 07 December 2017 (has links)
Les maladies à transmission vectorielle sont dues à des agents pathogènes transmis par des arthropodes hématophages. Ces vecteurs assurent une transmission active (mécanique ou biologique) d’un agent infectieux d’un vertébré vers un autre vertébré. A l’échelle mondiale, les tiques sont responsables de la transmission de la plus grande variété d’agents pathogènes, elles transmettent des microorganismes responsables de maladies bactériennes (borréliose de Lyme, rickettsioses) ou parasitaires (babésioses, theilérioses), ou même virales (encéphalite à tiques).Les Antilles se situent au cœur de la zone Néotropicale des Caraïbes, et constituent une zone à risque pour l’émergence de maladies vectorielles en raison des conditions climatiques favorables aux vecteurs et des échanges intercontinentaux importants (flux illégal d’animaux, oiseaux migrateurs,…). La situation épidémiologique de la zone Caraïbe vis-à-vis des maladies transmises par les tiques est très peu documentée. Les études menées sur le terrain portent essentiellement sur des agents pathogènes affectant les animaux comme Ehrlichia ruminantium, Babesia (bovis et bigemina) et Anaplasma marginale et sont donc loin de pouvoir répondre aux questions concernant le risque d’émergence ou de réémergence de maladies à tique. Ainsi, il est nécessaire et urgent de développer des outils efficaces de surveillance épidémiologique qui permettraient la détection des agents pathogènes, nouveaux, connus ou non suspectés présents dans les tiques. C’est dans ce contexte d’amélioration des performances de veille sanitaire des maladies à tiques dans les Caraïbes que prend place le projet de thèse. La visée de la thèse était de faire un état des lieux des agents pathogènes d’intérêt médical et vétérinaire présents dans les tiques caribéennes à l’aide de techniques de détection à haut débit. Pour cela nous avons d’abord réalisé un séquençage à haut débit d’ARN extraits de tiques collectées en Guadeloupe et en Martinique afin de réaliser un inventaire sans a priori des agents pathogènes (bactéries, parasites, et virus) présents. Cette analyse a permis de mettre en évidence une grande diversité en microorganismes pathogènes au sein de nos échantillons, révélant également la présence de quatre virus appartenant à de nouveaux genres viraux récemment décrits et associés aux arthropodes. Les informations obtenues via le séquençage, additionnées aux données disponibles dans la littérature ont permis de constituer ainsi une liste des agents pathogènes transmis par les tiques nécessitant une surveillance sanitaire dans les caraïbes. A partir de ce répertoire nous avons développé un système de dépistage à haut-débit d’agents infectieux applicable à toute la zone des caraïbes. L’outil de détection est un support microfluidique de type puce à ADN, basé sur la technologie BioMarkTM dynamic arrays (Fluidigm Corporation) qui permet de réaliser de la PCR en temps réel à haut débit afin de détecter simultanément 48 à 96 cibles au sein de 48 à 96 échantillons. Deux puces ont été développées, une première pour le suivi des bactéries et parasites, et une deuxième pour le suivi des virus. Leur performance a été testée sur des échantillons de tiques collectées en Guadeloupe et en Martinique. Ce dépistage à grande échelle a donné un aperçu complet de la situation épidémiologique de 45 bactéries, 17 parasites and 31 virus potentiellement transmis par les tiques dans les Antilles Françaises. La méthode de surveillance développée durant cette thèse représente une amélioration majeure des techniques de veille épidémiologique, permettant la détection rapide et concomitante d’un large panel d’agent pathogène. Elle sera prochainement appliquée au criblage à haut débit des agents infectieux présent dans des tiques collectées à travers la Caraïbe, provenant notamment de Trinité-et-Tobago, Saint-Kitts, la Barbade, et Sainte-Lucie, grâce à la collaboration du réseau CaribVet, et de vétérinaires locaux / Vector-borne diseases are illnesses caused by pathogens transmitted by haematophagous arthropods which provide active transmission (mechanical or biological) of infectious agents from one vertebrate to another. Among these vectors, ticks are known to carry and transmit the greatest variety of pathogens of public health and veterinary importance. They transmit microorganisms responsible for bacterial (Lyme borreliosis, rickettsioses), parasitic (babesiosis, theileriosis), or viral diseases (tick-borne encephalitis).The Antilles are located in the heart of the Caribbean Neotropical Zone. This area can be considered at risk for the emergence of vector-borne diseases mainly due to favorable environmental conditions and intercontinental exchanges (e.g. legal and illegal animal trade, migratory birds). However, the epidemiological situation of the Caribbean area, with regard to tick-borne diseases, is still poorly documented. Indeed, most of field studies only focused on animal pathogens such as Ehrlichia ruminantium, Babesia (bovis and bigemina) and Anaplasma marginale and questions about the risk of emergence or re-emergence of tick-borne diseases remain unanswered. Thus, it is crucial to develop efficient epidemiological surveillance tools that would enable the detection of new, known or unexpected pathogens present in ticks. In this context, the main objective of my thesis was to obtain an overview of pathogens of medical and veterinary interest present in Caribbean ticks using new high-throughput technologies. We first used a high-throughput sequencing approach to determine pathogens present in ticks (bacteria, parasites, and viruses) collected in Guadeloupe and Martinique. This analysis revealed a great diversity of pathogenic agents in our samples and highlighted the presence of four viruses belonging to new viral families recently described and associated with arthropods. Results of sequencing combined with data available in the literature allowed us to make the most exhaustive list of pathogens potentially transmitted by ticks and requiring health surveillance in the Caribbean area. From this pathogen inventory, we developed a system of high-throughput screening of infectious agents applicable to the whole Caribbean area. This molecular tool is a microfluidic system based on the BiomarkTM dynamic arrays technology (Fluidigm Corporation), which enables high-throughput real-time PCR to simultaneously detect 48-96 targets within 48 to 96 samples. Two different chips have been developed, one for bacteria and parasites monitoring, and one for viruses. Their efficiency was tested on tick samples collected in both Guadeloupe and Martinique. This large-scale screening provided a comprehensive overview of the epidemiological situation of 45 bacteria, 17 parasites and 31 viruses potentially transmitted by ticks in the French West Indies. The high-throughput detection tool developed during my thesis represents a major improvement in epidemiological surveillance technology, enabling the rapid and concomitant monitoring of a wide range of pathogens. It will soon be applied to high-throughput screening of infectious agents found in ticks collected throughout the Caribbean, including Trinidad and Tobago, St. Kitts, Barbados, and St. Lucia, thanks to the collaboration with the CaribVet network, and local veterinarians
334

Identification des bases génétiques des malformations anévrysmales de la veine de Galien / Towards the Identification of Genetic Basis of Vein of Galen Aneurysmal Malformation

Vivanti, Alexandre 19 December 2018 (has links)
La malformation anévrysmale de la veine de Galien (MAVG) est une malformation vasculaire cérébrale congénitale qui représente près d’un tiers des anomalies vasculaires pédiatriques. Au sein d’une cohorte de 51 patients atteints d’une MAVG, nous avons identifié 5 individus porteurs de mutations hétérozygotes pathogéniques d’EPHB4. Ces mutations incluent une mutation tronquante survenue de novo ainsi que des mutations d’épissage et faux-sens hétérozygotes délétères héritées d’un parent. L’invalidation d’EPHB4 chez les embryons de Danio rerio est à l’origine d’anomalies vasculaires cérébrales spécifiques impliquant la veine dorsale longitudinale, la veine orthologue médiane du prosencéphale (précurseur embryonnaire de la veine de Galien). La co-injection de l’ARNm tronqué a permis la restauration d’un phénotype sauvage démontrant que le phénotype vasculaire observé est la conséquence d’une perte de fonction d’EPHB4. L’ensemble de ces données indique qu’EPHB4 est un gène déterminant chez un sous-groupe de patients atteints d’une MAVG, comme chez Danio rerio. Les mutations perte de fonction d’EPHB4 sont à l’origine d’anomalies spécifiques du développement vasculaire cérébral. L’identification de mutations pathogéniques d’EPHB4 chez des patients présentant des malformations capillaires implique une surveillance attentive de la grossesse. Cette surveillance échographique renforcée pourrait permettre la détection précoce d’une MAVG et une prise en charge anténatale et néonatale optimale. / Vein of Galen aneurysmal malformation (VGAM) is one of the most common fetal brain vascular malformations. We conducted whole exome sequencing in 19 unrelated VGAM patients and subsequently screened candidate gene in a cohort of 32 additional patients. We found 5 affected individuals with heterozygous mutations in EPHB4 including de novo frameshift or inherited deleterious splice or missense mutations predicted to be pathogenic by in silico tools. Knockdown of EPHB4 in zebrafish embryos leads to specific anomalies of dorsal cranial vessels including dorsal longitudinal vein, the ortholog of the median prosencephalic vein, the embryonic precursor of the vein of Galen. This model allowed todemonstrate EPHB4 loss of function mutations in VGAM by the ability to rescue the brain vascular defect in knockdown zebrafish co-injected with wild type but not truncated EPHB4 mimicking the frameshift mutation. Our data showed that in both species, loss of function mutations of EPHB4 result in specific and similar brain vascular development anomaliesThe identification of EPHB4 pathogenic mutation in patients presenting capillary malformation or VGAM should lead to careful follow up of pregnancy of carriers for early detection of VGAM in order to propose optimal neonatal care. Endovascular embolization indeed greatly improved the prognosis of VGAM patients.
335

Nouvelle forme d'onde et récepteur avancé pour la télémesure des futurs lanceurs / New waveform and advanced receiver for new launchers telemetry

Piat-Durozoi, Charles-Ugo 27 November 2018 (has links)
Les modulations à phase continue (CPMs) sont des méthodes de modulations robuste à la noncohérence du canal de propagation. Dans un contexte spatial, les CPM sont utilisées dans la chaîne de transmission de télémesure de la fusée. Depuis les années 70, la modulation la plus usitée dans les systèmes de télémesures est la modulation CPFSK continuous phase frequency shift keying filtrée. Historiquement, ce type de modulation est concaténée avec un code ReedSolomon (RS) afin d'améliorer le processus de décodage. Côté récepteur, les séquences CPM non-cohérentes sont démodulées par un détecteur Viterbi à sortie dure et un décodeur RS. Néanmoins, le gain du code RS n'est pas aussi satisfaisant que des techniques de codage moderne capables d'atteindre la limite de Shannon. Actualiser la chaîne de communication avec des codes atteignant la limite de Shannon tels que les codes en graphe creux, implique deremanier l’architecture du récepteur usuel pour un détecteur à sortie souple. Ainsi, on propose dans cette étude d' élaborer un détecteur treillis à sortie souple pour démoduler les séquences CPM non-cohérentes. Dans un deuxième temps, on concevra des schémas de pré-codages améliorant le comportement asymptotique du récepteur non-cohérent et dans une dernière étape on élabora des codes de parité à faible densité (LDPC) approchant la limite de Shannon. / Continuous phase modulations (CPM) are modulation methods robust to the non-coherency of propagation channels. In a space context, CPMs are used in the communication link between the rocket and the base stations. Since the 70's, the most popular telemetry modulation is the filtered continuous phase frequency shift keying (CPFSK). Traditionally, the CPFSK scheme isconcatenated with a Reed-Solomon (RS) code to enhance the decoding process. At the receiver side, the non-coherent CPM sequences are demodulated through a hard Viterbi detector and a RS decoder. However, the RS's coding gain is no more satisfactory when directly compared to modern coding schemes enable to reach the Shannon limit. Updating the communication link to capacity achieving codes, as sparse graph codes, implies to redesign the receiver architecture to soft detector. In that respect, we propose in this study to design a trellis-based soft detector to demodulate non-coherent CPM sequences. In a second part, we will elaborate precoding schemes to improve the asymptotic behaviour of the non-coherent receiver and in a last step we will build low density parity check codes approaching the Shannon limit.
336

Impacts des changements climatiques sur l'hydrologie des bassins versants dans l'est du Canada = Climate change impacts on catchment hydrology in eastern Canada

Aygün, Okan January 2021 (has links) (PDF)
No description available.
337

Identification de nouvelles bases moléculaires des cancers précoces par séquençage à haut débit. / Identification of new molecular basis of early-onset cancers by means of high-throughput sequencing

Fermey, Pierre 13 December 2017 (has links)
Une des plus grandes avancées en cancérologie et en génétique au cours des vingt dernières années fût l'identification des formes héréditaires de cancer et des gènes deprédisposition impliqués. Chez une majorité de patients soupçonnés de présenter une formehéréditaire de cancer, les analyses centrées sur les gènes connus pour être impliqués dansles prédispositions mendéliennes au cancer restent bien souvent négatives. Aujourd'hui,grâce à l'émergence du séquençage à haut-débit (NGS), il est possible de séquencerl'ensemble des exons (exome) d'un individu ou plusieurs centaines de gènes dans un lapsde temps court et à des coûts raisonnables. Dans ce contexte, nous avons appliqué plusieurs stratégies basées sur ces nouveaux outils, avec l'objectif d'identifier de nouvellesbases moléculaires des cancers héréditaires à survenue précoce. Tout d’abord, nous avons employé une stratégie d'analyse exomique intrafamiliale dans une famille atypique présentant des chondrosarcomes de localisation thoracique pour lesquels aucune base moléculaire n'avait pu être mise en évidence. Grâce à cette stratégie, nous avons pu identifier une altération tronquante du gène EXT2 (NM_000401.3; c.237G>A; p.Trp79*). Les altérations perte de fonction documentées pour ce gène sont impliquées dans la maladie des ostéochondromes multiples (OM), des tumeurs bénignes. Or, dans cette famille, aucun signe clinique d'OM n'était présent. Ces travaux nous ont donc permis d'étendre le spectre phénotypique des mutations EXT2 et de modifier la prise en charge clinique de cette famille. Nous avons ensuite employé une stratégie d'analyse exomique soustractive de trio enfant malade / parents sains dans le but d’identifier des mutations de novo potentiellement responsables de la prédisposition génétique au cancer observée chez un jeune patient ayant développé un médulloblastome du cervelet à l’âge de 8 ans, suivi d’un méningiome à 22 ans. L’analyse exomique du trio a révélé l’existence chez ce patient d'une mutation de novo faux-sens affectant un acide aminé très conservé de la protéine HID-1. Cette dernière est particulièrement exprimée dans les cellules neuronales et sécrétrices, et semble fonctionner autour de l’appareil de Golgi pour réguler le tri des vésiculesnouvellement formées. Ainsi, notre hypothèse est qu’un défaut de la protéine HID-1, lié à une mutation du gène HID-1, perturberait la voie de sécrétion et participerait à la genèse du médulloblastome. Ces travaux, toujours en cours, démontrent à la fois la force de la stratégie exomique de trio pour identifier rapidement des mutations de novo et illustre toute la difficultéd'interprétation des variants détectés dans des gènes non impliqués dans le cancer. Par ailleurs, nous avons appliqué une stratégie exomique soustractive et interfamiliale à une cohorte de dix patients ayant développé un corticosurrénalome à un âge très précoce et pour lesquels aucune base moléculaire n'a pu être mise en évidence. Malheureusement, nous n'avons pas pu identifier de nouvelles bases moléculaires du corticosurrénalome de l'enfant par ces techniques. Enfin, sous l'hypothèse que des mutations rares ou privées dans un nombre limité de gènes impliqués dans le cancer contribueraient à des formes héréditaires de cancer, nous avons entrepris un projet visant à séquencer à haut débit 201 gènes fortement impliqués dans le cancer chez des patients ayant développé des tumeurs à un âge pédiatrique. Les premiers résultats de ce projet toujours en cours ont permis de confirmer la robustesse de cette technique et suggèrent une extension phénotypique du spectre des mutations DICER1 ainsi qu'une contribution oligogénique des gènes de réparation de l'ADN dans les tumeurs pédiatriques. L'ensemble de ces résultats seront bientôt compilés au sein d'une base de données et bénéficieront d'une analyse statistique fine avec l'objectif d'identifier des enrichissements en variants rares dans des gènes ou voies biologiques. / One of the greatest advances in oncology and genetics over the past 20 years has been the identification of hereditary forms of cancer and of the cancer genes. Nevertheless, in a majority of patients suspected to present an inherited form of cancer, analyses of the genes known to be involved in the Mendelian predispositions to cancer often remain negative. Today, thanks to the emergence of high-throughput sequencing (NGS), it is now possible to sequence all exons of an individual (exome) or several hundred genes in a short period of time and for a reasonable cost. In this context, we have applied several strategiesbased on these new tools in order to identify new molecular basis of early-onset cancers. First, we applied an intra-familial exome analysis strategy to an atypical family with chondrosarcomas of the chest, for which no molecular basis could be identified. Using this strategy, we were able to identify a truncating alteration of the EXT2 gene NM_000401.3; c.237G> A; p.Trp79 *). The documented loss of function alterations of this gene are implicated in a disease called multiple osteochondromas (OM), associated with benign lesions. Interestingly, these patients showed no clinical signs of OM indicating a potential phenotypic extension of EXT2 mutations. Plus, this work allowed us to change the clinical management of this family. We then used a strategy of subtractive exomic analysis of trio sick child/healthy parents in order to identify de novo mutations in a young patient who developed a medulloblastoma of the cerebellum at 8 years-old followed by a meningioma at 22 years-old. The analysis of the trio revealed the existence of a de novo mutation affecting a highly conserved amino acid of the HID-1 protein. HID-1 is specifically expressed in neuronal and secretory cells, and seems to function around the Golgi apparatus to regulate the sorting of newly formed vesicles. Our hypothesis is that a defect of the HID-1 protein linked to a mutation of the HID-1 gene, could alter the secretory pathway therefore contributing to the development of the tumor. This work, which is still ongoing, demonstrates both the strength of the trio strategy for the rapid identification of de novo mutations and illustrates all the difficulty of interpreting variants detected in genes not yet involved in cancer. Then, thanks to the recruitment of the Laboratory of Molecular Genetics of the CHU of Rouen, we have collected a cohort of 10 patients who developed an adrenocortical carcinoma (ACC) at a very early age and for which no molecular basis could be identified. Despite subtractive and inter-familial exomic analyses, we were unable to highlight new molecular bases for these cases of pediatric ACC. Finally, under the assumption that rare or private mutations in a limited number of genes involved in cancer could contribute to inherited forms of cancer, we undertook a project to sequence 201 genes involved in cancer in patients who developed tumors at a pediatric age. The first results of this project confirmed the robustness of this technique and suggested a phenotypic extension of the DICER1 mutation spectrum as well as an oligogenic contribution of DNA repair genes in pediatric tumors. Soon, these results will be compiled in a database and will benefit from a statistical analysis with the objective to identify enrichment of rare variants in specific genes or biological pathways in these patients compared to control individuals.
338

Algorithme de recherche incrémentale d'un motif dans un ensemble de séquences d'ADN issues de séquençages à haut débit / Algorithms of on-line pattern matching in a set of highly sequences outcoming from next sequencing generation

Ben Nsira, Nadia 05 December 2017 (has links)
Dans cette thèse, nous nous intéressons au problème de recherche incrémentale de motifs dans des séquences fortement similaires (On-line Pattern Matching on Highly Similar Sequences), issues de technologies de séquençage à haut débit (SHD). Ces séquences ne diffèrent que par de très petites quantités de variations et présentent un niveau de similarité très élevé. Il y a donc un fort besoin d'algorithmes efficaces pour effectuer la recherche rapide de motifs dans de tels ensembles de séquences spécifiques. Nous développons de nouveaux algorithmes pour traiter ce problème. Cette thèse est répartie en cinq parties. Dans la première partie, nous présentons un état de l'art sur les algorithmes les plus connus du problème de recherche de motifs et les index associés. Puis, dans les trois parties suivantes, nous développons trois algorithmes directement dédiés à la recherche incrémentale de motifs dans un ensemble de séquences fortement similaires. Enfin, dans la cinquième partie, nous effectuons une étude expérimentale sur ces algorithmes. Cette étude a montré que nos algorithmes sont efficaces en pratique en terme de temps de calcul / In this thesis, we are interested in the problem of on-line pattern matching in highly similar sequences, On-line Pattern Matching on Highly Similar Sequences, outcoming from Next Generation Sequencing technologies (NGS). These sequences only differ by a very small amount. There is thus a strong need for efficient algorithms for performing fast pattern matching in such specific sets of sequences. We develop new algorithms to process this problem. This thesis is partitioned into five parts. In the first part, we present a state of the art on the most popular algorithms of finding problem and the related indexes. Then, in the three following parts, we develop three algorithms directly dedicated to the on-line search for patterns in a set of highly similar sequences. Finally, in the fifth part, we conduct an experimental study on these algorithms. This study shows that our algorithms are efficient in practice in terms of computation time.
339

Correction de données de séquençage de troisième génération / Error correction of third-generation sequencing data

Morisse, Pierre 26 September 2019 (has links)
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain. / The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome.
340

Genetic Susceptibility and Molecular Characterization of Glioma / Susceptibilité génétique et caractérisation moléculaire des gliomes

Labreche, Karim 27 June 2018 (has links)
Les gliomes constituent les plus fréquentes des tumeurs malignes primaires du système nerveux central. Les liens qui existent entre ces tumeurs et un certain nombre de cancers rares héréditaires, comme les Neurofibromatoses I et II ou les syndromes de Turcot et de Li-Fraumeni, attestent d’une prédisposition génétique aux gliomes. L’observation d’un risque deux fois plus élevé de développer un gliome chez les parents de premier degré de patients atteints suggère aussi une possible prédisposition génétique dans les gliomes sporadiques. Par ailleurs, l’analyse à haut débit permet de préciser le profil somatique des gliomes et d’identifier des biomarqueurs pronostiques voire prédictifs et s’inscrire dans une démarche de traitement personnalisé du patient. Durant ma thèse, je me suis focalisé sur deux axes de recherches complémentaires; l’identification de gènes de susceptibilité et la découverte de nouveaux gènes fréquemment mutés dans les gliomes, afin de déterminer les voies de signalisation contribuant à la gliomagenèse. Dans leur ensemble, les résultats obtenus dans cette thèse apportent non seulement des informations importantes sur la nature de la prédisposition génétique aux gliomes mais également de son association spécifique pour les différents sous-types de tumeurs. La découverte d’un nouveau gène muté, offre la perspective à plus long terme d’un traitement personnalisé pour chaque patient sur la base du profil génétique de sa tumeur. / Gliomas are the most common adult malignant primary tumour of the central nervous system. Thus far, no environmental exposures has been linked to risk except for ionizing radiation, which only accounts for a very small number of cases. Direct evidence for inherited predisposition to glioma is provided by a number of rare inherited cancer syndromes, such as Turcot's and Li–Fraumeni syndromes, and neurofibromatosis. Even collectively, these diseases however account for little of the twofold increased risk of glioma seen in first-degree relatives of glioma patients. My research was centred on two complementary research activities: Identifying susceptibility genes for glioma to delineate key biological pathways contributing to disease pathogenesis and to identify new recurrent mutated genes for glioma to provide for further insights into glial oncogenesis and suggesting targets for novel therapeutic strategies. Collectively the findings in this thesis provide increased insight into the nature of genetic predisposition to glioma and substantiate the often distinct associations between susceptibility variants and glioma molecular groups. In addition the discovery of a new mutated gene in glioma offers the potential to support drug development and advance precision medicine for this tumours.

Page generated in 0.0604 seconds