• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 91
  • 15
  • 1
  • Tagged with
  • 280
  • 280
  • 148
  • 121
  • 113
  • 98
  • 62
  • 42
  • 36
  • 26
  • 25
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
42

Détection, annotation fonctionnelle et régulation des isoformes de l'épissage alternatif associées au cancer de l'ovaire / Detection, functional annotation and regulation of splicing isoforms in ovarian cancer

Brosseau, Jean-Philippe January 2012 (has links)
Résumé: L’expression des gènes modifiés contribue à l’initiation et la progression du cancer. Malheureusement, les recherches actuelles s’attardent essentiellement à l’expression globale des gènes sans tenir compte des différentes isoformes des ARNm résultant de l’épissage alternatif, codant potentiellement pour des protéines de fonctions différentes. En effet, la haute similitude et la complexité des isoformes ARNm rendent la discrimination des isoformes laborieuse, raisons pour lesquelles l’épissage alternatif est historiquement étudié gène par gène. C’est la raison pour laquelle nous avons développé une méthodologie à haut débit pour la quantification des isoformes d’ARNm. Basé sur cette technique, cette Thèse présente une série d’évidences qui appuie l’hypoThèse selon laquelle certaines isoformes d’ARNm sont nécessaires à la tumorigénèse. Précédemment, des études bioinformatiques à grande échelle ainsi que des validations expérimentales à petite échelle ont révélé la présence d’isoformes spécifiques à certains types de cancers. Toutefois, ces conclusions ont été tirées à partir de tumeurs dont le contenu cellulaire est hétérogène. Or, il est bien connu que les niveaux des isoformes d’ARNm diffèrent largement en fonction du type cellulaire et il est possible que les différences observées dans des tumeurs entières soient des artéfacts résultant de la complexité cellulaire des tissus comparés. En nous basant sur le cancer de l’ovaire comme modèle, nos préparations homogènes de différents types cellulaires nous ont permis de révéler la présence d’isoformes associées au cancer indépendamment de l’hétérogénéité des tumeurs. Étonnamment, les changements les plus intéressants ne se retrouvent pas dans les cellules cancéreuses à proprement dites, mais dans les cellules "normales" en bordure de la tumeur. Notre analyse des facteurs de régulation de ces isoformes nous a permis d’affirmer que ces changements ne sont pas dûs à un dérèglement anarchique des cellules cancéreuses, mais découlent plutôt d’un programme destiné à avantager les cellules cancéreuses. Pour évaluer la fonction des isoformes d’ARNm, nous avons généralisé des outils moléculaires permettant de reprogrammer spécifiquement l’expression d’isoformes de gènes cible dans des lignées cellulaires cancéreuses. Ainsi, le criblage systématique d'isoformes d’ARNm de gènes cibles associés au cancer a permis de révéler leur caractère pro-cancer dans des essais in vitro. L'ensemble de ces travaux démontrent la contribution des isoformes d’épissage dans le développement des tumeurs solides. // Abstract: Cancer cells modify their gene expression pattern to promote tumor growth. Unfortunately, current research focuses almost exclusively on global gene expression changes, without taking into account the fact that the majority of genes produce multiple alternative splicing variants, which potentially code for proteins of different functions In fact, the main reason splicing isoforms are still studied on a gene by gene basis is because the high sequence similarity and complexity of mRNA isoforms make it very difficult to detect and quantify them. To overcome this difficulty, we developed a high-throughput methodology to accurately quantify splicing isoforms. This methodology has been applied in this thesis to generate evidence supporting a causal role for splicing isoforrns in the tumorigenesis of solid tumors. A few years ago, genome-wide bioinformatics predictions, and some experimental validations in human tissues, suggested the existence of cancer-specific splicing isoforms. However, these conclusions may be simply explained by the cellular heterogeneity of tumor. In fact, it is well established that alternative splicing is a cell type-specific process. To address this, we microdissected cancer tissues and demonstrated that some splicing isoforms are truly cancer-associated and independent of tumor cell type content. Surprisingly, the most interesting changes were found in the "normal" stromal cells surrounding the tumor and not within the cancer cells. Our analysis of splicing-factor expression changes using the same tissue set allowed us to confirm that these splicing shifts were not a random process, but rather part of a defined splicing program promoting tumor development. To evaluate the functional contribution of splicing isoforms, we developed molecular tools that modulate splicing of endogenous targets in cancer cell lines. We used these tools to decipher the pro-cancer properties of cancer-associated splicing isoforms using in vitro assays. Overall, this work demonstrated the contribution of splicing isoforms in solid tumor development.
43

Étude génomique de l'interférence entre la réplication et la transcription comme source du stress réplicatif. / Genome-wide study of the interference between DNA replication and transcription as a source of replication stress

Padioleau, Ismaël 24 November 2017 (has links)
L’activation d’oncogènes entraine une prolifération aberrante des cellules, un stress réplicatif et des cassures de l’ADN. Un lien a été établi entre l’instabilité génomique résultant des cassures et l’inhibition de checkpoints entrainant l’accumulation de mutations et finalement le cancer (Halazonetis et al. 2008). Cependant, les mécanismes liant ces différents évènements n’ont pas encore été caractérisés. Notre hypothèse est que la prolifération incontrôlée des cellules augmente les incidents dus aux conflits entre les polymérases responsables de la réplication et celles responsables de la transcription. Lors de la rencontre des deux polymérases, l’accumulation de surenroulements positifs de l’ADN induit un blocage des fourches de réplication. Ceci crée des zones de fragilité, notamment dues à l’exposition d’ADN simple brin, et pourrait être à l’origine des cassures observées chez les cellules tumorales. Pour valider cette hypothèse, les biologistes de l'équipe ont étudié plusieurs lignées de cellules HeLa dans lesquelles les conflits réplication-transcription sont augmentés et j'ai réalisé l'analyse bioinformatique des approches génomiques suivantes :-DRIP-seq pour la détection des R-loops, une structure double brin hybride ADN/ARN qui se forme lors de la transcription, exposant ainsi un brin d’ADN simple brin.- ChIP-seq de γ-H2AX, une marque d’histone indiquant les cassures de l’ADN.-ChIP-seq de phospho-RPA (S33), un substrat de la kinase ATR au niveau des fourches bloquées. Pour chaque expérience, nous avons utilisé une lignée contrôle et deux lignées dans lesquelles TOP1 et ASF/SF2 sont appauvries avec un shRNA inductible (shTOP1 et shASF). La Topoisomérase I (TOP1) est une enzyme qui relaxe les surenroulements de l’ADN. Le complexe ASF/SF2 est un facteur d’épissage responsable entre autres de l’assemblage des mRNP (ribonucleoprotein particles) au moment de la transcription, qui limitent la formation des R-loops. L’analyse bioinformatique de ces données, ainsi que d'autres données de la littérature, m'a permis d'identifier des régions à risque du génome, localisées en aval de gènes fortement transcrits et répliqués précocement en phase S par des fourches progressant en sens opposé à la transcription. J’ai également observé que les gènes impliqués dans le cancer sont surreprésentés dans ces régions à risque. / Oncogenes activation promotes aberrant cell proliferation, increasing replication stress and DNA damage. It has been proposed that genomic instability leads to checkpoints inhibition and promotes cancer development (Halazonetis et al. 2008). However, the link between aberrant proliferation, replication stress and DNA breaks is still unclear. We hypothesized that aberrant proliferation leads to more incident due to DNA and RNA polymerases encounter and stalling. When the two polymerases encounter, the accumulation of positive-supercoiled DNA between two polymerases induces fork stalling, resulting in the formation of fragile structures such as single-stranded DNA (ssDNA). These ssDNAs formed at stalled forks could be a source for DNA breaks, promoting the development of cancer cells. To validate this hypothesis, biologists from our team have worked on HeLa cell lines with increased replication-transcription conflicts. I perform the bioinformatics analysis of the following genomic data:- DRIP-seq: R-Loops positioning on genome using immunoprecipitation on DNA/RNA hybrids.-γ-H2AX ChIP-Seq: Gamma-H2AX is an histone mark found at DNA breaks.-pRPA ChIP-Seq : Positioning of stalled forks using the substrate of ATR kinase, phospho-RPA (S33) as a marker.Each data was produced on control cells and two cell lines where TOP1 and ASF/SF2 were depleted by as inducible shRNA (shTOP1 and shASF). Topoisomerase 1 is a topological enzyme that unwinds DNA when supercoiling accumulates. ASF/SF2 is part of the splicing complexes that processes mRNP (messenger ribonucleoprotein particles) to prevent the accumulation of R-loops during transcription. Using these data and others from literature, I determined that regions having higher risk to induce replication stress are located downstream of highly transcribed and early replicated genes, and preferentially with head-on collision between DNA and RNA polymerases. I also revealed that cancer-related genes are enriched in these regions of the genome.
44

Etude des altérations génomiques acquises dans les leucémies aiguës myéloïdes impliquant le core binding factor / Acquired genomic aberrations in acute myeloid leukemia with core binding factor involvement

Duployez, Nicolas 15 December 2017 (has links)
Les gènes RUNX1 et CBFB codent pour les sous-unités du core binding factor (CBF), facteur de transcription hétérodimérique essentiel de l’hématopoïèse définitive. La dérégulation du CBF est l'une des anomalies les plus fréquemment rencontrées dans les hémopathies malignes. Puisque la perturbation seule du CBF est insuffisante au développement d’une leucémie aiguë myéloïde (LAM), les LAM impliquant le CBF sont considérées comme des modèles de leucémogénèse multi-étapes, nécessitant la coopération d’anomalies génétiques additionnelles.Dans ce travail, nous nous sommes intéressés aux LAM de type CBF, caractérisées soit par une t(8;21)/fusion RUNX1-RUNX1T1 soit par une inv(16)/fusion CBFB-MYH11, ainsi qu’aux LAM avec mutations germinales de RUNX1 (définissant la thrombopénie familiale avec prédisposition aux leucémies aiguës ou FPD/AML). Afin d’identifier des anomalies additionnelles, nous avons étudié les prélèvements de patients atteints de LAM CBF inclus dans les essais français ELAM02 (0-18 ans) et CBF2006 (18-60 ans) par séquençage à haut débit (n=215) et single nucleotide polymorphism-array (n=198). Les échantillons de 25 individus atteints de FPD/AML (issus de 15 familles), diagnostiqués entre 2005 et 2014, ont également été séquencés au stade thrombopénique et au moment de la transformation en leucémie aiguë.Dans les LAM CBF, les mutations activatrices des voies tyrosines kinases (TK) sont les événements les plus fré-quents quel que soit le sous-type de LAM CBF [t(8;21) ou inv(16)], comme cela a déjà été rapporté dans d’autres études. En revanche, les mutations affectant les gènes du remodelage chromatinien ou du complexe de la cohésine sont identifiées à des fréquences élevées (41% et 18% respectivement) dans les LAM avec t(8;21) tandis qu’elles sont pratiquement absentes dans les LAM avec inv(16). Dans les LAM avec t(8;21), la coexistence de ces mutations avec les mutations de type TK est associée à un pronostic défavorable suggérant une synergie entre ces événements. D'autres événements fréquemment retrouvés incluent les mutations de ZBTB7A et DHX15 dans les LAM avec t(8;21) (20% et 6% respectivement) et les délétions/mutations de FOXP1 dans les LAM avec inv(16) (7%). Enfin, nous avons décrit la perturbation de CCDC26 comme une possible lésion associée à une signalisation aberrante des TK dans les LAM CBF (4,5% des cas).Dans les FPD/AML, l'analyse mutationnelle a révélé l'acquisition d'un deuxième événement impliquant RUNX1 chez tous les patients ayant développé une LAM. Ce deuxième événement correspondait soit à une mutation somatique du second allèle de RUNX1 soit à la duplication de la mutation germinale de RUNX1 (par perte d'hétérozygotie sans anomalie du nombre de copies ou trisomie 21 acquise). En pratique clinique, cela suggère que la présence de deux mutations différentes de RUNX1 ou d'une seule mutation avec un ratio allélique supérieur à 50% chez un patient atteinte de LAM doit alerter sur la possibilité d’un syndrome FPD/AML sous-jacent. / RUNX1 and CBFB encode subunits of the core binding factor (CBF), a heterodimeric transcription factor required for the establishment of definitive hematopoiesis. Deregulation of the CBF is one of the most frequent aberrations in hematological malignancies. Since CBF disruption alone is insufficient to induce acute myeloid leukemia (AML) on its own, AML with CBF involvement is considered as a model of multistep leukemogenesis requiring additional genetic aberrations.Here, we focused on acute myeloid leukemia (AML) with t(8;21)/RUNX1-RUNX1T1 fusion and AML with inv(16)/CBFB-MYH11 fusion, reported together as CBF AML, as well as AML with germline RUNX1 mutation (defining the familial platelet disorder with propensity to develop leukemia or FPD/AML).In order to explore additional genomic aberrations, we performed comprehensive genetic profiling in CBF AML patients enrolled in the French trials ELAM02 (0-18 years) and CBF2006 (18-60 years) using both high-throughput sequencing (n=215) and single nucleotide polymorphism-array (n=198). In addition, we sequenced samples from 25 individuals with FPD/AML (15 pedigrees) diagnosed between 2005 and 2014 at thrombocyto-penic stage and during leukemic progression.In CBF AML, mutations in genes activating tyrosine kinase (TK) signaling were frequent in both subtypes as previously described by others. By contrast, we found mutations in genes encoding chromatin modifiers or members of the cohesin complex with high frequencies in t(8;21) AML (41% and 18% respectively) while they were nearly absent in inv(16) AML. Interestingly, such mutations were associated with a poor prognosis in patients with TK mutations suggesting synergic cooperation between these events. Other events included ZBTB7A and DHX15 mutations in t(8;21) AML (20% and 6% respectively) and FOXP1 deletions or truncating mutations in inv(16) AML (7%). Finally, we described CCDC26 disruption as a possible new lesion associated with aberrant TK signaling in this particular subtype of leukemia (4.5% of CBF AML).In FPD/AML, mutational analysis revealed the acquisition of a second event involving RUNX1 in all patients with AML including somatic mutation of the second allele or duplication of the germline RUNX1 mutation through copy-neutral loss of heterozygosity and trisomy 21. In clinical practice, we suggest that the occurrence of two different RUNX1 mutations or a single RUNX1 mutation with a variant allele frequency higher than 50% in a patient with AML should alert about the possibility of FPD/AML.
45

Solutions d'amélioration des études de métagénomique ciblée / Solutions to improve targeted metagenomics studies

Siegwald, Léa 23 March 2017 (has links)
La métagénomique ciblée, étude de la composition et de la diversité des communautés microbiennes présentes dans différents échantillon biologiques sur la base d'un marqueur génomique, a connu un véritable essor lors de cette dernière décennie grâce à l'arrivée du séquençage haut-débit. Faisant appel à des outils de biologie moléculaire et de bioinformatique, elle a été à l’origine de substantiels progrès dans les domaines de l’évolution et de la diversité microbienne. Cependant, de nouvelles problématiques sont apparues avec le séquençage haut-débit : la génération exponentielle de données soulève des problèmes d'analyse bioinformatique, qui doit être adaptée aux plans d'expérience et aux questions biologiques associées. Cette thèse propose des solutions d'amélioration des études de métagénomique ciblée par le développement d'outils et de méthodes innovantes, apportant une meilleure compréhension des biais d'analyse inhérents à de telles études, et une meilleure conception des plans d'expérience. Tout d'abord, une expertise du pipeline d'analyse utilisé en production sur la plate-forme PEGASE-biosciences a été menée. Cette évaluation a révélé la nécessité de mettre en place une méthode d'évaluation formelle de pipelines d'analyses de données de métagénomique ciblée, qui a été développée sur la base de données simulées et réelles, et de métriques d'évaluation adaptées. Cette méthode a été utilisée sur plusieurs pipelines d'analyse couramment utilisés par la communauté, tout comme sur de nouvelles approches d'analyse jamais utilisées dans un tel contexte. Cette évaluation a permis de mieux comprendre les biais du plan d'expérience qui peuvent affecter les résultats et les conclusions biologiques associées. Un de ces biais majeurs est le choix des amorces d'amplification de la cible ; un logiciel de design d'amorces adaptées au plan d'expérience a été spécifiquement développé pour minimiser ce biais. Enfin, des recommandations de montage de plan d'expérience et d'analyse ont été émises afin d'améliorer la robustesse des études de métagénomique ciblée. / Targeted metagenomics is the study of the composition of microbial communities in diverse biological samples, based on the sequencing of a genomic locus. This application has boomed over the last decade thanks to the democratisation of high-throughput sequencing, and has allowed substantial progress in the study of microbial evolution and diversity. However, new problems have emerged with high-throughput sequencing : the exponential generation of data must be properly analyzed with bioinformatics tools fitted to the experimental designs and associated biological questions. This dissertation provides solutions to improve targeted metagenomics studies, by the development of new tools and methods allowing a better understanding of analytical biases, and a better design of experiments. Firstly, an expert assessment of the analytical pipeline used on the PEGASE-biosciences plateform has been performed. This assessment revealed the need of a formal evaluation method of analytical pipelines used for targeted metagenomics analyses. This method has been developed with simulated and real datasets, and adequate evaluation metrics. It has been used on several analytical pipelines commonly used by the scientific community, as well as on new analytical methods which have never been used in such a context before. This evaluation allowed to better understand experimental design biases, which can affect the results and biological conclusions. One of those major biases is the design of amplification primers to target the genomic locus of interest. A primer design software, adaptable to different experimental designs, has been specifically developed to minimize this bias. Finally, analytical guidelines and experimental design recommendations have been formulated to improve targeted metagenomics studies.
46

Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul / Efficient Hardware Implementations of LDPC Decoders, through Exploiting Impreciseness in Message-Passing Decoding Algorithms

Nguyen Ly, Thien Truong 03 May 2017 (has links)
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées. / The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance.
47

Identification de nouveaux gènes d'ataxies cérébelleuses récessives et intérêt du séquençage haut débit dans le diagnostic des ataxies d'origine génétique / Identification of new recessive cerebellar ataxias genes and interest of next generation sequencing in the diagnosis of genetic ataxias

Mallaret, Martial 23 September 2015 (has links)
Les ataxies cérébelleuses héréditaires sont un ensemble de pathologies neurodégénératives ou neuro-développementales rares responsables d’un handicap fonctionnel important. Nous décrivons la découverte dans deux familles consanguines avec une ataxie cérébelleuse, une épilepsie et un retard mental deux mutations homozygotes dans le gène WWOX à l’aide du séquençage de l’exome d’un des patients de chaque famille. Ce gène était connu comme un gène suppresseur de tumeur. Par une stratégie de capture ciblée de 57 gènes d’ataxies cérébelleuses sur une série de 155 patients, nous avons posé un diagnostic dans 20,6% des cas dont des mutations d’ANO10 et SYNE1. Des études multicentriques ont permis d’étendre les connaissances sur ces maladies et montrer l’existence de phénotypes sévères dans ARCA1.A partir de cette série, nous avons validé en aveugle la pertinence d’un algorithme diagnostique clinico-biologique proposé par l’article de Anheim dans le New England Journal of Medicine en 2012. / Hereditary cerebellar ataxias are a group of neurodegenerative or neurodevelopemental diseases responsible of major disability. We found thanks to exome sequencing mutations in the WWOX gene in two consaguineous families presenting with cerebellar ataxia, epilepsy and mental retardation. This gene was until recently only recognized to be a tumor suppressor.With a 57 ataxia genes targeted capture strategy, next generation sequencing in 155 patients found 20,6% of positive diagnosis, including several new mutations in ANO10 and SYNE1. Multi center studies allow to extend clinical knowledge with severes phenotypes especially in ARCA1.We validate a clinico-biological algorithm for recesssive ataxias diagnosis published by Anheim in the in New England Journal of Medicine, 2012 in a blinded manner.
48

Description et comportement des communautés bactériennes de la viande de poulet conservée sous atmosphère protectrice / Description and behavior of bacterial communities of chicken meat samples stored under modified atmosphere packaging

Rouger, Amélie 27 June 2017 (has links)
Contrôler les bactéries altérantes des aliments, notamment les produits carnés crus, est un enjeu majeur pour les industries agroalimentaires. Les conditions de stockage de la viande sous différentes atmosphères exercent une pression de sélection et modifient le comportement et le développement des communautés bactériennes initialement présentes. Des méthodes de séquençage à haut débit, utilisées pour caractériser différents écosystèmes microbiens, ont été appliquées pour étudier la dynamique des communautés bactériennes de la viande de poulet au cours du stockage.Nous avons développé une méthode pour constituer des écosystèmes microbiens standards dont la composition a été déterminée par pyroséquençage du gène de l’ARNr 16S. La présence de Brochothrix thermosphacta et de Pseudomonas parmi les espèces dominantes a été confirmée et nous avons mis en évidence que Shewanella et Carnobacterium étaient sous dominantes. Nous avons sélectionné deux écosystèmes pour effectuer des challenges tests reproductibles sur de la viande de poulet conservée sous 3 atmosphères couramment utilisées. Une analyse métatranscriptomique et métagénomique a été réalisée afin de savoir “Quelles bactéries étaient présentes ?”, “Qu’étaient-elles capables de faire?” et “Qu’exprimaient-elles?” suivant les conditions.Nous avons ainsi pu évaluer l’impact des mélanges gazeux sur la dynamique bactérienne et les fonctions exprimées par les bactéries suivant les contaminants initiaux. Cela nous donne des pistes pour fournir des indications afin d’optimiser la conservation de la viande en contrôlant les écosystèmes microbiens / Controlling spoilage microorganisms, especially in raw meat products, is challenging for the food industry.Storage conditions such as modified atmosphere packaging (MAP) have selective effects on the microbiota dynamics. Thanks to the recent developmentof next generation sequencing methods widely used for characterizing microbes in different ecosystems, we studied bacterial community dynamics during chickenmeat storage.We developed a method to constitute a standard meat microbial ecosystem hosting known bacterial species previously described by 16S rRNA sequencing. Our results confirmed the presence of Brochothrix thermosphacta and Pseudomonas and we also showed the presence of subdominant species as Shewanella and Carnobacterium. We selected 2 bacterial communities enabling reproducible challenge tests on meat during 9 days of storage at 4°C under 3 different atmospheres currently used in the industry.Metatranscriptomic and metagenomic analyses were performed to know “Who is there?”, “What can they do?” and “What are they expressing?” depending on the gaseous mixtures and on the initial microbiota.Consequently, we could evaluate the impact of storage atmosphere on the microbiotas dynamics and on the functions the bacteria expressed, depending on the storage condition and on the nature of the bacterial communities present. This led to indications of optimized storage conditions of poultry meat by managing their ecosystems.
49

Etude des propriétés interfaciales eau/huile/tensioactifs par microfluidique : application à l'EOR chimique / Study of water/surfactants/oil interfacial properties by microfluidics : applied to chemical EOR

Moiré, Marie 28 September 2015 (has links)
L'objectif de ce travail, s'inscrivant dans le contexte de l'EOR chimique par voie tensioactive, est de développer un tensiomètre microfluidique permettant de mesurer de manière continue la tension interfaciale (IFT) entre des formulations EOR et des pétroles bruts. Le tensiomètre développé repose sur un co-écoulement coaxial dans deux capillaires, conduisant principalement à deux types d'écoulement : la formation d'un jet d'un fluide dans l'autre, ou la formation de gouttes créées par l'instabilité de Rayleigh-Plateau. En utilisant le modèle de Guillot et al. permettant de décrire la transition expérimentale entre un régime de gouttes et un régime de jet, il est possible de remonter à l'IFT. Dans ces travaux, les différents régimes d'écoulement ont été étudiés expérimentalement et comparer à la transition théorique. Ensuite, la plage de paramètres exploitables expérimentalement a été établie en analysant les différentes hypothèses et limites du modèle. La méthode a alors pu être mise en ¿uvre avec différents fluides couvrant plus de quatre décades de valeurs d'IFT (25 à 2.10-3 mN/m). Néanmoins, le tensiomètre développé est un tensiomètre dynamique, ce qui requiert une étude spécifique des cinétiques de diffusion et d'adsorption des tensioactifs afin de déterminer leur impact sur la mesure de l'IFT dans le cadre des formulations EOR. Dans le cas des tensioactifs à cinétiques rapides, nous avons pu réaliser l'optimisation d'une formulation EOR modèle en déterminant le minimum d'IFT en fonction de la salinité de la formulation. Pour les systèmes présentant une cinétique lente, une méthode de pré-conditionnement a été proposée afin de pouvoir réaliser la mesure d'IFT. / The aim of this work on surfactant chemical EOR is to develop a microfluidic tensiometer allowing a continuous measurement of the interfacial tension (IFT) between crude oil and aqueous solutions. The developed tensiometer is based on a coaxial co-flow inside a capillary leading mainly to two regimes of flow: formation of a jet of one fluid in another one or formation of droplets created by the Rayleigh-Plateau instability. By using the model developed by Guillot et al. which describes the experimental transition between a droplet regime and a jet regime, it is possible calculate the IFT. In this work, the different flow regimes were studied in order to correlate the experimental and the theoretical transitions. Then, the limits of the microfluidics tensiometer were evaluated and the impact of the hypotheses of the model on the IFT measurement were analysed. Then, the method has been applied to various fluids covering an IFT range of more than four decades (25 to 2.10-2 mN/m). However, as the developed tensiometer is a dynamic tensiometer, a specific study of kinetic aspects have been performed in order to evaluate the impact on the IFT value. For rapid kinetics surfactants, we optimized a model EOR formulation by determining the salinity leading to the IFT minimum. This optimization was performed thanks to HTE. For slow kinetics system, a pre-conditionning method has been proposed in order to obtain the IFT.
50

Analyse de l’expression génique des macrophages bovins face à la maladie de Johne et leur réponse à l’infection in vitro par Mycobacterium avium sous-espèce paratuberculosis

Ariel, Olivier January 2017 (has links)
Mycobacterium avium ssp. paratuberculosis (MAP) est l’agent pathogène responsable de la maladie de Johne qui est aussi connue sous le nom de paratuberculose. Cette maladie affecte principalement les ruminants, mais également d’autres animaux d’élevages et sauvages. Les mécanismes de pathogenèse de la paratuberculose sont toujours peu compris, mais il est connu que MAP est capable de s’évader du système immunitaire de son hôte pendant plusieurs années en utilisant les macrophages comme réservoir principal. L’effet de MAP dans l’infection des macrophages est souvent étudié en utilisant des vaches saines ou encore infectées de façon expérimentale, mais les études sur l’effet à long terme de la paratuberculose en étudiant les macrophages de vaches atteintes sont manquantes. Dans mon projet, le transcriptome de macrophages primaires dérivés des monocytes circulants infectés in vitro par MAP a été analysé par séquençage haut débit de l’ARN (RNA-seq). Des différences importantes dans les interactions hôtes-pathogènes ont été observées dans les signatures d’expression génique des vaches diagnostiquées comme négatives ou positives. Ces modifications mettent en lumière la mise en place de processus durables dans l’établissement de la paratuberculose. Les modifications clés observées lors de mon projet sont un débalancement immunométabolique, un changement dans l’homéostasie du cholestérol et des lipides intracellulaires, ainsi qu’un patron d’expression génique associé à l’établissement d’une tolérance mémoire chez les macrophages. En effet, les résultats obtenus lors de ce projet consolident l’hypothèse selon laquelle MAP pourrait induire un état de type tolérance dans les monocytes sanguins périphériques circulants lorsqu’ils se différencient en macrophages. De ce fait, MAP pourrait promouvoir davantage la persistance de la maladie en influençant le comportement des macrophages à long terme. Cette étude contribue à une meilleure compréhension du contrôle de MAP sur les cellules immunitaires et de ses mécanismes de survie.

Page generated in 0.053 seconds