• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 155
  • 24
  • 2
  • Tagged with
  • 541
  • 280
  • 155
  • 130
  • 120
  • 113
  • 98
  • 70
  • 70
  • 62
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Etude des altérations génomiques acquises dans les leucémies aiguës myéloïdes impliquant le core binding factor / Acquired genomic aberrations in acute myeloid leukemia with core binding factor involvement

Duployez, Nicolas 15 December 2017 (has links)
Les gènes RUNX1 et CBFB codent pour les sous-unités du core binding factor (CBF), facteur de transcription hétérodimérique essentiel de l’hématopoïèse définitive. La dérégulation du CBF est l'une des anomalies les plus fréquemment rencontrées dans les hémopathies malignes. Puisque la perturbation seule du CBF est insuffisante au développement d’une leucémie aiguë myéloïde (LAM), les LAM impliquant le CBF sont considérées comme des modèles de leucémogénèse multi-étapes, nécessitant la coopération d’anomalies génétiques additionnelles.Dans ce travail, nous nous sommes intéressés aux LAM de type CBF, caractérisées soit par une t(8;21)/fusion RUNX1-RUNX1T1 soit par une inv(16)/fusion CBFB-MYH11, ainsi qu’aux LAM avec mutations germinales de RUNX1 (définissant la thrombopénie familiale avec prédisposition aux leucémies aiguës ou FPD/AML). Afin d’identifier des anomalies additionnelles, nous avons étudié les prélèvements de patients atteints de LAM CBF inclus dans les essais français ELAM02 (0-18 ans) et CBF2006 (18-60 ans) par séquençage à haut débit (n=215) et single nucleotide polymorphism-array (n=198). Les échantillons de 25 individus atteints de FPD/AML (issus de 15 familles), diagnostiqués entre 2005 et 2014, ont également été séquencés au stade thrombopénique et au moment de la transformation en leucémie aiguë.Dans les LAM CBF, les mutations activatrices des voies tyrosines kinases (TK) sont les événements les plus fré-quents quel que soit le sous-type de LAM CBF [t(8;21) ou inv(16)], comme cela a déjà été rapporté dans d’autres études. En revanche, les mutations affectant les gènes du remodelage chromatinien ou du complexe de la cohésine sont identifiées à des fréquences élevées (41% et 18% respectivement) dans les LAM avec t(8;21) tandis qu’elles sont pratiquement absentes dans les LAM avec inv(16). Dans les LAM avec t(8;21), la coexistence de ces mutations avec les mutations de type TK est associée à un pronostic défavorable suggérant une synergie entre ces événements. D'autres événements fréquemment retrouvés incluent les mutations de ZBTB7A et DHX15 dans les LAM avec t(8;21) (20% et 6% respectivement) et les délétions/mutations de FOXP1 dans les LAM avec inv(16) (7%). Enfin, nous avons décrit la perturbation de CCDC26 comme une possible lésion associée à une signalisation aberrante des TK dans les LAM CBF (4,5% des cas).Dans les FPD/AML, l'analyse mutationnelle a révélé l'acquisition d'un deuxième événement impliquant RUNX1 chez tous les patients ayant développé une LAM. Ce deuxième événement correspondait soit à une mutation somatique du second allèle de RUNX1 soit à la duplication de la mutation germinale de RUNX1 (par perte d'hétérozygotie sans anomalie du nombre de copies ou trisomie 21 acquise). En pratique clinique, cela suggère que la présence de deux mutations différentes de RUNX1 ou d'une seule mutation avec un ratio allélique supérieur à 50% chez un patient atteinte de LAM doit alerter sur la possibilité d’un syndrome FPD/AML sous-jacent. / RUNX1 and CBFB encode subunits of the core binding factor (CBF), a heterodimeric transcription factor required for the establishment of definitive hematopoiesis. Deregulation of the CBF is one of the most frequent aberrations in hematological malignancies. Since CBF disruption alone is insufficient to induce acute myeloid leukemia (AML) on its own, AML with CBF involvement is considered as a model of multistep leukemogenesis requiring additional genetic aberrations.Here, we focused on acute myeloid leukemia (AML) with t(8;21)/RUNX1-RUNX1T1 fusion and AML with inv(16)/CBFB-MYH11 fusion, reported together as CBF AML, as well as AML with germline RUNX1 mutation (defining the familial platelet disorder with propensity to develop leukemia or FPD/AML).In order to explore additional genomic aberrations, we performed comprehensive genetic profiling in CBF AML patients enrolled in the French trials ELAM02 (0-18 years) and CBF2006 (18-60 years) using both high-throughput sequencing (n=215) and single nucleotide polymorphism-array (n=198). In addition, we sequenced samples from 25 individuals with FPD/AML (15 pedigrees) diagnosed between 2005 and 2014 at thrombocyto-penic stage and during leukemic progression.In CBF AML, mutations in genes activating tyrosine kinase (TK) signaling were frequent in both subtypes as previously described by others. By contrast, we found mutations in genes encoding chromatin modifiers or members of the cohesin complex with high frequencies in t(8;21) AML (41% and 18% respectively) while they were nearly absent in inv(16) AML. Interestingly, such mutations were associated with a poor prognosis in patients with TK mutations suggesting synergic cooperation between these events. Other events included ZBTB7A and DHX15 mutations in t(8;21) AML (20% and 6% respectively) and FOXP1 deletions or truncating mutations in inv(16) AML (7%). Finally, we described CCDC26 disruption as a possible new lesion associated with aberrant TK signaling in this particular subtype of leukemia (4.5% of CBF AML).In FPD/AML, mutational analysis revealed the acquisition of a second event involving RUNX1 in all patients with AML including somatic mutation of the second allele or duplication of the germline RUNX1 mutation through copy-neutral loss of heterozygosity and trisomy 21. In clinical practice, we suggest that the occurrence of two different RUNX1 mutations or a single RUNX1 mutation with a variant allele frequency higher than 50% in a patient with AML should alert about the possibility of FPD/AML.
92

Solutions d'amélioration des études de métagénomique ciblée / Solutions to improve targeted metagenomics studies

Siegwald, Léa 23 March 2017 (has links)
La métagénomique ciblée, étude de la composition et de la diversité des communautés microbiennes présentes dans différents échantillon biologiques sur la base d'un marqueur génomique, a connu un véritable essor lors de cette dernière décennie grâce à l'arrivée du séquençage haut-débit. Faisant appel à des outils de biologie moléculaire et de bioinformatique, elle a été à l’origine de substantiels progrès dans les domaines de l’évolution et de la diversité microbienne. Cependant, de nouvelles problématiques sont apparues avec le séquençage haut-débit : la génération exponentielle de données soulève des problèmes d'analyse bioinformatique, qui doit être adaptée aux plans d'expérience et aux questions biologiques associées. Cette thèse propose des solutions d'amélioration des études de métagénomique ciblée par le développement d'outils et de méthodes innovantes, apportant une meilleure compréhension des biais d'analyse inhérents à de telles études, et une meilleure conception des plans d'expérience. Tout d'abord, une expertise du pipeline d'analyse utilisé en production sur la plate-forme PEGASE-biosciences a été menée. Cette évaluation a révélé la nécessité de mettre en place une méthode d'évaluation formelle de pipelines d'analyses de données de métagénomique ciblée, qui a été développée sur la base de données simulées et réelles, et de métriques d'évaluation adaptées. Cette méthode a été utilisée sur plusieurs pipelines d'analyse couramment utilisés par la communauté, tout comme sur de nouvelles approches d'analyse jamais utilisées dans un tel contexte. Cette évaluation a permis de mieux comprendre les biais du plan d'expérience qui peuvent affecter les résultats et les conclusions biologiques associées. Un de ces biais majeurs est le choix des amorces d'amplification de la cible ; un logiciel de design d'amorces adaptées au plan d'expérience a été spécifiquement développé pour minimiser ce biais. Enfin, des recommandations de montage de plan d'expérience et d'analyse ont été émises afin d'améliorer la robustesse des études de métagénomique ciblée. / Targeted metagenomics is the study of the composition of microbial communities in diverse biological samples, based on the sequencing of a genomic locus. This application has boomed over the last decade thanks to the democratisation of high-throughput sequencing, and has allowed substantial progress in the study of microbial evolution and diversity. However, new problems have emerged with high-throughput sequencing : the exponential generation of data must be properly analyzed with bioinformatics tools fitted to the experimental designs and associated biological questions. This dissertation provides solutions to improve targeted metagenomics studies, by the development of new tools and methods allowing a better understanding of analytical biases, and a better design of experiments. Firstly, an expert assessment of the analytical pipeline used on the PEGASE-biosciences plateform has been performed. This assessment revealed the need of a formal evaluation method of analytical pipelines used for targeted metagenomics analyses. This method has been developed with simulated and real datasets, and adequate evaluation metrics. It has been used on several analytical pipelines commonly used by the scientific community, as well as on new analytical methods which have never been used in such a context before. This evaluation allowed to better understand experimental design biases, which can affect the results and biological conclusions. One of those major biases is the design of amplification primers to target the genomic locus of interest. A primer design software, adaptable to different experimental designs, has been specifically developed to minimize this bias. Finally, analytical guidelines and experimental design recommendations have been formulated to improve targeted metagenomics studies.
93

Contribution à l'étude de la désadaptation cardiovasculaire à l'effort : évaluation des pressions de remplissages à un faible niveau de charge et réponse cardio-circulatoire lors d'un exercice dynamique maximal / Impairment of cardiovascular reserve during exercise : study of left ventricular filling pressures at a low workload and global cardiovascular response to maximal exercise

Hammoudi, Nadjib 12 December 2016 (has links)
L’altération de la réserve fonctionnelle cardiovasculaire (CV) à l’exercice est un signe précoce d’insuffisance cardiaque (IC). Nous avons étudié l’hypothèse d’une altération de la réserve CV dans deux modèles physiopathologiques : -une étude des pressions de remplissages du ventricule gauche (VG) lors d’un exercice de faible intensité avait pour finalité de démasquer une anomalie cardiaque latente au repos; cette approche a été appliquée à des patients à risque élevé d’IC à fraction d’éjection préservée.-une étude plus approfondie de la réponse CV au cours d’un exercice maximal avait pour double objectif, de démasquer, mais aussi d’analyser en détail les composantes physiopathologiques de l’altération de la fonction cardiaque. Cette approche a été appliquée à l’étude de la drépanocytose, un modèle de cardiopathie à haut débit. Dans la première partie de ce travail, nous avons montré qu’il était possible de démasquer une altération du remplissage VG dès une faible intensité d’exercice. Ces résultats observés initialement en utilisant des outils non-invasifs ont été confirmés en utilisant le cathétérisme cardiaque comme gold standard. Dans la seconde partie de ce travail, l’évaluation de patients drépanocytaires au cours d’un exercice maximal a permis de mettre en évidence une altération de la réserve fonctionnelle CV liée à un défaut de la réserve chronotrope et de la réserve en pré-charge du VG.Nos travaux constituent une contribution à l’étude de la physiopathologie CV. Les différentes modalités d’exploration qui ont été utilisées, et qui ont pour certaines été mises au point pour la réalisation de cette thèse, pourraient servir à l’étude d’autres cardiopathies. / Despite normal investigations at rest, latent heart failure can be observed in a number of patients during exercise. We investigated the hypothesis of an impairment of cardiovascular reserve in two pathophysiological models: - in patients at high risk of heart failure with preserved ejection fraction, we measured left ventricular filling pressures at low exercise level in order to unmask early stages of left ventricular diastolic dysfunction;- moreover, using combined echocardiography and cardiopulmonary exercise testing, a comprehensive study of cardiovascular response to maximal exercise was performed in patients with sickle cell anemia which was chosen as a model of chronic high-output states. We showed that very low exercise level could unmask early stage heart failure with preserved ejection fraction. These results, initially observed using Doppler echocardiography, were confirmed by direct invasive measurement of left ventricular filling pressure during exercise. In patients with sickle cell anemia, we found a decrease of cardiac output response to exercise. This alteration of cardiovascular reserve was characterized by a chronotropic incompetence and a blunted left ventricular preload reserve. The pathophysiological data provided by our studies may help improve and optimize management of patients with heart failure. The stress protocols which have been developed and used in our investigations could be useful to study other models of heart diseases.
94

Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul / Efficient Hardware Implementations of LDPC Decoders, through Exploiting Impreciseness in Message-Passing Decoding Algorithms

Nguyen Ly, Thien Truong 03 May 2017 (has links)
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées. / The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance.
95

Caractérisation des écoulements turbulents à proximité d'une paroi par PIV tomographique / Characterization of near-wall turbulent flows by tomographic PIV

Jessen Werneck de Almeida Martins, Fabio 26 September 2016 (has links)
L'étude fondamentale des structures turbulentes proche paroi est d'une significative importance en raison de son rôle dominant dans nombreuses applications d'ingénierie. Dans les écoulements turbulents, structures d'échelles différentes interagissent dans un phénomène complexe caractérisé par un processus autonome et continu. Bien que la présence de modèles de mouvements cohérents semble entretenir la turbulence, l'évolution et l'interaction de ces structures ne sont pas encore complètement compris. Pour analyser ces phénomènes, études d’ecoulements turbulents à proximité de paróis ont été effectuées sur une plaque plane dans une soufflerie et à l'intérieur d'un canal carré d'eau. Ce travail a employé une technique tomographique de vélocimétrie par images de particules pour mesurer de champs de vitesse tridimensionnel. Le traitement des données a été optimisé afin d'améliorer la précision des champs de vecteurs mesurés. Les mesures réalisées ont permis d’obtenir des statistiques conditionnelles des structures cohérentes, à savoir, les régions à faible et à grande vitesse, les "sweeps", les "ejections" et les tourbillons. Les résultats quantitatifs ont montré des structures tourbillonnaires distribués sur tout le flux, cependant, concentrée au voisinage des régions à faible vitesse et des "ejections". Les résultats ont indiqué que les structures tourbillonnaires étaient indirectement corrélés avec le processus de production de la turbulence, bien qu'ils ont été les principaux responsables de la dissipation d'énergie turbulente. / The fundamental study of turbulent structures near a wall is of significant importance due to its dominant role in innumerous engineering applications. In turbulent flows, eddies of different scales interact with each other in a complex phenomenon of a continuous self-sustaining process. Although the presence of patterns of coherent motion seem to be responsible for the maintenance of turbulence, the evolution and the interaction of these structures are still not completely understood. To investigate such phenomena, near-wall turbulent flows over a smooth flat plate in a wind tunnel and inside a square water channel were conducted. The present work employed a high-repetition tomographic PIV technique to measure three dimensional, time-resolved velocity fields. The tomo-PIV processing was optimized in order to improve the algorithm performance and the vector fields accuracy. Conditional statistics of coherent structures, namely, low- and high-speed regions, sweeps, ejections and vortices, were computed, providing quantitative characteristics of these structures. The statistical analyses were performed employing a data post-processing code specially developed for the present work. Results showed vortical structures spread all over the flow, nevertheless, concentrated close to low-speed regions and ejections. Results indicated that vortical structures were indirectly correlated with the process of turbulence production, although they were the main responsible for the turbulent energy dissipation.
96

Identification de nouveaux gènes d'ataxies cérébelleuses récessives et intérêt du séquençage haut débit dans le diagnostic des ataxies d'origine génétique / Identification of new recessive cerebellar ataxias genes and interest of next generation sequencing in the diagnosis of genetic ataxias

Mallaret, Martial 23 September 2015 (has links)
Les ataxies cérébelleuses héréditaires sont un ensemble de pathologies neurodégénératives ou neuro-développementales rares responsables d’un handicap fonctionnel important. Nous décrivons la découverte dans deux familles consanguines avec une ataxie cérébelleuse, une épilepsie et un retard mental deux mutations homozygotes dans le gène WWOX à l’aide du séquençage de l’exome d’un des patients de chaque famille. Ce gène était connu comme un gène suppresseur de tumeur. Par une stratégie de capture ciblée de 57 gènes d’ataxies cérébelleuses sur une série de 155 patients, nous avons posé un diagnostic dans 20,6% des cas dont des mutations d’ANO10 et SYNE1. Des études multicentriques ont permis d’étendre les connaissances sur ces maladies et montrer l’existence de phénotypes sévères dans ARCA1.A partir de cette série, nous avons validé en aveugle la pertinence d’un algorithme diagnostique clinico-biologique proposé par l’article de Anheim dans le New England Journal of Medicine en 2012. / Hereditary cerebellar ataxias are a group of neurodegenerative or neurodevelopemental diseases responsible of major disability. We found thanks to exome sequencing mutations in the WWOX gene in two consaguineous families presenting with cerebellar ataxia, epilepsy and mental retardation. This gene was until recently only recognized to be a tumor suppressor.With a 57 ataxia genes targeted capture strategy, next generation sequencing in 155 patients found 20,6% of positive diagnosis, including several new mutations in ANO10 and SYNE1. Multi center studies allow to extend clinical knowledge with severes phenotypes especially in ARCA1.We validate a clinico-biological algorithm for recesssive ataxias diagnosis published by Anheim in the in New England Journal of Medicine, 2012 in a blinded manner.
97

Description et comportement des communautés bactériennes de la viande de poulet conservée sous atmosphère protectrice / Description and behavior of bacterial communities of chicken meat samples stored under modified atmosphere packaging

Rouger, Amélie 27 June 2017 (has links)
Contrôler les bactéries altérantes des aliments, notamment les produits carnés crus, est un enjeu majeur pour les industries agroalimentaires. Les conditions de stockage de la viande sous différentes atmosphères exercent une pression de sélection et modifient le comportement et le développement des communautés bactériennes initialement présentes. Des méthodes de séquençage à haut débit, utilisées pour caractériser différents écosystèmes microbiens, ont été appliquées pour étudier la dynamique des communautés bactériennes de la viande de poulet au cours du stockage.Nous avons développé une méthode pour constituer des écosystèmes microbiens standards dont la composition a été déterminée par pyroséquençage du gène de l’ARNr 16S. La présence de Brochothrix thermosphacta et de Pseudomonas parmi les espèces dominantes a été confirmée et nous avons mis en évidence que Shewanella et Carnobacterium étaient sous dominantes. Nous avons sélectionné deux écosystèmes pour effectuer des challenges tests reproductibles sur de la viande de poulet conservée sous 3 atmosphères couramment utilisées. Une analyse métatranscriptomique et métagénomique a été réalisée afin de savoir “Quelles bactéries étaient présentes ?”, “Qu’étaient-elles capables de faire?” et “Qu’exprimaient-elles?” suivant les conditions.Nous avons ainsi pu évaluer l’impact des mélanges gazeux sur la dynamique bactérienne et les fonctions exprimées par les bactéries suivant les contaminants initiaux. Cela nous donne des pistes pour fournir des indications afin d’optimiser la conservation de la viande en contrôlant les écosystèmes microbiens / Controlling spoilage microorganisms, especially in raw meat products, is challenging for the food industry.Storage conditions such as modified atmosphere packaging (MAP) have selective effects on the microbiota dynamics. Thanks to the recent developmentof next generation sequencing methods widely used for characterizing microbes in different ecosystems, we studied bacterial community dynamics during chickenmeat storage.We developed a method to constitute a standard meat microbial ecosystem hosting known bacterial species previously described by 16S rRNA sequencing. Our results confirmed the presence of Brochothrix thermosphacta and Pseudomonas and we also showed the presence of subdominant species as Shewanella and Carnobacterium. We selected 2 bacterial communities enabling reproducible challenge tests on meat during 9 days of storage at 4°C under 3 different atmospheres currently used in the industry.Metatranscriptomic and metagenomic analyses were performed to know “Who is there?”, “What can they do?” and “What are they expressing?” depending on the gaseous mixtures and on the initial microbiota.Consequently, we could evaluate the impact of storage atmosphere on the microbiotas dynamics and on the functions the bacteria expressed, depending on the storage condition and on the nature of the bacterial communities present. This led to indications of optimized storage conditions of poultry meat by managing their ecosystems.
98

Second-order prediction and residue vector quantization for video compression / Prédiction de second ordre et résidu par quantification vectorielle pour la compression vidéo

Huang, Bihong 08 July 2015 (has links)
La compression vidéo est une étape cruciale pour une grande partie des applications de télécommunication. Depuis l'avènement de la norme H.261/MPEG-2, un nouveau standard de compression vidéo est produit tous les 10 ans environ, avec un gain en compression de 50% par rapport à la précédente. L'objectif de la thèse est d'obtenir des gains en compression par rapport à la dernière norme de codage vidéo HEVC. Dans cette thèse, nous proposons trois approches pour améliorer la compression vidéo en exploitant les corrélations du résidu de prédiction intra. Une première approche basée sur l'utilisation de résidus précédemment décodés montre que, si des gains sont théoriquement possibles, le surcoût de la signalisation les réduit pratiquement à néant. Une deuxième approche basée sur la quantification vectorielle mode-dépendent (MDVQ) du résidu préalablement à l'étape classique transformée-quantification scalaire, permet d'obtenir des gains substantiels. Nous montrons que cette approche est réaliste, car les dictionnaires sont indépendants du QP et de petite taille. Enfin, une troisième approche propose de rendre adaptatif les dictionnaires utilisés en MDVQ. Un gain substantiel est apporté par l'adaptivité, surtout lorsque le contenu vidéo est atypique, tandis que la complexité de décodage reste bien contenue. Au final on obtient un compromis gain-complexité compatible avec une soumission en normalisation. / Video compression has become a mandatory step in a wide range of digital video applications. Since the development of the block-based hybrid coding approach in the H.261/MPEG-2 standard, new coding standard was ratified every ten years and each new standard achieved approximately 50% bit rate reduction compared to its predecessor without sacrificing the picture quality. However, due to the ever-increasing bit rate required for the transmission of HD and Beyond-HD formats within a limited bandwidth, there is always a requirement to develop new video compression technologies which provide higher coding efficiency than the current HEVC video coding standard. In this thesis, we proposed three approaches to improve the intra coding efficiency of the HEVC standard by exploiting the correlation of intra prediction residue. A first approach based on the use of previously decoded residue shows that even though gains are theoretically possible, the extra cost of signaling could negate the benefit of residual prediction. A second approach based on Mode Dependent Vector Quantization (MDVQ) prior to the conventional transformed scalar quantization step provides significant coding gains. We show that this approach is realistic because the dictionaries are independent of QP and of a reasonable size. Finally, a third approach is developed to modify dictionaries gradually to adapt to the intra prediction residue. A substantial gain is provided by the adaptivity, especially when the video content is atypical, without increasing the decoding complexity. In the end we get a compromise of complexity and gain for a submission in standardization.
99

Etude des propriétés interfaciales eau/huile/tensioactifs par microfluidique : application à l'EOR chimique / Study of water/surfactants/oil interfacial properties by microfluidics : applied to chemical EOR

Moiré, Marie 28 September 2015 (has links)
L'objectif de ce travail, s'inscrivant dans le contexte de l'EOR chimique par voie tensioactive, est de développer un tensiomètre microfluidique permettant de mesurer de manière continue la tension interfaciale (IFT) entre des formulations EOR et des pétroles bruts. Le tensiomètre développé repose sur un co-écoulement coaxial dans deux capillaires, conduisant principalement à deux types d'écoulement : la formation d'un jet d'un fluide dans l'autre, ou la formation de gouttes créées par l'instabilité de Rayleigh-Plateau. En utilisant le modèle de Guillot et al. permettant de décrire la transition expérimentale entre un régime de gouttes et un régime de jet, il est possible de remonter à l'IFT. Dans ces travaux, les différents régimes d'écoulement ont été étudiés expérimentalement et comparer à la transition théorique. Ensuite, la plage de paramètres exploitables expérimentalement a été établie en analysant les différentes hypothèses et limites du modèle. La méthode a alors pu être mise en ¿uvre avec différents fluides couvrant plus de quatre décades de valeurs d'IFT (25 à 2.10-3 mN/m). Néanmoins, le tensiomètre développé est un tensiomètre dynamique, ce qui requiert une étude spécifique des cinétiques de diffusion et d'adsorption des tensioactifs afin de déterminer leur impact sur la mesure de l'IFT dans le cadre des formulations EOR. Dans le cas des tensioactifs à cinétiques rapides, nous avons pu réaliser l'optimisation d'une formulation EOR modèle en déterminant le minimum d'IFT en fonction de la salinité de la formulation. Pour les systèmes présentant une cinétique lente, une méthode de pré-conditionnement a été proposée afin de pouvoir réaliser la mesure d'IFT. / The aim of this work on surfactant chemical EOR is to develop a microfluidic tensiometer allowing a continuous measurement of the interfacial tension (IFT) between crude oil and aqueous solutions. The developed tensiometer is based on a coaxial co-flow inside a capillary leading mainly to two regimes of flow: formation of a jet of one fluid in another one or formation of droplets created by the Rayleigh-Plateau instability. By using the model developed by Guillot et al. which describes the experimental transition between a droplet regime and a jet regime, it is possible calculate the IFT. In this work, the different flow regimes were studied in order to correlate the experimental and the theoretical transitions. Then, the limits of the microfluidics tensiometer were evaluated and the impact of the hypotheses of the model on the IFT measurement were analysed. Then, the method has been applied to various fluids covering an IFT range of more than four decades (25 to 2.10-2 mN/m). However, as the developed tensiometer is a dynamic tensiometer, a specific study of kinetic aspects have been performed in order to evaluate the impact on the IFT value. For rapid kinetics surfactants, we optimized a model EOR formulation by determining the salinity leading to the IFT minimum. This optimization was performed thanks to HTE. For slow kinetics system, a pre-conditionning method has been proposed in order to obtain the IFT.
100

Analyse de l’expression génique des macrophages bovins face à la maladie de Johne et leur réponse à l’infection in vitro par Mycobacterium avium sous-espèce paratuberculosis

Ariel, Olivier January 2017 (has links)
Mycobacterium avium ssp. paratuberculosis (MAP) est l’agent pathogène responsable de la maladie de Johne qui est aussi connue sous le nom de paratuberculose. Cette maladie affecte principalement les ruminants, mais également d’autres animaux d’élevages et sauvages. Les mécanismes de pathogenèse de la paratuberculose sont toujours peu compris, mais il est connu que MAP est capable de s’évader du système immunitaire de son hôte pendant plusieurs années en utilisant les macrophages comme réservoir principal. L’effet de MAP dans l’infection des macrophages est souvent étudié en utilisant des vaches saines ou encore infectées de façon expérimentale, mais les études sur l’effet à long terme de la paratuberculose en étudiant les macrophages de vaches atteintes sont manquantes. Dans mon projet, le transcriptome de macrophages primaires dérivés des monocytes circulants infectés in vitro par MAP a été analysé par séquençage haut débit de l’ARN (RNA-seq). Des différences importantes dans les interactions hôtes-pathogènes ont été observées dans les signatures d’expression génique des vaches diagnostiquées comme négatives ou positives. Ces modifications mettent en lumière la mise en place de processus durables dans l’établissement de la paratuberculose. Les modifications clés observées lors de mon projet sont un débalancement immunométabolique, un changement dans l’homéostasie du cholestérol et des lipides intracellulaires, ainsi qu’un patron d’expression génique associé à l’établissement d’une tolérance mémoire chez les macrophages. En effet, les résultats obtenus lors de ce projet consolident l’hypothèse selon laquelle MAP pourrait induire un état de type tolérance dans les monocytes sanguins périphériques circulants lorsqu’ils se différencient en macrophages. De ce fait, MAP pourrait promouvoir davantage la persistance de la maladie en influençant le comportement des macrophages à long terme. Cette étude contribue à une meilleure compréhension du contrôle de MAP sur les cellules immunitaires et de ses mécanismes de survie.

Page generated in 0.1947 seconds