Spelling suggestions: "subject:"débit"" "subject:"ambit""
1 |
Application des techniques de génotypage à haut débit pour l'étude des communautés fongiques des sols / Using high-throughput genotyping for monitoring communities of soil fungiReich, Marlis 28 May 2009 (has links)
Dans les écosystèmes forestiers, les communautés fongiques du sol sont extrêmement diverses et de nombreux facteurs environnementaux structurent et influencent les espèces qui les constituent. Les plantes sont des éléments structurant majeurs des espèces fongiques, car elles sont à l’origine de l’enrichissement des sols en carbone. L’écologie microbienne a fortement bénéficié des apports de la biologie moléculaire, mais l’analyse de la diversité des champignons forestiers à l’échelle du peuplement reste dépendante des outils de génotypage à haut débit. Ainsi, pour permettre l’investigation à large échelle de la diversité fongique et étudier les facteurs structurant de ces communautés, nous avons développé et validé deux générations de phyloarrays basé sur l’identification moléculaire des espèces à partir de l’ADN ribosomal nucléaire. La dernière génération a été mise au point pour identifier simultanément près de 10 000 espèces issues de différents phyla du règne fongique. Pour la première fois, nous avons utilisé ces phylochips pour décrire la richesse fongique des sols forestiers et évaluer l’impact de différents arbres hôtes sur les communautés ectomycorhiziennes et ses dynamiques temporelles. Parallèlement à ce développement technologique, nous avons exploité les très récentes techniques de séquençage massif (pyroséquençage) pour générer et analyser plus de 180 000 séquences, amplifiées à partir d’échantillons d’ADN de sols issus de 6 plantations d’essences forestières différentes. Ces deux nouvelles approches confirment, par des analyses profondes de la diversité fongique, un fort impact de l’essence forestière sur la communauté fongique et une préférence d’hôte chez les espèces mycorhiziennes, comme chez les saprotrophes. A un niveau taxonomique supérieur, nos travaux montrent une distribution relativement homogène des différentes familles du sous-règne Dykaria (ascomycètes et basidiomycètes), marquant également le caractère ubiquiste des ces microorganismes. / In forest ecosystems, fungal communities are highly diverse since several environmental factors influence their richness and structure. Host plant composition is one of the major factors, as the main input of carbohydrates into soil is plant-derived. Ecological research of fungal communities was hindered by the lack of high-throughput diagnostic tools. To ease the large-scale identification of fungi, we have constructed and validated two generations of ribosomal DNA phylochips. The last generation of developed phylochips carried species-specific probes for about 10,000 fungal species spread over the whole fungal kingdom. We applied the developed phylochips to describe the impact of host trees on ectomycorrhizal communities over the time scale of one year. Furthermore, we monitored the diversity of fungal communities under six different host trees by generating over 180,000 sequences using 454 pyrosequencing approach. Results of both techniques revealed a high influence of the different tree species on soil fungal community composition, richnesse and abundance. Furthermore, host preference was observed for most of the ectomycorrhizal and saprotrophic fungi. However, host preference appeared mainly on species level, but not on family level showing also the ubiquistic character of some of the microorganisms.
|
2 |
Contribution à l'étude et à la réalisation de systèmes de communication inter puces à très haut débit en gamme millimétrique / Contribution to the study and implementation of a high data rate inter chip communication system in millimeter wave frequency rangeFoulon, Samuel 24 May 2013 (has links)
Les fréquences de fonctionnement des transistors des dernières technologies silicium supérieures à 200GHz favorisent les recherches de systèmes de communication travaillant à des fréquences de plus en plus élevées. Cette montée en fréquence permet le transfert de données multi-gigabits et la conception de systèmes compacts. Un système de communication puce à puce sans fil multi-gigabits à 140GHz a été conçu afin d’améliorer voire supplanter les interconnexions filaires inter-puces dont les débits de données sont limitées. Il peut également être utilisé pour améliorer la testabilité des puces sur wafer en rendant possible le test sans contact. Les architectures de communication à annulation de bruit de phase de type self-hétérodyne et self-homodyne, étudiées durant ces travaux de recherche, sont basées sur l’émission du signal porteur en plus du signal modulé, simplifiant ainsi la génération de fréquence des parties émettrice et réceptrice. En effet, en gamme de fréquences millimétriques, les topologies nécessitant un système de récupération de la fréquence porteuse ou de synchronisation de fréquence sont complexes et énergivores. Une modulation tout ou rien (OOK) a de ce fait été retenue pour la réalisation du démonstrateur. La chaîne d’émission/réception ainsi que les antennes a été implémenté en technologie BiCMOS SiGe:C 0.13µm. La surface totale du circuit avec les antennes est de 0.31mm². Un transfert de données jusqu’à 14Gbps a été réalisé à une distance de 0.6mm avec une efficacité énergétique de 5.7pJ/bit. A partir du circuit réalisé, une démonstration à 140GHz en modulation QPSK self-hétérodyne a également été effectuée. L’EVM est de 27% à 10Gbps. / The transistors operating frequencies are well above 200GHz in the last silicon technology nodes. These performances have encouraged the research of the communication systems operating at millimeter wave frequencies. Such performances allow higher and higher multi-gigabit data rate and also more compact communication systems with on Silicon integrated antennas.The objective of this research work was to design a multi-gigabit wireless chip to chip communication system at 140GHz. Such a short-range communication system could be designed to improve or replace the inter-chip interconnects where data rates are limited. Secondly this communication system could also be used to improve the testability of on wafer dies by performing contactless test. The communication system with phase noise cancelation topology specifically self-heterodyne and self-homodyne, studied during the research work, are based on the carrier signal emission in addition to the modulated signal simplifies the frequency synthesis of the emitter and receiver parts. Millimeter wave frequency communication systems are conventionally based on carrier frequency recovering system that is complex and consumes a lot of energy. An On-Off Keying (OOK) modulation has been selected and all the parts of the transceiver have been designed in 0.13μm SiGe:C BiCMOS technology. The silicon area of the circuit is 0.31mm² including the antennas. This transceiver achieves a data rate up to 14Gbps at a distance of 0.6mm with an energy efficiency of 5.7pJ/bit. Moreover a self-heterodyne QPSK demonstration at 140GHz was performed with an EVM of 27% to 10Gbps.
|
3 |
Etude par approches globales de la sélectivité d’atteinte dans les dystrophies des ceintures / Study of impairment selectivity in limb girdle muscular dystrophies using global approachesGicquel, Evelyne 10 November 2016 (has links)
Les Dystrophies des Ceintures sont des maladies génétiques affectant les différents muscles du corps à des degrés de sévérité variables. Les facteurs à l’origine de ces différences d’atteinte musculaire ne sont pas identifiés.Les travaux de cette thèse visent à identifier des différences moléculaires existant dans des conditions normales entre des muscles présentant une différence d’atteinte dans des conditions de déficience génétique associée à un phénotype de Dystrophie des Ceintures. Nous basant sur l’hypothèse que les différences d’atteinte entre muscles seraient causées par des mécanismes de modification de l’expression de gènes protecteurs du muscle ou le sensibilisant à la dystrophie, nous avons exploré ces mécanismes par une approche globale en comparant la signature de différents muscles. Des analyses par séquençage haut-débit chez le Primate ont permis de mettre en évidence plusieurs gènes et éléments régulateurs dont l’expression est différente entre les muscles sensibles et les muscles résistants à la pathologie. Certaines de ces différences sont conservées dans le modèle murin. Nous avons ensuite exploré par quels mécanismes les éléments régulateurs identifiés pourraient intervenir dans la sélectivité d’atteinte. Les résultats de cette thèse permettent d’approfondir la compréhension des mécanismes physiopathologiques des Dystrophies des Ceintures. Ils pourront également servir de base à la mise en place de nouveaux traitements pour ce groupe de maladies. / Limb Girdle Muscular Dystrophies are a group of genetic diseases affecting the muscles of the body with different degrees of severity. The factors behind these differences of impairment have not been identified.The objective of this thesis work is to identify the molecular differences existing in normal condition between muscles known to show a difference of impairment in case of genetic deficiencies asssociated with Limb Girdle Muscular Dystrophy. We based our work on the assumption that the differences of impairment between muscles would be caused by mechanisms leading to modifications of the expression of protective or sensitizer genes in the muscle. Therefore, we explored these mechanisms through a global approach. Analyses by high-throughput sequencing in Primate muscles allowed the identification of several genes and regulatory elements whose expression differs between the sensitive and the resistant muscles. These genes interact in a common network of interactions, which could be targeted for therapeutic purpose. Some of these differences were shown to be conserved in the mouse. We then explored the mechanisms by which the identified regulatory elements may be involved in selectivity of impairment. The results of this thesis provide a deeper understanding of the pathophysiological mechanisms of Limb Girdle Muscular Dystrophies. They will also pave the way for the development of new treatments for this group of diseases.
|
4 |
Étude de la dynamique des populations du viroïde de la mosaïque latente du pêcher par séquençage à haut débit et segmentationGlouzon, Jean-Pierre January 2012 (has links)
Les viroïdes sont des agents pathogènes responsables de maladies affectant les plantes telles que l'avocatier, le pêcher, la tomate, la pomme dé terre, etc. Parce qu'ils dégradent la qualité des fruits et des légumes qu'ils infectent, les viroïdes sont la cause de la perte d'environ 50 % de la production mondiale des cultures touchées. La compréhension des mécanismes couvrant l'infection aux viroïdes constitue un enjeu économique majeur visant l'amélioration de la productivité, dans l'exploitation de ces plantes. Cette étude aborde l'analyse des processus liés à l'infection aux viroïdes par la découverte de nouveaux aspects caractérisant la variabilité génétique du viroïde de la mosaïque latente du pêcher (PLMVd). Elle décrit la dynamique des populations de PLMVd. La grande variabilité de PLMVd, expliquée par un fort taux de mutations, implique la génération de séquences diverses et variées, prenant la forme de nuages. Notre approche pour comprendre cette variabilité génétique de PLMVd consiste à infecter un pêcher à partir d'une seule séquence de PLMVd, puis à en extraire les séquences et analyser leurs caractéristiques intrinsèques par une nouvelle méthode bio-informatique. À notre connaissance, notre étude, à ce jour, est la première à utiliser les récentes techniques de séquençage à haut débit, à des fins d'analyses des viroïdes. La structure relativement simple des viroïdes, brin d'ARN circulaire d'environ 240 à 400 nucléotides, leur confère l'avantage de pouvoir être séquencé dans leur longueur totale par le séquençage à haut débit. Ce dernier couvre de grands volumes de données biologiques, ce qui convient pour séquencer les nuages de séquences qu'on peut retrouver au sein de la population de PLMVd. En bio-informatique, il existe de nombreux algorithmes permettant de comparer des séquences pour en extraire de l'information. L'un des défis majeurs de ces algorithmes est la prise en charge efficace et rapide de quantité de données en constante croissance. Dans le cadre de notre étude, le volume de séquences généré par PLMVd rend impraticable l'application des algorithmes d'alignement pour comparer les séquences et en estimer leurs similarités. D'autres algorithmes tels que ceux basés sur les N-grammes impliquent une perte partielle de l'information contenue dans les séquences. Nous avons donc utilisé une mesure de similarité basée sur le modèle de probabilité conditionnelle (CPD) qui nous permet d'une part, de conserver l'information sous forme de patrons (sous-séquences) contenus dans les séquences, et d'autre part, d'éviter l'alignement de séquences tout en comparant directement chaque séquence avec un ensemble de séquences. Le modèle CPD est intégré dans un nouvel algorithme de segmentation pour les séquences catégoriques, appelé DHCS. Cette étude révèle de nouveaux aspects dans la variabilité génétique de PLMVd. En effet, elle nous a permis d'une part d'extraire des familles de séquences caractérisées par des mutations spécifiques, puis d'autre part, de représenter la distribution de ces mutations dans une arborescence. Par la suite, elle a favorisé l'observation de mutations localisées dans le noyau d'un motif particulier, nommé le ribozyme en tête de marteau des séquences, servant à l'amélioration de l'adaptation de PLMVd. Celui-ci est effectivement sujet à mutations parce que la séquence inoculée au pêcher après 6 mois d'infections n'a pas été retrouvée et que le nombre de mutations enregistrées varie de 2 à 51. Des deux librairies obtenues, nous avons répertorié 1125 et 1061 séquences pour un total de 2186 nouvelles séquences de PLMVd. Seules 300 séquences étaient connues à ce jour. Nous avons observé que les séquences possèdent, selon la librairie, en moyenne 4.6 et 6.3 mutations par rapport à la séquence inoculée. Certaines d'entre elles ont jusqu'à 20 % de dissimilarité par rapport à la séquence inoculée, ce qui est considérable. Grâce à DHCS, les différentes séquences ont pu être groupées en familles, au nombre de 7 et 8 selon la librairie.
|
5 |
Learning, selection and coding of new block transforms in and for the optimization loop of video coders / Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéoPuri, Saurabh 09 November 2017 (has links)
Les transformées sont un élément clé dans les systèmes de codage vidéo par blocs. Cette thèse approfondit les schémas d’apprentissage à multiples transformées. Une première contribution de ce travail est consacrée à l’évaluation de schémas d’apprentissage de transformées de deux types en ligne et hors ligne. Les deux approches sont comparées en détail et leur pertinence respective révélées. Nous proposons ensuite plusieurs techniques afin d’améliorer la stabilité du système d’apprentissage et réduire le coût de la signalisation. Une seconde contribution concerne les schémas d’apprentissage multi-transformées hors ligne déjà connus qui sont étendus avec pour objectifs de 1) fournir des transformées plus génériques et moins biaisées, 2) obtenir des gains de compression plus élevés, 3) réduire la complexité d’encodage et de décodage. On propose un schéma dit IMDTC (Improved Mode Dependent Transform Competition) qui offre un gain de codage très significatif, plus de 5% par rapport à HEVC standard sous la configuration All Intra (AI), avec une augmentation de complexité raisonnable. Enfin, l’adaptabilité au contenu de l’apprentissage hors ligne est étendue en explorant une nouvelle approche d’apprentissage des transformées basée sur des jeux de transformées adaptées à des contenus. Plusieurs ensembles contenant de multiples transformées sont appris sur différents contenus et regroupés en jeu. Lors du codage d’une région donnée d’une image, un ensemble de transformées est sélectionné localement à partir du jeu. Les résultats numériques montrent le potentiel élevé de cette approche par rapport aux approches classiques en ligne et hors ligne. / Transforms are a key element in block-based video coding systems which, in conjugation with quantization, is important for the overall compression efficiency of the system. This thesis explores multipletransform- based learning schemes. A first contribution of this work is dedicated to the evaluation of transform learning schemes with two flavors 1) online learning, and 2) offline learning. The two approaches are compared against each other and their respective appropriability is studied in detail. Some novel techniques are proposed in this work to 1) improve the stability of the learning scheme and 2) to reduce the signaling cost. In a second contribution of this thesis, the offline multiple-transform learning schemes already known in the literature are further extended with the aims to altogether 1) provide more generic transforms that are less biased towards specific classes of contents, 2) achieve higher compression gains, 3) reduce encoding and decoding computational complexity. An improved Mode Dependent Transform Competition (IMDTC) scheme is proposed which provides a considerable gain of over 5% compared to standard HEVC under All Intra (AI) configuration at a complexity just 2.9 times the standard HEVC. Finally, the content adaptability aspect of the offline learning is explored through a novel content-adapted pool-based transform learning approach where several multiple-transform sets are learned on different contents and pooled together. During the coding of a given region of an image, one transform set is selected locally from the pool. Numerical results show the high potential of this approach against the conservative online and offline approaches.
|
6 |
Evaluation de l’expérimentation haut débit en milli lit fixe pour le screening de catalyseurs Fischer-Tropsch / Assessment of the high throughput approach in micro packed bed for the Fischer Tropsch catalyst screeningBonnin, Charles 27 October 2016 (has links)
Le screening de catalyseurs de Fischer-Tropsch destinés à une application en colonne à bulle, est souvent un processus long, réalisé en autoclaves. Le passage à un screening haut débit en réacteur milli-lit fixe permet de fournir des données sur l’activité et la sélectivité d’un plus grand nombre de catalyseurs en un minimum de temps. Les travaux de cette thèse s’attachent à répondre aux multiples questions que posent la comparaison d’essais réalisés en autoclaves versus milli-lit fixe. / Nowadays, catalyst screening for a Fischer-Tropsch application in slurry bubble column reactors is often a slow process, performed in small autoclave reactors. High throughput experimentation in micro packed bed reactors could accelerate it and provide activity and selectivity for a large number of catalysts, in a short time. This research thesis work aimed at addressing the numerous issues related to the comparison of results obtained in these two different reactors.
|
7 |
Modulation des réponses adrénergiques cardiaque et coronarienne par les dérivés de la cyclooxygénase dans le coeur défaillant du hamster UM-X7.1Brousseau, Danica January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
8 |
Hydrological post-processing of streamflow forecasts issued from single-model and multimodel ensemble prediction systemsXu, Jing 10 February 2024 (has links)
Les simulations et prévisions hydrologiques sont sujettes à diverses sources d'incertitudes, qui sont malheureusement inévitables. La cascade d'incertitude provient de différentes composantes de la chaîne de prévision, telles que la nature chaotique de l'atmosphère, diverses conditions initiales et limites, une modélisation hydrologique conceptuelle nécessairement inexacte et des paramètres stationnaires incohérents avec un environnement en mutation. La prévision d'ensemble s'avère un outil puissant pour représenter la croissance des erreurs dans le système dynamique et pour capter les incertitudes associées aux différentes sources. Thiboult et al. (2016) ont construit un grand ensemble de 50,000 membres qui tient compte de l'incertitude des prévisions météorologiques, de celle des conditions initiales et l’incertitude structurale. Ce vaste ensemble de 50,000 membres peut également être séparé en sous-composants afin de démêler les trois principales sources d’incertitude mentionnées ci-dessus. Emixi Valdez a donc généré un autre H-EPS multimodèles et calibré pour différents bassins hydrographiques suivant un modèle similaire. Cependant, les résultats obtenus ont été simplement agrégés, en considérant les membres équiprobables. Bien que les systèmes de prévision hydrologique multimodèles puissent être considérés comme un système très complet, ils sont néanmoins exposés à d'autres incertitudes. Par exemple, les prévisions météorologiques des recherches de Thiboult et al. (2016) ont été pré-testées sur certains bassins versants. Ces tests ont montré que les performances dues à l'assimilation de données s'estompent rapidement avec l’horizon de prévision. De plus, en réalité, les utilisateurs peuvent ne pas être en mesure d’utiliser parfaitement tous les outils de prévision (c’est-à-dire les prévisions météorologiques d’ensemble, l’assimilation de données et le schéma multimodèle) conjointement. Par conséquent, il existe toujours une place pour l'amélioration permettant d'augmenter la fiabilité et la résolution des prévisions grâce à un post-traitement statistique approprié. L'objectif global de cette recherche est d'explorer l'utilisation appropriée et les compétences prévisionnelles de divers algorithmes statistiques afin de post-traiter séparément les prévisions de débit provenant d’un modèle unique ainsi que les prévisions multimodèles. Premièrement, nous avons testé l’efficacité de méthodes depost-traitement telles que le Affine Kernel Dressing (AKD) et le Non-dominated sorting genetic algorithm II (NSGA-II) en comparant les prévisions post-traitées par ces méthodes aux soties brutes de systèmes de prévision à modèle unique. Ces deux méthodes sont théoriquement / techniquement distinctes, mais partagent toutefois la même caractéristique, à savoir qu’elles ne nécessitent pas d’hypothèse paramétrique concernant la distribution des membres de la prévision d’ensemble. Elles peuvent donc être considérées comme des méthodes de post-traitement non paramétriques. Dans cette étude, l'analyse des fronts de Pareto générés avec NSGA-II a démontré la supériorité de l'ensemble post-traité en éliminant efficacement les biais des prévisions et en maintenant une bonne dispersion pour tous les horizons de prévision. Deux autres méthodes de post-traitement, à savoir le Bayesian Model Averaging (BMA) et le Copula-BMA, ont également été comparées. Ces deux méthodes ont permis d’obtenir des distributions prédictives à partir de prévisions de débit journalier émises par cinq systèmes de prévision d'ensemble hydrologiques différents. Les poids obtenus par la méthode du BMA quantifient le niveau de confiance que l'on peut avoir à l'égard de chaque modèle hydrologique candidat et conduisent à une fonction de densité prédictive (PDF) contenant des informations sur l'incertitude. Le BMA améliore la qualité globale des prévisions, principalement en maintenant la dispersion de l'ensemble avec l’horizon de prévision. Il a également la capacité d’améliorer la fiabilité des systèmes multimodèles qui n’incluent que deux sources d’incertitudes. Le BMA est donc efficace pour améliorer la fiabilité et la résolution des prévisions hydrologiques. Toutefois, le BMA souffre de limitations dues au fait que les fonctions de densité de probabilité conditionnelle (PDF) doivent suivre une distribution paramétrique connue (ex., normale, gamma). Par contre, le modèle prédictif Copula-BMA ne requiert pas une telle hypothèse et élimine aussi l'étape de transformation de puissance, qui est nécessaire pour le BMA. Dans cette étude, onze types de distributions marginales univariées et six fonctions de copule de différents niveaux de complexité ont été explorés dans un cadre Copula-BMA. Cela a permis de représenter de manière exhaustive la structure de dépendance entre des couples de débits prévus et observés. Les résultats démontrent la supériorité du Copula-BMA par rapport au BMA pour réduire le biais dans les prévisions et maintenir une dispersion appropriée pour tous les horizons de prévision. / Hydrological simulations and forecasts are subject to various sources of uncertainties. Forecast uncertainties are unfortunately inevitable when conducting the deterministic analysis of a dynamical system. The cascade of uncertainty originates from different components of the forecasting chain, such as the chaotic nature of the atmosphere, various initial conditions and boundaries, necessarily imperfect hydrologic modeling, and the inconsistent stationnarity assumption in a changing environment. Ensemble forecasting is a powerful tool to represent error growth in the dynamical system and to capture the uncertainties associated with different sources. Thiboult et al. (2016) constructed a 50,000-member great ensemble that accounts for meteorological forcing uncertainty, initial conditions uncertainty, and structural uncertainty. This large ensemble can also be separated into sub-components to untangle the three main sources of uncertainties mentioned above. In asimilar experiment, another multimodel hydrological ensemble forecasting system implemented for different catchments was produced by Emixi Valdez. However,in the latter case, model outputs were simply pooled together, considering the members equiprobable. Although multimodel hydrological ensemble forecasting systems can be considered very comprehensive, they can still underestimate the total uncertainty. For instance, the meteorological forecasts in there search of Thiboult et al. (2016) were pre-tested on some watersheds. It was found out that the forecasting performance of data assimilation fades away quickly as the lead time progresses. In addition, operational forecasts users may not able to perfectly utilize all the forecasting tools (i.e., meteorological ensemble forcing, data assimilation, and multimodel) jointly. Therefore, there is still room for improvement to enhance the forecasting skill of such systems through proper statistical post-processing.The global objective of this research is to explore the proper use and predictive skill of various statistical post-processing algorithms by testing them on single-model and multimodel ensemble stream flow forecasts. First, we tested the post-processing skills of Affine kernel dressing (AKD) and Non-dominated sorting genetic algorithm II (NSGA-II) over single-model H-EPSs. Those two methods are theoretically/technically distinct yet are both non-parametric. They do not require the raw ensemble members to follow a specific parametric distribution.AKD-transformed ensembles and the Pareto fronts generated with NSGA-II demonstrated the superiority of post-processed ensembles compared to raw ensembles. Both methods where efficient at eliminating biases and maintaining a proper dispersion for all forecasting horizons. For multimodel ensembles, two post-processors, namely Bayesian model averaging (BMA) and the integrated copula-BMA, are compared for deriving a pertinent joint predictive distribution of daily streamflow forecasts issued by five different single-model hydrological ensemble prediction systems (H-EPSs). BMA assign weights to different models. Forecasts from all models are then combined to generate more skillful and reliable probabilistic forecasts. BMA weights quantify the level of confidence one can have regarding each candidate hydrological model and lead to a predictive probabilistic density function (PDF) containing information about uncertainty. BMA improves the overall quality of forecasts mainly by maintaining the ensemble dispersion with the lead time. It also improves the reliability and skill of multimodel systems that only include two sources of uncertainties compared to the 50,000-member great ensemble from Thiboult et al (2016). Furthermore, Thiboult et al. (2016) showed that the meteorological forecasts they used were biased and unreliable on some catchments. BMA improves the accuracy and reliability of the hydrological forecasts in that case as well.However, BMA suffers from limitations pertaining to its conditional probability density functions (PDFs), which must follow a known parametric distribution form (e.g., normal, gamma). On the contrary, Copula-BMA predictive model fully relaxes this constraint and also eliminates the power transformation step. In this study, eleven univariate marginal distributions and six copula functions are explored in a Copula-BMA framework for comprehensively reflecting the dependence structure between pairs of forecasted and observed streamflow. Results demonstrate the superiority of the Copula-BMAcompared to BMA in eliminating biases and maintaining an appropriate ensemble dispersion for all lead-times.
|
9 |
Intérêt de la déformation longitudinale globale du ventricule gauche chez les patients atteints de sténose aortique à bas débit et bas gradient avec basse fraction d'éjectionDahou, Abdellaziz 20 April 2018 (has links)
La sténose aortique est la valvulopathie la plus fréquente dans les pays industrialisés. Environ 5 à 10% des patients ayant une sténose aortique sévère présentent un état de bas débit cardiaque avec altération de la fraction d’éjection du ventricule gauche (FEVG). La présence d’un faible débit cardiaque s’accompagne souvent d’un bas gradient, ce qui peut fausser l’évaluation de la sévérité de la sténose et par conséquent conduire à une mauvaise décision thérapeutique. Deux principaux défis se posent chez ces patients. Le premier est de différentier une SA vraiment sévère d’une SA pseudo-sévère, c.à.d. un ventricule gauche défaillant qui est incapable d’ouvrir complètement une valve légèrement ou modérément sténosée. Cette distinction est cruciale car le remplacement valvulaire est bénéfique seulement dans le cas de SA vraiment sévère. Le deuxième défi est de quantifier précisément les dommages myocardiques. À cet effet, l’évaluation de la réserve contractile est importante car les patients qui n’ont pas ou peu de réserve contractile ont un haut risque de mortalité opératoire lors du remplacement valvulaire. Malheureusement, les paramètres traditionnels dérivés de l’échocardiographie de repos ou de stress qui sont utilisés pour évaluer la sévérité de la SA et la dysfonction du myocardique sont loin d’être optimaux. Par conséquent, la quantification de la sévérité de la maladie et la prise en charge thérapeutique peuvent ne pas être appropriées dans une proportion non négligeable de ces patients. Le principal objectif de ce projet de maîtrise est de déterminer l’utilité de la déformation longitudinale globale du ventricule gauche (DLG) mesurée au repos et lors d’une échocardiographie de stress à la dobutamine pour la stratification du risque et son impact sur le pronostic et la prise en charge des patients ayant une SA à bas débit et bas gradient (SABD) avec basse FEVG. Notre hypothèse est la suivante: la DLG du ventricule gauche est supérieure à la FEVG pour prédire la mortalité chez les patients avec SABD et basse FEVG inclus dans l’étude TOPAS. / Aortic stenosis is the most common valvular heart disease in developed countries. Approximately, 5 to 10 % of patients with severe aortic stenosis have a low cardiac output with impaired left ventricular ejection fraction (LVEF). The presence of a low cardiac output can distort the assessment of the severity of the aortic stenosis and thus lead to non-adequate therapeutic decision. Two main challenges are posed by these patients. The first is to differentiate a truly severe AS from a pseudo-severe AS, i.e. a failing left ventricle unable to fully open valve slightly or moderately stenotic. This distinction is crucial because the aortic valve replacement will be beneficial only in the case of true-severe AS. The second challenge is to accurately quantify myocardial damage. To this effect, the contractile reserve is important to assess because patients who do not have contractile reserve have a high risk of operative mortality following AVR. Unfortunately, traditional parameters derived from rest or stress echocardiography that are used to assess the severity of AS and myocardial dysfunction are not adequate in low flow state. Therefore, quantification of the disease severity and the ensuing therapeutic management may not be appropriate in a large proportion of these patients. The main objective of this project is to determine the usefulness of left ventricular longitudinal deformation measured at rest and during stress echocardiography with dobutamine for risk stratification and its impact on prognosis and management of patients with low-gradient aortic stenosis with impaired LVEF. Our hypothesis is as follows: The left ventricular global longitudinal strain is superior to the LVEF to predict mortality in patients having LF-LG AS with low EF included in the TOPAS study.
|
10 |
Molecular tools for the study of fungal aerosolsMbareche, Hamza 31 July 2019 (has links)
Depuis le développement rapide des méthodes de séquençage à haut débit (SHD) en écologie moléculaire, les moisissures ont eu moins d’attention que les bactéries et les virus, en particulier dans les études de bioaérosols. Les études d'exposition aux moisissures dans différents environnements sont limitées par les méthodes de culture traditionnelles qui sousestiment le large spectre de moisissures pouvant être présentes dans l'air. Bien que certains problèmes de santé soient déjà associés à une exposition fongique, le risque peut être sousestimé en raison des méthodes utilisées. L’application du séquençage à haut débit dans des échantillons de sol par exemple a permis de mieux comprendre le rôle des moisissures dans les écosystèmes. Cependant, la littérature n'est pas clair quant à la région génomique à utiliser comme cible pour l'enrichissement et le séquençage des moisissures. Cette thèse vise à déterminer laquelle des deux régions universellement utilisées, ITS1 et ITS2, convient le mieux pour étudier les moisissures dans l’air. Durant le développement de la méthode moléculaire, un autre défi, touchant la perte de cellules fongiques lors de la centrifugation d'échantillons d'air liquide à des fins de concentration, s’est rajouté. Ainsi, cette thèse décrit une nouvelle méthode de filtration pour remédier à la perte due à la centrifugation. Ces deux objectifs représentent la première partie de la thèse qui se concentre sur le développement de méthodes: le traitement des échantillons d’air avant extraction de l’ADN et la meilleure région à cibler avec la méthode SHD. La deuxième partie consiste à appliquer la méthodologie développée pour caractériser l'exposition aux moisissures dans trois environnements de travail différents: le compost, la biométhanisation et les fermes laitières. Les résultats montrent que la région d’ITS1 a surpasser ITS2 en couvrant davantage de diversité dans les bioaérosols. En raison de profils taxonomiques complémentaires, l'auteur de la thèse suggère d'utiliser les deux régions pour couvrir la plupart des taxons lorsque la taxonomie constitue le principal intérêt de l'étude. Cependant, ITS1 devrait être le premier choix dans les autres études, principalement en raison de la grande diversité et de la similarité des profils taxonomiques obtenus par l’approche métagénomique et l’approche ciblant ITS1. De plus, la nouvelle approche de filtration proposée constitue une meilleure alternative pour compenser la perte fongique due à la centrifugation. Ensemble, ces méthodes ont permis une meilleure description de l’exposition aux moisissures en milieu professionnel / Since the rapid development of high-throughput sequencing methods in molecular ecology, fungi have been the underdogs of the microbial world, especially in bioaerosol studies. Particularly, studies describing fungal exposure in different occupational environments have been limited by traditional culture methods that underestimate the broad spectrum of fungi present in the air. There are potential risks in the human inhalation of fungal spores in an occupational scenario where the quantity and diversity of fungi is high. Although some health problems are already known to be associated with fungal exposure in certain work environments, the risk may be underestimated due to the methods used. Applying high-throughput sequencing in soil samples has helped the explanation of the fungal role in ecosystems. However, the literature is not decisive in terms of the genomic region to use as target for the enrichment and sequencing of fungi. The present thesis deals with the challenge of determining which region from the two universally used regions, ITS1 and ITS2, is best suited for study of fungal aerosols. In tandem with this challenge came another of addressing the loss of fungal cells during the centrifugation of liquid impaction air samples for purposes of concentration. This thesis describes a new filtration-based method to circumvent such losses during centrifugation. These two challenges represent the first part of the thesis, which focuses on methodology development. In synopsis, the treatment of air samples prior to DNA extraction is considered, along with the identification of the best region to target in amplicon-based high throughput sequencing. In the second part of the thesis, the focus turns to the application of the developed methodology to characterize fungal exposure in three different work environments: compost, biomethanization, and dairy farms. All three are of special interest due to potentially high fungal exposure. Results show that ITS1 outperformed ITS2 in disclosing higher levels of fungal diversity in aerosol samples. Due to complementarity in the taxonomic profiles disclosed by the two regions, the author suggests the use of both regions to cover the greatest possible number of taxa when taxonomy is the main interest of the study. However, ITS1 should be the first choice in other studies, mainly because of the high diversity it reveals and its concordance with results obtained via shotgun metagenomic profiling. In addition, the new filtration-based approach proposed in this work might be the best alternative available for compensating the loss of propagules in centrifugation done prior to DNA extraction. Taken together, these methods allowed a profound characterization of fungal exposure in occupational environments.
|
Page generated in 0.0537 seconds