Spelling suggestions: "subject:"débit"" "subject:"ambit""
11 |
Effets de la digoxine, du furosémide, du diltiazem et du captopril sur le débit plasmatique du foie chez les lapins soumis à une diète déficiente en sodiumBailey, Benoit January 1990 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
12 |
Molecular tools for the study of fungal aerosolsMbareche, Hamza 26 March 2024 (has links)
Depuis le développement rapide des méthodes de séquençage à haut débit (SHD) en écologie moléculaire, les moisissures ont eu moins d’attention que les bactéries et les virus, en particulier dans les études de bioaérosols. Les études d'exposition aux moisissures dans différents environnements sont limitées par les méthodes de culture traditionnelles qui sousestiment le large spectre de moisissures pouvant être présentes dans l'air. Bien que certains problèmes de santé soient déjà associés à une exposition fongique, le risque peut être sousestimé en raison des méthodes utilisées. L’application du séquençage à haut débit dans des échantillons de sol par exemple a permis de mieux comprendre le rôle des moisissures dans les écosystèmes. Cependant, la littérature n'est pas clair quant à la région génomique à utiliser comme cible pour l'enrichissement et le séquençage des moisissures. Cette thèse vise à déterminer laquelle des deux régions universellement utilisées, ITS1 et ITS2, convient le mieux pour étudier les moisissures dans l’air. Durant le développement de la méthode moléculaire, un autre défi, touchant la perte de cellules fongiques lors de la centrifugation d'échantillons d'air liquide à des fins de concentration, s’est rajouté. Ainsi, cette thèse décrit une nouvelle méthode de filtration pour remédier à la perte due à la centrifugation. Ces deux objectifs représentent la première partie de la thèse qui se concentre sur le développement de méthodes: le traitement des échantillons d’air avant extraction de l’ADN et la meilleure région à cibler avec la méthode SHD. La deuxième partie consiste à appliquer la méthodologie développée pour caractériser l'exposition aux moisissures dans trois environnements de travail différents: le compost, la biométhanisation et les fermes laitières. Les résultats montrent que la région d’ITS1 a surpasser ITS2 en couvrant davantage de diversité dans les bioaérosols. En raison de profils taxonomiques complémentaires, l'auteur de la thèse suggère d'utiliser les deux régions pour couvrir la plupart des taxons lorsque la taxonomie constitue le principal intérêt de l'étude. Cependant, ITS1 devrait être le premier choix dans les autres études, principalement en raison de la grande diversité et de la similarité des profils taxonomiques obtenus par l’approche métagénomique et l’approche ciblant ITS1. De plus, la nouvelle approche de filtration proposée constitue une meilleure alternative pour compenser la perte fongique due à la centrifugation. Ensemble, ces méthodes ont permis une meilleure description de l’exposition aux moisissures en milieu professionnel / Since the rapid development of high-throughput sequencing methods in molecular ecology, fungi have been the underdogs of the microbial world, especially in bioaerosol studies. Particularly, studies describing fungal exposure in different occupational environments have been limited by traditional culture methods that underestimate the broad spectrum of fungi present in the air. There are potential risks in the human inhalation of fungal spores in an occupational scenario where the quantity and diversity of fungi is high. Although some health problems are already known to be associated with fungal exposure in certain work environments, the risk may be underestimated due to the methods used. Applying high-throughput sequencing in soil samples has helped the explanation of the fungal role in ecosystems. However, the literature is not decisive in terms of the genomic region to use as target for the enrichment and sequencing of fungi. The present thesis deals with the challenge of determining which region from the two universally used regions, ITS1 and ITS2, is best suited for study of fungal aerosols. In tandem with this challenge came another of addressing the loss of fungal cells during the centrifugation of liquid impaction air samples for purposes of concentration. This thesis describes a new filtration-based method to circumvent such losses during centrifugation. These two challenges represent the first part of the thesis, which focuses on methodology development. In synopsis, the treatment of air samples prior to DNA extraction is considered, along with the identification of the best region to target in amplicon-based high throughput sequencing. In the second part of the thesis, the focus turns to the application of the developed methodology to characterize fungal exposure in three different work environments: compost, biomethanization, and dairy farms. All three are of special interest due to potentially high fungal exposure. Results show that ITS1 outperformed ITS2 in disclosing higher levels of fungal diversity in aerosol samples. Due to complementarity in the taxonomic profiles disclosed by the two regions, the author suggests the use of both regions to cover the greatest possible number of taxa when taxonomy is the main interest of the study. However, ITS1 should be the first choice in other studies, mainly because of the high diversity it reveals and its concordance with results obtained via shotgun metagenomic profiling. In addition, the new filtration-based approach proposed in this work might be the best alternative available for compensating the loss of propagules in centrifugation done prior to DNA extraction. Taken together, these methods allowed a profound characterization of fungal exposure in occupational environments.
|
13 |
Hydrological post-processing of streamflow forecasts issued from single-model and multimodel ensemble prediction systemsXu, Jing 10 February 2024 (has links)
Les simulations et prévisions hydrologiques sont sujettes à diverses sources d'incertitudes, qui sont malheureusement inévitables. La cascade d'incertitude provient de différentes composantes de la chaîne de prévision, telles que la nature chaotique de l'atmosphère, diverses conditions initiales et limites, une modélisation hydrologique conceptuelle nécessairement inexacte et des paramètres stationnaires incohérents avec un environnement en mutation. La prévision d'ensemble s'avère un outil puissant pour représenter la croissance des erreurs dans le système dynamique et pour capter les incertitudes associées aux différentes sources. Thiboult et al. (2016) ont construit un grand ensemble de 50,000 membres qui tient compte de l'incertitude des prévisions météorologiques, de celle des conditions initiales et l’incertitude structurale. Ce vaste ensemble de 50,000 membres peut également être séparé en sous-composants afin de démêler les trois principales sources d’incertitude mentionnées ci-dessus. Emixi Valdez a donc généré un autre H-EPS multimodèles et calibré pour différents bassins hydrographiques suivant un modèle similaire. Cependant, les résultats obtenus ont été simplement agrégés, en considérant les membres équiprobables. Bien que les systèmes de prévision hydrologique multimodèles puissent être considérés comme un système très complet, ils sont néanmoins exposés à d'autres incertitudes. Par exemple, les prévisions météorologiques des recherches de Thiboult et al. (2016) ont été pré-testées sur certains bassins versants. Ces tests ont montré que les performances dues à l'assimilation de données s'estompent rapidement avec l’horizon de prévision. De plus, en réalité, les utilisateurs peuvent ne pas être en mesure d’utiliser parfaitement tous les outils de prévision (c’est-à-dire les prévisions météorologiques d’ensemble, l’assimilation de données et le schéma multimodèle) conjointement. Par conséquent, il existe toujours une place pour l'amélioration permettant d'augmenter la fiabilité et la résolution des prévisions grâce à un post-traitement statistique approprié. L'objectif global de cette recherche est d'explorer l'utilisation appropriée et les compétences prévisionnelles de divers algorithmes statistiques afin de post-traiter séparément les prévisions de débit provenant d’un modèle unique ainsi que les prévisions multimodèles. Premièrement, nous avons testé l’efficacité de méthodes depost-traitement telles que le Affine Kernel Dressing (AKD) et le Non-dominated sorting genetic algorithm II (NSGA-II) en comparant les prévisions post-traitées par ces méthodes aux soties brutes de systèmes de prévision à modèle unique. Ces deux méthodes sont théoriquement / techniquement distinctes, mais partagent toutefois la même caractéristique, à savoir qu’elles ne nécessitent pas d’hypothèse paramétrique concernant la distribution des membres de la prévision d’ensemble. Elles peuvent donc être considérées comme des méthodes de post-traitement non paramétriques. Dans cette étude, l'analyse des fronts de Pareto générés avec NSGA-II a démontré la supériorité de l'ensemble post-traité en éliminant efficacement les biais des prévisions et en maintenant une bonne dispersion pour tous les horizons de prévision. Deux autres méthodes de post-traitement, à savoir le Bayesian Model Averaging (BMA) et le Copula-BMA, ont également été comparées. Ces deux méthodes ont permis d’obtenir des distributions prédictives à partir de prévisions de débit journalier émises par cinq systèmes de prévision d'ensemble hydrologiques différents. Les poids obtenus par la méthode du BMA quantifient le niveau de confiance que l'on peut avoir à l'égard de chaque modèle hydrologique candidat et conduisent à une fonction de densité prédictive (PDF) contenant des informations sur l'incertitude. Le BMA améliore la qualité globale des prévisions, principalement en maintenant la dispersion de l'ensemble avec l’horizon de prévision. Il a également la capacité d’améliorer la fiabilité des systèmes multimodèles qui n’incluent que deux sources d’incertitudes. Le BMA est donc efficace pour améliorer la fiabilité et la résolution des prévisions hydrologiques. Toutefois, le BMA souffre de limitations dues au fait que les fonctions de densité de probabilité conditionnelle (PDF) doivent suivre une distribution paramétrique connue (ex., normale, gamma). Par contre, le modèle prédictif Copula-BMA ne requiert pas une telle hypothèse et élimine aussi l'étape de transformation de puissance, qui est nécessaire pour le BMA. Dans cette étude, onze types de distributions marginales univariées et six fonctions de copule de différents niveaux de complexité ont été explorés dans un cadre Copula-BMA. Cela a permis de représenter de manière exhaustive la structure de dépendance entre des couples de débits prévus et observés. Les résultats démontrent la supériorité du Copula-BMA par rapport au BMA pour réduire le biais dans les prévisions et maintenir une dispersion appropriée pour tous les horizons de prévision. / Hydrological simulations and forecasts are subject to various sources of uncertainties. Forecast uncertainties are unfortunately inevitable when conducting the deterministic analysis of a dynamical system. The cascade of uncertainty originates from different components of the forecasting chain, such as the chaotic nature of the atmosphere, various initial conditions and boundaries, necessarily imperfect hydrologic modeling, and the inconsistent stationnarity assumption in a changing environment. Ensemble forecasting is a powerful tool to represent error growth in the dynamical system and to capture the uncertainties associated with different sources. Thiboult et al. (2016) constructed a 50,000-member great ensemble that accounts for meteorological forcing uncertainty, initial conditions uncertainty, and structural uncertainty. This large ensemble can also be separated into sub-components to untangle the three main sources of uncertainties mentioned above. In asimilar experiment, another multimodel hydrological ensemble forecasting system implemented for different catchments was produced by Emixi Valdez. However,in the latter case, model outputs were simply pooled together, considering the members equiprobable. Although multimodel hydrological ensemble forecasting systems can be considered very comprehensive, they can still underestimate the total uncertainty. For instance, the meteorological forecasts in there search of Thiboult et al. (2016) were pre-tested on some watersheds. It was found out that the forecasting performance of data assimilation fades away quickly as the lead time progresses. In addition, operational forecasts users may not able to perfectly utilize all the forecasting tools (i.e., meteorological ensemble forcing, data assimilation, and multimodel) jointly. Therefore, there is still room for improvement to enhance the forecasting skill of such systems through proper statistical post-processing.The global objective of this research is to explore the proper use and predictive skill of various statistical post-processing algorithms by testing them on single-model and multimodel ensemble stream flow forecasts. First, we tested the post-processing skills of Affine kernel dressing (AKD) and Non-dominated sorting genetic algorithm II (NSGA-II) over single-model H-EPSs. Those two methods are theoretically/technically distinct yet are both non-parametric. They do not require the raw ensemble members to follow a specific parametric distribution.AKD-transformed ensembles and the Pareto fronts generated with NSGA-II demonstrated the superiority of post-processed ensembles compared to raw ensembles. Both methods where efficient at eliminating biases and maintaining a proper dispersion for all forecasting horizons. For multimodel ensembles, two post-processors, namely Bayesian model averaging (BMA) and the integrated copula-BMA, are compared for deriving a pertinent joint predictive distribution of daily streamflow forecasts issued by five different single-model hydrological ensemble prediction systems (H-EPSs). BMA assign weights to different models. Forecasts from all models are then combined to generate more skillful and reliable probabilistic forecasts. BMA weights quantify the level of confidence one can have regarding each candidate hydrological model and lead to a predictive probabilistic density function (PDF) containing information about uncertainty. BMA improves the overall quality of forecasts mainly by maintaining the ensemble dispersion with the lead time. It also improves the reliability and skill of multimodel systems that only include two sources of uncertainties compared to the 50,000-member great ensemble from Thiboult et al (2016). Furthermore, Thiboult et al. (2016) showed that the meteorological forecasts they used were biased and unreliable on some catchments. BMA improves the accuracy and reliability of the hydrological forecasts in that case as well.However, BMA suffers from limitations pertaining to its conditional probability density functions (PDFs), which must follow a known parametric distribution form (e.g., normal, gamma). On the contrary, Copula-BMA predictive model fully relaxes this constraint and also eliminates the power transformation step. In this study, eleven univariate marginal distributions and six copula functions are explored in a Copula-BMA framework for comprehensively reflecting the dependence structure between pairs of forecasted and observed streamflow. Results demonstrate the superiority of the Copula-BMAcompared to BMA in eliminating biases and maintaining an appropriate ensemble dispersion for all lead-times.
|
14 |
Intérêt de la déformation longitudinale globale du ventricule gauche chez les patients atteints de sténose aortique à bas débit et bas gradient avec basse fraction d'éjectionDahou, Abdellaziz 20 April 2018 (has links)
La sténose aortique est la valvulopathie la plus fréquente dans les pays industrialisés. Environ 5 à 10% des patients ayant une sténose aortique sévère présentent un état de bas débit cardiaque avec altération de la fraction d’éjection du ventricule gauche (FEVG). La présence d’un faible débit cardiaque s’accompagne souvent d’un bas gradient, ce qui peut fausser l’évaluation de la sévérité de la sténose et par conséquent conduire à une mauvaise décision thérapeutique. Deux principaux défis se posent chez ces patients. Le premier est de différentier une SA vraiment sévère d’une SA pseudo-sévère, c.à.d. un ventricule gauche défaillant qui est incapable d’ouvrir complètement une valve légèrement ou modérément sténosée. Cette distinction est cruciale car le remplacement valvulaire est bénéfique seulement dans le cas de SA vraiment sévère. Le deuxième défi est de quantifier précisément les dommages myocardiques. À cet effet, l’évaluation de la réserve contractile est importante car les patients qui n’ont pas ou peu de réserve contractile ont un haut risque de mortalité opératoire lors du remplacement valvulaire. Malheureusement, les paramètres traditionnels dérivés de l’échocardiographie de repos ou de stress qui sont utilisés pour évaluer la sévérité de la SA et la dysfonction du myocardique sont loin d’être optimaux. Par conséquent, la quantification de la sévérité de la maladie et la prise en charge thérapeutique peuvent ne pas être appropriées dans une proportion non négligeable de ces patients. Le principal objectif de ce projet de maîtrise est de déterminer l’utilité de la déformation longitudinale globale du ventricule gauche (DLG) mesurée au repos et lors d’une échocardiographie de stress à la dobutamine pour la stratification du risque et son impact sur le pronostic et la prise en charge des patients ayant une SA à bas débit et bas gradient (SABD) avec basse FEVG. Notre hypothèse est la suivante: la DLG du ventricule gauche est supérieure à la FEVG pour prédire la mortalité chez les patients avec SABD et basse FEVG inclus dans l’étude TOPAS. / Aortic stenosis is the most common valvular heart disease in developed countries. Approximately, 5 to 10 % of patients with severe aortic stenosis have a low cardiac output with impaired left ventricular ejection fraction (LVEF). The presence of a low cardiac output can distort the assessment of the severity of the aortic stenosis and thus lead to non-adequate therapeutic decision. Two main challenges are posed by these patients. The first is to differentiate a truly severe AS from a pseudo-severe AS, i.e. a failing left ventricle unable to fully open valve slightly or moderately stenotic. This distinction is crucial because the aortic valve replacement will be beneficial only in the case of true-severe AS. The second challenge is to accurately quantify myocardial damage. To this effect, the contractile reserve is important to assess because patients who do not have contractile reserve have a high risk of operative mortality following AVR. Unfortunately, traditional parameters derived from rest or stress echocardiography that are used to assess the severity of AS and myocardial dysfunction are not adequate in low flow state. Therefore, quantification of the disease severity and the ensuing therapeutic management may not be appropriate in a large proportion of these patients. The main objective of this project is to determine the usefulness of left ventricular longitudinal deformation measured at rest and during stress echocardiography with dobutamine for risk stratification and its impact on prognosis and management of patients with low-gradient aortic stenosis with impaired LVEF. Our hypothesis is as follows: The left ventricular global longitudinal strain is superior to the LVEF to predict mortality in patients having LF-LG AS with low EF included in the TOPAS study.
|
15 |
Prise en compte de barrages-réservoirs dans un modèle global pluie-débitPayan, Jean-Luc 05 March 2007 (has links) (PDF)
Les bassins versants influencés par la présence de barrages-réservoirs constituent les objets d'étude de cette thèse. L'objectif principal est de mettre au point une méthode de prise en compte, au sein d'un modèle pluie-débit global, de l'impact de retenues d'eau artificielles sur le comportement hydrologique du bassin versant. Un tel outil, simple dans sa conception, doit permettre d'améliorer la simulation des débits de bassins versants influencés et d'évaluer l'impact de barrages-réservoirs sur le régime hydrologique des cours d'eau, en particulier lorsque l'on se place loin à l'aval de l'ouvrage. La démarche adoptée est empirique dans le sens où l'on a cherché, sur une base de données de 46 bassins versants situés en France, aux Etats-Unis et au Brésil, à exploiter au mieux, dans la structure du modèle pluie-débit, une information simple sur les ouvrages, à savoir l'évolution temporelle des volumes stockés dans les retenues. La diversité des conditions hydro-climatiques présentes dans la base de données donne aux résultats obtenus un caractère assez général. Au cours de cette thèse, un grand nombre de solutions de prise en compte des barrages-réservoirs a été testé. Les résultats montrent que cette information sur les remplissages des ouvrages peut être utilement exploitée au sein d'une structure de modèle global pour améliorer la simulation des bassins influencés. Les solutions qui se sont révélées être les plus performantes n'engendrent pas de complexification de la structure initiale du modèle puisqu'aucun ajout de paramètre n'a été nécessaire. Des gains de performances significatifs ont été réalisés, en particulier sur la simulation des étiages. Il s'agit d'un résultat important de la thèse car il montre qu'il est possible de prendre explicitement en compte, dans un modèle pluie-débit global, les barrages-réservoirs présents sur le bassin versant. Nous avons ensuite essayé de comprendre le lien entre la méthode de prise en compte des barrages-réservoirs et certaines caractéristiques physiques des bassins versants et des ouvrages de stockage afin de tenter d'adapter la solution au bassin versant considéré. Les résultats de ces tests ont montré que ce lien est difficile à mettre en évidence et qu'à ce stade, une solution générique semble la plus efficace. La solution la plus performante a ensuite été évaluée sur un échantillon complémentaire de 31 bassins versants n'ayant pas servi à son développement. L'évaluation a confirmé l'intérêt de la méthode pour l'amélioration des simulations des débits mais a également montré sa sensibilité à la disponibilité des données de stockages ainsi qu'aux transferts interbassins inconnus.
|
16 |
Prévention des événements indésirables médicamenteux associés à la perfusion en anesthésie-réanimation : évaluation de l'impact de dispositifs médicaux de perfusion innovants / Prevention of adverse drug effects associated with intravenous infusion in anesthesia and intensive care : assessment of the impact of innovative infusion devicesMaiguy-Foinard, Aurélie 01 July 2014 (has links)
La perfusion intraveineuse (IV) est un acte de soins courant dans les services cliniques mais non dépourvu de risque. De nombreux paramètres influencent la vitesse d’administration (ou débit massique) des médicaments perfusés, en particulier les dispositifs médicaux employés pour l'administration d'un ou plusieurs produits. De part leurs caractéristiques, ces dispositifs peuvent générer des fluctuations plus ou moins importantes du débit massique du produit au cours de sa perfusion.La première partie de ce travail est une analyse de la littérature concernant l'impact des dispositifs médicaux sur le débit massique des médicaments délivrés par voie IV. Une revue systématique de la littérature sur cette thématique a retrouvé des études essentiellement in vitro portant sur tout facteur susceptible de modifier le débit ou la concentration du médicament administré.La première partie de nos travaux expérimentaux est consacrée à la prévention des variations intempestives du débit massique de la solution médicamenteuse perfusée au patient par voie IV. Le premier travail a montré in vitro la capacité d'un nouveau dispositif de perfusion multilumière à très faible volume interne (Multiline-8, Doran International, France) à prévenir les variations intempestives de débit massique dans un contexte de multiperfusion et lors d'un arrêt/reprise de l'hydratation. Le second travail a démontré in vitro l'impact de la conception du montage de perfusion sur la précision des doses de morphine administrées en analgésie contrôlée par le patient. L'utilisation d'un montage en Y à faible volume interne améliore significativement la précision de la dose de morphine délivrée lors des bolus et réduit la délivrance de morphine lors des périodes réfractaires. Ainsi, l'utilisation de dispositifs médicaux de perfusion à faible volume interne limite les variations de débit massique et par conséquent, leur impact clinique.La seconde partie de nos travaux est axée sur la prévention des incompatibilités médicamenteuses lorsque plusieurs traitements sont administrés simultanément. Le premier travail mené dans cette thématique a montré in vitro la capacité de dispositifs de perfusion multilumières à prévenir la survenue d'une incompatibilité physico-chimique entre deux médicaments réputés incompatibles (furosémide/midazolam). Nos résultats indiquent que trois facteurs ont un impact sur la compatibilité physique entre les produits : la concentration du médicament, le débit d'hydratation et la conception du dispositif de perfusion. Notre principale hypothèse est que les conditions de mélange des fluides diffèrent selon le dispositif de perfusion, modifiant le temps de contact entre les deux médicaments et la solution saline. Le second travail consiste en une quantification in vitro de la perte de médicament lors d'une incompatibilité médicamenteuse avec l'exemple de l'incompatibilité physique entre le furosémide et le midazolam. Notre étude a révélé que l'incompatibilité physique entre deux médicaments peut conduire à une réduction significative des quantités de produit délivrées au patient, même en l'absence de particules visibles. En effet, la précipitation du furosémide responsable de la formation de particules visibles et/ou non visibles a entraîné une perte du médicament estimée entre 10 et 15 %, en présence de midazolam. La prévention des incompatibilités constitue un enjeu majeur pour garantir la sécurité et l'efficacité des produits injectés.Les résultats de l'ensemble de nos études menées in vitro doivent être validés dans un contexte clinique afin de déterminer les conséquences du choix du dispositif sur l'efficacité et la sécurité des thérapeutiques IV administrées au patient. / Intravenous (IV) infusion is a common medical act in clinical wards, although not without risk. Many factors affect drug delivery rate (or drug mass flow rate), especially medical devices used to administer one or more drugs. By their very features, these devices may generate more or less significant variations in drug mass flow rate during infusion.The first part of this work consisted in analysing published literature dealing with the impact of medical devices on drug mass flow rate when delivered intravenously. This systematic review revealed mainly in vitro studies on all factors likely to alter the flow rate or concentration of the drug infused.The first stage of our experimental work is dedicated to preventing hazardous disturbances in the mass flow rate of the drug solution infused intravenously to the patient. It showed in vitro the ability of a new multi-lumen infusion access device with a very low internal volume (Multiline-8, Doran International, France) to prevent such disturbances in drug delivery in the context of multi-infusion therapy and when interrupting and resuming carrier fluid flow. The second stage demonstrated in vitro the impact of infusion set characteristics on the accuracy of morphine doses in patient-controlled analgesia. The use of a low dead space volume Y-set significantly improved the accuracy of the morphine dose delivered during bolus and reduced morphine infusion during lockout intervals. Thus, the use of infusion devices with a very low internal volume minimises variations in drug mass flow rate and consequently, clinical impact.The second part of our work focused on the prevention of drug incompatibilities when several treatments are administered simultaneously. The first task accomplished on this topic showed in vitro the ability of multi-lumen infusion access devices to prevent the occurrence of physicochemical incompatibility between two drugs known to be incompatible (furosemide/midazolam). Our results indicate that three factors impact on physical compatibility between drugs: drug concentration, carrier flow rate and the design of the infusion device. Our main hypothesis is that fluid dynamics differ according to infusion devices which modify contact time between the two drugs and saline. The second task was an in vitro quantification of drug loss in the case of drug incompatibility using the example of furosemide and midazolam. Our study revealed that physical incompatibility between two drugs can lead to a significant reduction in drug delivery to the patient, even in the absence of visible particles. Indeed, furosemide precipitation resulting in the formation of visible and/or sub-visible particles led to a drug loss to the patient estimated at between 10% and 15% when midazolam was present. Preventing incompatibilities is a major challenge to ensure the safety and effectiveness of injectable drugs.The results of the whole of our in vitro studies must be validated in a clinical setting to determine the extent to which the choice of device affects the efficiency and safety of IV therapeutics administered to the patient.
|
17 |
Traitement de données de débit sur calculatrice électroniqueFleure, Jean 21 October 1968 (has links) (PDF)
.
|
18 |
L’assimilation de données multivariées par filtre de Kalman d’ensemble pour la prévision hydrologiqueBergeron, Jean January 2017 (has links)
Le potentiel de l’assimilation d’un type d’observation pour la prévision hydrologique a été démontré dans certaines études. Cependant, le potentiel de l’assimilation simultanée de plusieurs types d’observations a été peu validé, particulièrement pour les données comprenant une information sur la neige au sol. De plus, l’amplitude et la durée de l’impact de l’assimilation de données peuvent dépendre du type de données assimilé, ainsi que du contenu du vecteur d’état employé pour mettre à jour les variables ou les paramètres du modèle hydrologique. La présente thèse examine l’impact de l’assimilation de données multivariées en fonction du type de données assimilé et du contenu du vecteur d’état pour la prévision hydrologique à court terme (horizon de prévision jusqu’à 5 jours) et moyen terme (horizon de prévision entre 25 et 50 jours). Le filtre de Kalman d’ensemble est employé pour assimiler les observations de l’équivalent en eau de la neige à trois endroits sur le bassin versant de la rivière Nechako, ainsi que le débit à l’exutoire, dans le modèle hydrologique CEQUEAU.
Les scénarios d’assimilation sont premièrement testés dans un cadre synthétique afin d’identifier les variables les plus susceptibles à l’assimilation des données pour la prévision hydrologique. La robustesse des scénarios d’assimilation de données est ensuite testée en introduisant un biais sur les précipitations solides. Finalement, les observations réelles sont assimilées pour vérifier l’impact réel des scénarios pour la prévision hydrologique.
Les résultats montrent une amélioration variable des prévisions hydrologiques en fonction des scénarios selon plusieurs critères de performance mesurant l’exactitude, le biais et la représentativité de l’incertitude représentée par les prévisions d’ensemble. L’assimilation du débit pour la mise à jour des variables améliore principalement les prévisions à court terme, tandis que l’impact de la mise à jour de certains paramètres persiste à moyen terme. L’assimilation de l’équivalent en eau de la neige améliore les prévisions à court et moyen terme, principalement pendant la période de fonte de neige. Pour la plupart des scénarios, l’assimilation simultanée du débit et de l’équivalent en eau de la neige surpasse l’assimilation des données individuellement. Ces résultats sont cohérents entre les cadres synthétique et réel.
|
19 |
Mise au point de l’analyse par séquençage à haut-débit du microbiote fongique et bactérien respiratoire chez les patients atteints de mucoviscidose / Optimization of high-throughput sequencing approach to study lung mycobiota and bacteriota of cystic fibrosis patientsNguyen, Do Ngoc Linh 20 September 2016 (has links)
L’infection broncho-pulmonaire représente le problème majeur des malades atteints de la mucoviscidose. Plusieurs bactéries sont connues depuis des dizaines années comme les principaux agents responsables de ces infections (par exemple Pseudomonas aeruginosa, Staphylococcus aureus, Burkholderia cepacia, Achromobacter xylosoxidans…). Récemment, certains genres fongiques notamment les champignons filamenteux (comme Aspergillus, Scedosporium…) ont été identifiés comme des pathogènes émergeants ou ré-émergeants pouvant être responsables d’infection invasive. Ainsi, la détection des microorganismes impliqués dans ces colonisations et/ou infections respiratoires demeure importante sur le plan physiopathologique et clinique.Si la culture microbiologique reste la méthode la plus utilisée à ce jour pour le diagnostic des infections microbiennes, elle ne permet pas d’identifier les microbes non-cultivables ou difficiles à cultiver. Depuis quelques années, grâce au développement de la technique moléculaire de séquençage à haut-débit (next generation sequencing ou NGS), plusieurs études ont montré que l’écologie microbienne du poumon des patients atteints de la mucoviscidose est très complexe et correspond à une flore poly-microbienne, appelée le microbiote pulmonaire, comprenant non seulement des bactéries mais également des micromycètes (levures et/ou champignons filamenteux) et des virus et phages. Une dysbiose (modification en abondance et diversité) de cette flore pourrait influencer la fonction respiratoire et l’état clinique du patient.Alors que le microbiome bactérien et son rôle en pathogenèse sont largement étudiés, peu d’études ont porté sur la composante fongique (mycobiote/mycobiome) du microbiote pulmonaire. Notre travail de thèse s’inscrit dans les différents projets développés au sein de l’axe de recherche « Microbiote pro- et eucaryote pulmonaire » coordonné par le Pr Laurence Delhaes dans l’équipe Biologie et Diversité des Pathogènes Eucaryotes Emergeants (BDPEE) dirigée par le Dr Eric Viscogliosi. Il se focalise sur l’analyse NGS du microbiote pro- et eucaryotique respiratoire chez les patients atteints de la mucoviscidose et notamment la comparaison de différentes approches méthodologiques en vue d’une optimisation et standardisation de la méthode.Dans un premier temps, nous présenterons une synthèse des connaissances actuelles d’une part des phénomènes de colonisations/infections fongiques chez les patients atteints de mucoviscidose et d’autre part dans le domaine du microbiote pulmonaire et surtout du mycobiote pulmonaire autour duquel notre équipe se focalise.2Dans un deuxième temps, nous avons travaillé à mieux adapter l’approche NGS aux études du microbiote pulmonaire dans la mucoviscidose. En effet, le séquençage à haut-débit est une technique puissante mais pour laquelle des biais peuvent être introduits à de nombreuses étapes méthodologiques. Un des biais les plus importants est que l’approche NGS ne permet pas de différencier les microorganismes vivants, des cellules mortes ou endommagées, ni de l’ADN extracellulaire. Dans le contexte de notre travail –celui du microbiote pulmonaire chez des patients atteints de mucoviscidose et souvent exposés aux antibiotiques par voie intraveineuse à forte dose, l’analyse NGS pourrait évaluer incorrectement l’abondance et la diversité de ce microbiote pulmonaire. Un prétraitement des échantillons par propidium monoazide (PMA), qui permet de cibler sélectivement l’ADN des cellules vivantes, pourrait être une solution pour palier à cette limite. Notre étude avait donc comme objectif de déterminer si un prétraitement par PMA des expectorations modifiait le microbiote pro- et eucaryote pulmonaire analysé par NGS. Nous discutons l’intérêt et la relevance clinique de cette approche « PMA - NGS » permettant une quantification isolée des microorganismes vivants dans le contexte de la mucoviscidose. / Chronic pulmonary infection results in an irreversible decline in lung function in patients with cystic fibrosis (CF). While several bacteria are known as main causes for these infections (for example: Pseudomonas aeruginosa, Staphylococcus aureus, Burkholderia cepacia, Achromobacter xylosoxidans...), more recently some fungal genera including filamentous fungi (such as Aspergillus, Scedosporium...) have also been identified as emerging or re-emerging pathogens able to cause invasive mycosis. Thus, the identification of the microorganisms involved in the respiratory colonizations and/or infections has become essential.Still now culture methods remain the gold standard for diagnostic of microbial infections. However, it could not identify non-culturable or difficult-to-cultivate microorganisms. Thanks to the development of high-throughput sequencing (next generation sequencing or NGS), recent studies have shown that the lung of patients with CF is a complex poly-microbial flora, also called the CF lung microbiota, which includes not only bacteria but also fungi (yeast and/or filamentous fungi), and viruses and phages. Dysbiosis (loss of abundance and/or diversity) of the lung microbiota has been associated with the patient's decreased lung function and poor clinical status.While lung bacteriota and its role in pathogenesis have widely been studied, few research studies focus on the fungal component (mycobiota/ mycobiome) of the lungs. Our thesis (PhD work) focuses on NGS analysis of pro- and eukaryotic lung microbiota in CF patients, in particular on the comparison of different methodological approaches to optimize and standardize the NGS protocol. This project has been developed under the supervision of Pr. Laurence Delhaes in the “Biology and Diversity of Eukaryotic Emerging Pathogens” team directed by Dr. Eric Viscogliosi.Firstly, we present a state of art on the current knowledge on the fungal colonization/infections risk in CF as well as the development of new concepts of lung microbiota and lung mycobiota on which our team focuses.Secondly, we applied the NGS approach to study the pro- and eukaryotic microbiota in the sputum samples of CF patient lung. Indeed, NGS is a powerful technique that may introduce biases on numerous methodological steps. One of the most important biases is that this technique could not differentiate among the living microorganisms, the dead or damaged cells, and the extracellular DNA. In the context of the CF lung microbiota which is often exposed to high-dose intravenous antibiotics, the analysis by NGS might evaluate4inaccurately the abundance and the diversity of the lung microbiota. Pretreatment of samples by propidium monoazide (PMA), which can target selectively the DNA of viable cells, could be a solution to overcome this limitation. Our study aimed to determine whether a sample pretreatment with PMA modified the lung pro- and eukaryotic microbiota analyzed by NGS. We discuss the clinical relevance of this approach "PMA - NGS" in the context of CF patients to a better quantification of living microorganisms.
|
20 |
Oxydation biocatalytique de liaison C-H non activée pour la synthèse de dérivés bêta-hydroxylamines : application à la synthèse d'acides aminés non protéinogènes / Biocatalytic oxidation of unactivated C-H bond for the synthesis of beta-hydroxylamine derivatives : application to the synthesis of non proteinogenic amino acidsBaud, Damien 12 December 2013 (has links)
Le travail présenté dans ce manuscrit porte sur la recherche de nouveaux membres de la famille des dioxygénases α-cétoglutarate et fer dépendantes (α-KAO) et leur application en synthèse organique. Dans un premier, ce travail a consisté à chercher de nouvelles enzymes selon une approche génomique basée sur l’homologie de séquence et le partage d’un motif InterPro. Deux criblages haut débit avec 79 et 127 enzymes candidates ont ensuite été effectués sur des panels constitués respectivement de 23 et 36 substrats, structurellement plus ou moins proches des substrats métaboliques. Huit nouvelles α-KAO ont ainsi pu être découvertes. Parmi ces huit nouvelles α-KAO, quatre ont été étudiées plus en détail. Après optimisation des conditions de réaction pour chaque enzyme, des montées en échelle ont été réalisées pour caractériser les produits formés. A partir de ces quatre enzymes, la (3S)-3-hydroxy-L-lysine, un dérivé cyclisé de la (4R)-4-hydroxy-L-lysine, (3S)-3-hydroxy-L-ornithine et un dérivé de la (3S)-3-hydroxy-L-arginine ont pu être produits. Nous avons proposé une synthèse biocatalytique de mono et dihydroxydiamines en couplant une ou deux α-KAO avec une décarboxylase. Les (2S)-1,5-diamino-2-pentanol, 1,5-diamino-3-pentanol, (2S)-1,4-diamino-2-butanol et (2S,3S)-1,5-diamino-2,3-pentanediol ont ainsi été obtenus avec de bonnes conversions. / The work described in this manuscript deals with the search of new members of the α-ketoglutarate and Iron-dependent dioxygenases family (α-KAO) and their applications in organic synthesis. The first part of this work presents the search of new enzymes through a genomic approach based on sequence homology and InterPro motif sharing. Two high-throughput screenings with 79 and 127 candidate enzymes have been performed on 23 and 36 substrates more or less structurally close to known metabolic substrates. 8 new α-KAOs have been discovered. Among these new enzymes, four were studied in more details. After optimization of the enzymatic reaction conditions for each enzyme, scale-up allowed to obtain compounds for isolation and characterization. With these four enzymes, (3S)-3-hydroxy-L-lysine, (4R)-4-hydroxy-L-lysine as its cyclic derivative, (3S)-3-hydroxy-L-ornithine and a derivative of (3S)-3-hydroxy-L-arginine were produced. Two of the new α-KAO were combined in a cascade process to afford the (3R,4R)-3,4-dihydroxy-L-lysine as its cyclic derivative. We proposed a biocatalytic synthesis of mono and hydroxydiamines by coupling one or two α-KAO with a decarboxylase enzyme. (2S)-1,5-diamino-2-pentanol, 1,5-diamino-3-pentanol, (2S)-1,4-diamino-2-butanol and (2S,3S)-1,5-diamino-2,3-pentanediol were obtained with good overall conversions.
|
Page generated in 0.0303 seconds