Spelling suggestions: "subject:"aux"" "subject:"taux""
631 |
Optimization tools for non-asymptotic statistics in exponential familiesLe Priol, Rémi 04 1900 (has links)
Les familles exponentielles sont une classe de modèles omniprésente en statistique.
D'une part, elle peut modéliser n'importe quel type de données.
En fait la plupart des distributions communes en font partie : Gaussiennes, variables catégoriques, Poisson, Gamma, Wishart, Dirichlet.
D'autre part elle est à la base des modèles linéaires généralisés (GLM), une classe de modèles fondamentale en apprentissage automatique.
Enfin les mathématiques qui les sous-tendent sont souvent magnifiques, grâce à leur lien avec la dualité convexe et la transformée de Laplace.
L'auteur de cette thèse a fréquemment été motivé par cette beauté.
Dans cette thèse, nous faisons trois contributions à l'intersection de l'optimisation et des statistiques, qui tournent toutes autour de la famille exponentielle.
La première contribution adapte et améliore un algorithme d'optimisation à variance réduite appelé ascension des coordonnées duales stochastique (SDCA), pour entraîner une classe particulière de GLM appelée champ aléatoire conditionnel (CRF). Les CRF sont un des piliers de la prédiction structurée. Les CRF étaient connus pour être difficiles à entraîner jusqu'à la découverte des technique d'optimisation à variance réduite. Notre version améliorée de SDCA obtient des performances favorables comparées à l'état de l'art antérieur et actuel.
La deuxième contribution s'intéresse à la découverte causale.
Les familles exponentielles sont fréquemment utilisées dans les modèles graphiques, et en particulier dans les modèles graphique causaux.
Cette contribution mène l'enquête sur une conjecture spécifique qui a attiré l'attention dans de précédents travaux : les modèles causaux s'adaptent plus rapidement aux perturbations de l'environnement.
Nos résultats, obtenus à partir de théorèmes d'optimisation, soutiennent cette hypothèse sous certaines conditions. Mais sous d'autre conditions, nos résultats contredisent cette hypothèse. Cela appelle à une précision de cette hypothèse, ou à une sophistication de notre notion de modèle causal.
La troisième contribution s'intéresse à une propriété fondamentale des familles exponentielles.
L'une des propriétés les plus séduisantes des familles exponentielles est la forme close de l'estimateur du maximum de vraisemblance (MLE), ou maximum a posteriori (MAP) pour un choix naturel de prior conjugué.
Ces deux estimateurs sont utilisés presque partout, souvent sans même y penser.
(Combien de fois calcule-t-on une moyenne et une variance pour des données en cloche sans penser au modèle Gaussien sous-jacent ?)
Pourtant la littérature actuelle manque de résultats sur la convergence de ces modèles pour des tailles d'échantillons finis, lorsque l'on mesure la qualité de ces modèles avec la divergence de Kullback-Leibler (KL).
Pourtant cette divergence est la mesure de différence standard en théorie de l'information.
En établissant un parallèle avec l'optimisation, nous faisons quelques pas vers un tel résultat, et nous relevons quelques directions pouvant mener à des progrès, tant en statistiques qu'en optimisation.
Ces trois contributions mettent des outil d'optimisation au service des statistiques dans les familles exponentielles : améliorer la vitesse d'apprentissage de GLM de prédiction structurée, caractériser la vitesse d'adaptation de modèles causaux, estimer la vitesse d'apprentissage de modèles omniprésents.
En traçant des ponts entre statistiques et optimisation, cette thèse fait progresser notre maîtrise de méthodes fondamentales d'apprentissage automatique. / Exponential families are a ubiquitous class of models in statistics.
On the one hand, they can model any data type.
Actually, the most common distributions are exponential families: Gaussians, categorical, Poisson, Gamma, Wishart, or Dirichlet.
On the other hand, they sit at the core of generalized linear models (GLM), a foundational class of models in machine learning.
They are also supported by beautiful mathematics thanks to their connection with convex duality and the Laplace transform.
This beauty is definitely responsible for the existence of this thesis.
In this manuscript, we make three contributions at the intersection of optimization and statistics, all revolving around exponential families.
The first contribution adapts and improves a variance reduction optimization algorithm called stochastic dual coordinate ascent (SDCA) to train a particular class of GLM called conditional random fields (CRF). CRF are one of the cornerstones of structured prediction. CRF were notoriously hard to train until the advent of variance reduction techniques, and our improved version of SDCA performs favorably compared to the previous state-of-the-art.
The second contribution focuses on causal discovery.
Exponential families are widely used in graphical models, and in particular in causal graphical models.
This contribution investigates a specific conjecture that gained some traction in previous work: causal models adapt faster to perturbations of the environment.
Using results from optimization, we find strong support for this assumption when the perturbation is coming from an intervention on a cause, and support against this assumption when perturbation is coming from an intervention on an effect.
These pieces of evidence are calling for a refinement of the conjecture.
The third contribution addresses a fundamental property of exponential families.
One of the most appealing properties of exponential families is its closed-form maximum likelihood estimate (MLE) and maximum a posteriori (MAP) for a natural choice of conjugate prior. These two estimators are used almost everywhere, often unknowingly
-- how often are mean and variance computed for bell-shaped data without thinking about the Gaussian model they underly?
Nevertheless, literature to date lacks results on the finite sample convergence property of the information (Kulback-Leibler) divergence between these estimators and the true distribution.
Drawing on a parallel with optimization, we take some steps towards such a result, and we highlight directions for progress both in statistics and optimization.
These three contributions are all using tools from optimization at the service of statistics in exponential families: improving upon an algorithm to learn GLM, characterizing the adaptation speed of causal models, and estimating the learning speed of ubiquitous models.
By tying together optimization and statistics, this thesis is taking a step towards a better understanding of the fundamentals of machine learning.
|
632 |
Predicting stock market trends using time-series classification with dynamic neural networksMocanu, Remus 09 1900 (has links)
L’objectif de cette recherche était d’évaluer l’efficacité du paramètre de classification pour prédire suivre les tendances boursières. Les méthodes traditionnelles basées sur la prévision, qui ciblent l’immédiat pas de temps suivant, rencontrent souvent des défis dus à des données non stationnaires, compromettant le modèle précision et stabilité. En revanche, notre approche de classification prédit une évolution plus large du cours des actions avec des mouvements sur plusieurs pas de temps, visant à réduire la non-stationnarité des données. Notre ensemble de données, dérivé de diverses actions du NASDAQ-100 et éclairé par plusieurs indicateurs techniques, a utilisé un mélange d'experts composé d'un mécanisme de déclenchement souple et d'une architecture basée sur les transformateurs. Bien que la méthode principale de cette expérience ne se soit pas révélée être aussi réussie que nous l'avions espéré et vu initialement, la méthodologie avait la capacité de dépasser toutes les lignes de base en termes de performance dans certains cas à quelques époques, en démontrant le niveau le plus bas taux de fausses découvertes tout en ayant un taux de rappel acceptable qui n'est pas zéro. Compte tenu de ces résultats, notre approche encourage non seulement la poursuite des recherches dans cette direction, dans lesquelles un ajustement plus précis du modèle peut être mis en œuvre, mais offre également aux personnes qui investissent avec l'aide de l'apprenstissage automatique un outil différent pour prédire les tendances boursières, en utilisant un cadre de classification et un problème défini différemment de la norme. Il est toutefois important de noter que notre étude est basée sur les données du NASDAQ-100, ce qui limite notre l’applicabilité immédiate du modèle à d’autres marchés boursiers ou à des conditions économiques variables. Les recherches futures pourraient améliorer la performance en intégrant les fondamentaux des entreprises et effectuer une analyse du sentiment sur l'actualité liée aux actions, car notre travail actuel considère uniquement indicateurs techniques et caractéristiques numériques spécifiques aux actions. / The objective of this research was to evaluate the classification setting's efficacy in predicting stock market trends. Traditional forecasting-based methods, which target the immediate next time step, often encounter challenges due to non-stationary data, compromising model accuracy and stability. In contrast, our classification approach predicts broader stock price movements over multiple time steps, aiming to reduce data non-stationarity. Our dataset, derived from various NASDAQ-100 stocks and informed by multiple technical indicators, utilized a Mixture of Experts composed of a soft gating mechanism and a transformer-based architecture. Although the main method of this experiment did not prove to be as successful as we had hoped and seen initially, the methodology had the capability in surpassing all baselines in certain instances at a few epochs, demonstrating the lowest false discovery rate while still having an acceptable recall rate. Given these results, our approach not only encourages further research in this direction, in which further fine-tuning of the model can be implemented, but also offers traders a different tool for predicting stock market trends, using a classification setting and a differently defined problem. It's important to note, however, that our study is based on NASDAQ-100 data, limiting our model's immediate applicability to other stock markets or varying economic conditions. Future research could enhance performance by integrating company fundamentals and conducting sentiment analysis on stock-related news, as our current work solely considers technical indicators and stock-specific numerical features.
|
633 |
Amélioration de la justesse des modèles d’hygiène du travail utilisés pour estimer les expositions professionnelles aux vapeurs de solvantsAbattan, Spéro Franck Aimé 09 1900 (has links)
Contexte :
Les modèles physico-chimiques sont de plus en plus utilisés en hygiène du travail pour estimer l’exposition aux contaminants chimiques de l’air. Ils prédisent l’exposition à l’aide d’équations mathématiques qui relient les caractéristiques de l'émission des contaminants et leur dispersion dans l'air aux concentrations qui en résultent. La mise en œuvre de ces modèles est rapide, moins coûteuse que l’échantillonnage de l’air, et particulièrement indiquée pour les évaluations d'expositions passées et/ou futures. Les estimations de ces modèles, quoique généralement satisfaisantes, peuvent être, dans certains cas, biaisées du fait des incertitudes associées à l’estimation des paramètres d'entrée, notamment, le taux d'émission des contaminants, qui peut être particulièrement difficile à estimer.
Objectifs :
L’objectif principal de cette thèse était de proposer des améliorations aux modèles physico-chimiques utilisés en hygiène du travail afin de permettre des estimations plus fiables des concentrations de solvants dans l’air des milieux de travail. Trois objectifs spécifiques étaient définis pour l’étude : (1) effectuer une revue critique de la littérature existante sur le modèle à deux compartiments ; (2) améliorer l’estimation du taux d’émission des contaminants en situations de petits déversements de solvants organiques purs ou de mélanges idéaux de solvants ; (3) améliorer l’estimation du taux d’émission des contaminants en situations de petits déversements de mélanges non-idéaux de solvants organiques.
Méthodes :
Pour le premier objectif, une revue documentaire des publications scientifiques ayant utilisé le modèle à deux compartiments pour évaluer l'exposition aux vapeurs de solvants a été effectuée. Les données d’exposition (scénarios, solvants, conditions d’études), de modélisation (paramètres d’entrée, résultats) et d’évaluation des performances prédictives du modèle ont été compilées et analysées afin d’identifier les forces et les facteurs potentiels d’amélioration du modèle.
Pour le deuxième objectif, trois équations d’estimation des constantes de taux d'évaporation de contaminants alphas (α) ont été développées, en se basant sur des modèles de régression statistiques mettant en relation des alphas expérimentaux mesurés pour cinq solvants purs lors de 183 tests d’évaporation simulant des petits déversements de solvants, et divers déterminants de alpha étudiés. La capacité prédictive des trois équations a été évaluée en comparant les alphas estimés avec des données expérimentales internes et externes à l’étude.
Pour le troisième objectif, deux équations dérivées de la Loi de Raoult ont été proposées pour estimer les constantes de taux d'évaporation alphas lors de petits déversements de 12 mélanges aqueux binaires non-idéaux de solvants, en corrigeant ou non, pour la non-idéalité des mélanges. Les concentrations atmosphériques de contaminants, corrigées ou non, ont été prédites à l’aide d’un modèle de petit déversement proposé par le logiciel IHMOD. La qualité des estimations du modèle a été évaluée en comparant, graphiquement et numériquement, les concentrations prédites corrigées ou non, avec des mesures de concentrations réelles.
Résultats :
Pour le premier objectif, la revue de littérature a démontré l’efficacité du modèle à deux compartiments pour l’évaluation des expositions chimiques sur la base de ses performances de prédiction qui étaient globalement dans un facteur de 0,3 à 3,7 fois les concentrations réelles avec 93 % des valeurs comprises entre 0,5 et 2. Le modèle surestimait les concentrations réelles dans 63 % des évaluations, ce qui témoigne de son utilité à faire prendre, généralement, des décisions conservatrices au profit des travailleurs. L’estimation adéquate des paramètres d’entrée, notamment, du taux d’émission des contaminants, et l’inclusion d’autres facteurs influents tels que la géométrie de la source d’émission, le type et la position du système de ventilation, la présence et l’orientation du travailleur dans une pièce, ont été identifiés parmi les points majeurs d’amélioration du modèle.
Pour le deuxième objectif, les alphas expérimentaux mesurés pour les cinq solvants purs variaient entre 0,002 et 0,448 min-1 avec une moyenne de 0,076 min-1. Les principaux déterminants de alpha identifiés étaient la pression de vapeur du solvant, le volume de solvant déversé, la surface de déversement, le ratio de surface de déversement/volume de déversement, la vitesse d’air au-dessus du déversement et la forme du récipient de déversement. Les trois équations développées dans notre étude ont prédit les alphas expérimentaux externes avec un degré élevé d'exactitude et de précision. Les pourcentages moyens d'erreur étaient de –32,9, –32,0 et –25,5 %, respectivement, avec des écarts-types associés aux pourcentages moyens d'erreur de 17,7, 33,3 et 26,0 %, respectivement, et des R2 de 0,92, 0,65 et 0,87, respectivement.
Pour le troisième objectif, concernant l’évaluation des mélanges de solvants, les alphas estimés corrigés pour la non-idéalité des mélanges (médiane = 0,0318 min-1) étaient supérieurs à ceux non corrigés (médiane = 0,00632 min-1). Les concentrations modélisées en utilisant les alphas corrigés concordaient raisonnablement avec les concentrations mesurées, avec un ratio médian des concentrations maximales prédites/mesurées de 0,92 (0,81 à 1,32) et une différence médiane entre les temps d’atteinte des concentrations maximales prédites et mesurées de –5 min. Sans correction pour la non-idéalité, le ratio médian des concentrations maximales prédites/mesurées était de 0,31 (0,08 à 0,75) et la différence médiane entre les temps d’atteinte des concentrations maximales prédites et mesurées était de +33 min, ce qui démontre l’importance de considérer la non-idéalité des mélanges lors du processus d’estimation des expositions aux mélanges non-idéaux de solvants.
Conclusion :
Cette thèse a permis de développer une base de données de scénarios d'exposition et de valeurs des paramètres d'entrée du modèle à deux compartiments, de même que, des équations pratiques et performantes pour estimer des taux d’émission de contaminants en situations de petits déversements de solvants purs ou de mélanges de solvants. En cela, nos résultats constituent un renforcement quantitatif et qualitatif des outils de modélisation existants et une avancée dans l'amélioration des modèles physico-chimiques utilisés en hygiène du travail pour estimer les expositions chimiques. / Context :
Physico-chemical models are increasingly used in occupational hygiene to estimate airborne contaminant concentrations. They predict exposure concentrations through mathematical equations that relate the characteristics of the contaminants’ mass emission and their dispersion in the air to the resulting concentrations. These models are quick to use, low cost, and exclusively indicated for past and/or future exposure assessments. Their estimates have been shown to be, generally, in a good agreement with actual air contaminant concentrations. But, sometimes, these models’ outcomes can be substantially biased due to the uncertainty associated with the estimation of the input parameters, notably, the contaminant mass emission rate, which can be particularly challenging to estimate.
Objectives :
The main objective of this thesis was to propose some improvements to the physico-chemical models used in occupational hygiene in order to allow for more reliable estimates of solvents’ concentrations in the air of the workplaces. Three specific objectives were defined for the study : (1) to perform a critical review of the existing literature on the two-zone model; (2) to improve the estimation of the contaminants’ mass emission rate in exposure scenarios involving small spills of pure organic solvents or ideal solvent mixtures; (3) to improve the estimation of the contaminants’ mass emission rate in exposure scenarios involving small spills of non-ideal organic solvent mixtures.
Methods :
For the first objective, a literature review based on scientific publications that used the two-zone model to assess exposures to solvent vapours was performed. Data on the exposures (scenarios, solvents, study conditions), the modeling processes (input parameters, results) and on the predictive performance of the model were compiled and analyzed to identify the strengths and the potential areas for the improvement of the model.
For the second objective, three equations for estimating the contaminants evaporation rate constants alphas (α) were developed, based on statistical regression models, relating experimental alphas measured for five pure organic solvents during 183 evaporation tests simulating small spills of solvents, and various determinants of alpha. The predictive ability of the three equations was assessed by comparing the estimated alphas with both internal and external experimental measured alphas.
For the third objective, two equations derived from Raoult's Law were proposed to estimate the contaminants evaporation rate constants alphas during small spills of 12 non-ideal binary aqueous mixtures, correcting or not for the non-ideality of the mixtures. Corrected and non-corrected air contaminants concentrations were predicted using a small spill model proposed by the IHMOD modeling tool. The quality of the model estimates was assessed by comparing, graphically and numerically, the corrected and non-corrected predicted contaminants concentrations to measured contaminants concentrations.
Results :
For the first objective, the literature review demonstrated the effectiveness of the two-zone model for assessing chemical exposures based on its predictive performance which was globally within a factor of 0.3 to 3.7 times the actual concentrations, with 93 % of the values being between 0.5 and 2. The model overestimated the actual concentrations in 63 % of the evaluations, which underlines the usefulness of the model for, generally, leading to make conservative decisions that would be beneficial to the workers. The adequate estimation of input parameters, notably, the contaminant mass emission rate, and inclusion of other influential factors such as the geometry of the emission source, the type and position of the ventilation system, the presence and orientation of a worker in a room were the major avenues identified for the improvement of the model.
For the second objective, the measured experimental alpha values varied from 0.002 to 0.448 min-1 with an average value of 0.076 min-1. The main determinants identified for alpha were the vapor pressure of the solvent, the spill volume, the spill surface area, the spill surface area-to-spill volume ratio, the air speed above the spill, and the shape of the spill container. The three equations developed in our study predicted the external experimental alphas with a high degree of accuracy and precision. The mean percentages of error were –32.9, –32.0 and –25.5 %, respectively, with associated standard deviations of the percentages of error of 17.7, 33.3 and 26.0 %, respectively, and associated R2 of 0.92, 0.65 and 0.87, respectively.
For the third objective, regarding the evaluations of the solvent mixtures, the estimated alpha values which were corrected for the non-ideality of the mixtures (median = 0.0318 min-1) were higher than those which were not corrected (median = 0.00632 min-1). Modeled concentrations using the corrected alphas reasonably agreed with measured concentrations, with a median predicted peak concentrations-to-measured peak concentrations ratio of 0.92 (0.81 to 1.32) and a median difference between the predicted and the measured peak times of –5 min. Without correction for non-ideality, the median predicted peak concentrations-to-measured peak concentrations ratio was 0.31 (0.08 to 0.75) and the median difference between the predicted and the measured peak times was +33 min, which demonstrates the importance of accounting for the non-ideality effect during the process of estimating exposures related to non-ideal solvent mixtures.
Conclusion :
In this thesis, we developed a database of exposure scenarios and values for the input parameters of the two-zone model, as well as, new practical and efficiently robust equations for estimating contaminants’ mass emission rates in exposure scenarios involving small spills of pure and mixed volatile liquids. Our results constitute a quantitative and qualitative reinforcement of the existing modeling tools and a step further in the improvement of the physico-chemical models used in occupational hygiene to estimate chemical exposure levels.
|
634 |
Metapopulation dynamics of dengue epidemics in French Polynesia / Dynamique métapopulationelle des épidémies de dengue en Polynésie françaiseTeissier, Yoann 22 May 2017 (has links)
La dengue circule en Polynésie française sur un mode épidémique depuis plus de 35 ans. Néanmoins, en dépit de la taille relativement faible de la population de Polynésie française, la circulation de la dengue peut persister à de faibles niveaux pendant de nombreuses années. L’objectif de ce travail de thèse est de déterminer si l'épidémiologie de la dengue dans le système insulaire de la Polynésie française répond aux critères d’un contexte de métapopulation. Après avoir constitué une base de données regroupant les cas de dengue répertoriés sur les 35 dernières années, nous avons réalisé des analyses épidémiologiques descriptives et statistiques. Celles-ci ont révélé des disparités spatio-temporelles distinctes pour l’incidence de la dengue des archipels et des îles, mais la structure de l'épidémie globale à l’échelle de la Polynésie française pour un même sérotype ne semble pas être affectée. Les analyses de la métapopulation ont révélé l'incidence asynchrone de la dengue dans un grand nombre d’îles. Celle-ci s’observe plus particulièrement par la différence de dynamique de l’incidence entre les îles plus peuplées et celles ayant une population plus faible. La taille critique de la communauté nécessaire à la persistance de la dengue n’est même pas atteinte par la plus grande île de Polynésie Française, Tahiti. Ce résultat suggère que la dengue peut uniquement persister grâce à sa propagation d’île en île. L'incorporation de la connectivité des îles à travers des modèles de migration humaine dans un modèle mathématique a produit une dynamique de la dengue davantage en adéquation avec les données observées, que les tentatives de modélisation traitant la population dans son ensemble. Le modèle de la métapopulation a été capable de simuler la même dynamique que les cas de dengue observés pour l'épidémie et la transmission endémique qui a suivi pour la période de 2001 à 2008. Des analyses complémentaires sur la différenciation de l'incidence de la maladie et de l'infection seront probablement instructives pour affiner le modèle de métapopulation de l'épidémiologie de la dengue en Polynésie française. / Dengue has been epidemic in French Polynesia for the past 35 years. Despite the relatively small population size in French Polynesia, dengue does not disappear and can persist at low levels for many years. In light of the large number of islands comprising French Polynesia, this thesis addresses the extent to which a metapopulation context may be the most appropriate to describe the epidemiology and persistence of dengue in this case. After compiling a database of dengue cases over the last 35 years, we used a number of descriptive and statistical epidemiological analyses that revealed distinct spatio-temporal disparity in dengue incidence for archipelago and islands. But the global structure of the epidemics of the same serotype were not affected. Metapopulation analyses revealed asynchronous dengue incidence among many of the islands and most notably larger islands lagged behind the smaller islands. The critical community size, which determines dengue persistence, was found to exceed even the largest island of Tahiti, suggesting that dengue can only exist by island-hopping. Incorporation of island connectedness through patterns of human migration into a mathematical model enabled a much better fit to the observed data than treating the population as a whole. The metapopulation model was able to capture to some extent the epidemic and low level transmission dynamics observed for the period of 2001-2008. Further analyses on differentiating incidence of disease and infection will likely prove informative for the metapopulation model of dengue epidemiology in French Polynesia.
|
635 |
Effet des conditions aux limites et analyse multi-échelles en mécanique des fluides, chromatographie et électromagnétismeGisclon, Marguerite 07 December 2007 (has links) (PDF)
Ce texte de synthèse a pour but de présenter l'´évolution de mes recherches postèrieures à ma thèse. Ce travail s'articule autour de plusieurs axes de recherche dans le cadre des équations aux dérivées partielles non linéaires et en particulier des lois de conservation.<br />Il s'inscrit dans l'étude des problèmes hyperboliques, des problème mixtes et des équations cinétiques. Les domaines d'application sont la mécanique des fluides ou du solide, la propagation de composants chimiques, l'électromagnétisme, l'optique.<br />Mon activité concerne d'abord la modélisation de phénomènes physiques ou chimiques sous forme d'équations aux dérivées partielles non linéaires telles que les équations de Bloch, Korteweg, Navier-Stokes, Saint-Venant, puis vient l'étude mathématique de ces équations à travers les<br />problèmes d'existence, d'unicité, de régularité avec éventuellement la mise au point de méthodes numériques de résolution.<br /> Ce document est divisé en une introduction générale et trois chapitres qui concernent respectivement les systèmes hyperboliques avec conditions aux limites et la chromatographie, les problèmes d'analyse asymptotique et enfin les méthodes cinétiques.<br />Dans chaque partie, un historique et une présentation des différents résultats mathématiques sont faits et quelques problèmes ouverts sont donnés.
|
636 |
Problèmes d'économétrie en macroéconomie et en finance : mesures de causalité, asymétrie de la volatilité et risque financierTaamouti, Abderrahim January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
637 |
Improving photofermentative hydrogen production through metabolic engineering and DOE (Design of Experiments)Liu, Yuan 03 1900 (has links)
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences.
Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus.
Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats.
Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible. / Currently, renewable and environmentally friendly biofuels are under intensive study due to increasing health concerns and diminishing fossil fuels. H2 is one of the most promising candidates due to its unique characteristics, such as a high energy density and low to non-existent generation of pollutants. One attractive way to produce H2 is through photosynthetic bacteria which can capture light energy to drive H2 production with their nitrogenase system. The major aim of this study was to improve H2 yield of the purple non-sulfur photosynthetic bacteria using a combination of metabolic engineering and design of experiments.
One hypothesis was that H2 yield could be improved by redirection of Calvin-Benson-Bassham cycle flux to the nitrogenase system which catalyzes the reduction of protons to H2. Thus, a PRK, phosphoribulose kinase, knock out mutant of Rhodobacter capsulatus JP91 was created. Analysis of growth with different carbon sources showed that this mutant could only grow in acetate medium without, however, producing any H2. A spontaneous mutant, YL1, was recovered which retained the original cbbP (encoding PRK) mutation, but which had gained the ability to grow on glucose and produce H2. A study of H2 production under different illumination levels showed that the yield of YL1 was 20-40% greater than the wild type JP91 strain. However, there was no appreciable improvement of the H2 production rate. A kinetic study showed that growth and hydrogen production are strongly linked with electrons from glucose being mostly directed to H2 production and biomass formation. Under low to intermediate light intensities, the production of organic acids was significant, suggesting further improvement of H2 yield is possible by process optimization.
In a related series of experiments, another spontaneous mutant, YL2, which has a similar phenotype to YL1, was tested for growth in ammonium-containing media. The results showed that YL2 could only grow with acetate as carbon source, again, without producing any H2. Prolonged incubation in media not supporting growth of YL2 enabled the isolation of two interesting secondary spontaneous mutants, YL3 and YL4. Western blot analysis showed that both strains had constitutive nitrogenase expression under a range of ammonium concentrations. The genomes of YL2, YL3 and YL4 were sequenced in order to find the mutations responsible for this phenomenon. Interestingly, mutations of nifA1 and nifA2 were found in both YL3 and YL4. It is likely that a conformational change of NifA alters the protein-protein interaction between NifA and PII proteins (such as GlnB or GlnK), enabling it to escape regulation by ammonium and thus to be capable of activating nitrogenase transcription in the presence of ammonium. It is not clear how the synthesized nitrogenase is able to maintain its activity since in theory it should also be subject to posttranslational regulation by ammonium. Further evidence could be obtained by studying the transcriptome of YL3 and YL4. An initial study of H2 production by YL3 and YL4 showed that they are capable of much greater hydrogen production than JP91 in ammonium medium, which opens the door for future studies with these strains using ammonium-containing wastes as substrates.
Finally, the biological reformation of ethanol to H2 with the photosynthetic bacterium, Rhodopseudomonas palustris CGA009 was examined. Ethanol production with microbial fermentation using renewable resources has been treated as a mature technique. However, most studies of the reformation of ethanol to H2 have focused on chemical steam reforming, which usually requires a high energy input and results in toxic gas emission. Thus biological reformation of ethanol to H2 with photosynthetic bacteria, which can capture light to meet the energy requirement of this reaction, seems to be more promising. A previous study had demonstrated hydrogen production from ethanol, however, the yield or the duration of this reaction were not examined. A RSM (response surface methodology) analysis was carried out in which three key factors, light intensity, ethanol and glutamate concentrations were varied. Our results showed that nearly 2 moles of H2 could be obtained from one mole of ethanol, 33% of what is theoretically possible.
|
638 |
Marchés des matières premières agricoles et dynamique des cours : un réexamen par la financiarisation / Agricultural commodities markets and dynamics of prices : a review by financializationFam, Papa Gueye 29 November 2016 (has links)
Face à l’instabilité des cours agricoles et à ses conséquences notamment pour les pays en développement, la première partie de cette thèse est consacrée à la présentation des déterminants des cours des matières premières alimentaires, incluant les évolutions récentes en matière d’offre, en tenant compte des conséquences du réchauffement climatique, et de demande, considérant notamment les biocarburants. Il est également question de présenter la financiarisation en cours des économies, et les doutes qui planent sur le rôle que peuvent avoir la spéculation sur les marchés à terme ou encore la mise en œuvre des politiques monétaires, sur les cours au comptant observés sur les marchés physiques des produits agricoles. Suite aux réflexions et éléments de littérature avancés, la seconde partie procède de deux études empiriques. La première est axée sur l’impact de la spéculation sur les marchés financiers à terme sur le cours des sous-jacents (agricoles), alors que la seconde questionne le rôle des marchés monétaires, abordé à travers la capacité du banquier central à stabiliser les taux d’intérêt à court terme. Sur cette base, des conclusions mais également des pistes de recherche sont établies, du fait du prolongement en cours du processus de financiarisation des économies. / Faced with instability of agricultural commodities’ prices and its consequences especially for developing countries, the first part of this thesis is devoted to the presentation of food commodities’ prices, including recent developments with respect to the offering, taking into account the consequences of global warming and demand, as well as the importance of biofuels. It is also question to present the financialization of economies, and the doubts that take over the role of speculation on the futures markets or the implementation of monetary policies, on the spot prices observed on physical agricultural commodities markets. Following the advanced literature reflections and elements, the second part proceeds of two empirical studies, the first one focused on the impact of speculation about the financial futures markets on the underlying asset’s price (agricultural), while the second one examines the role of money markets through the capacities of the central banker to stabilize short-term interest rates. On this basis, conclusions but also future research are established due to the continuation of the economies financialization process.
|
639 |
Organisation des systèmes de retraite et modélisation des fonds de pensionTalfi, Mohamed 23 November 2007 (has links) (PDF)
Des nombreux aspects des fonds de pension, nous nous intéressons ici à leur modélisation et à l'organisation des systèmes de retraites dans le monde. Dans une première partie, nous présentons les différentes organisations de systèmes de retraites et la modélisation des fonds de pension en général suivie de la modélisation dynamique discrète avec la modélisation statique comme cas particulier de la discrète. Ainsi, nous constatons que les différents systèmes de retraites sont caractérisés par une grande diversité, mais restent néanmoins regroupés sous trois grands groupes qui se croisent souvent. Ce sont : les retraites par répartition, les retraites par capitalisation et les retraites par subvention. Nous introduisons la modélisation des systèmes de retraites par capitalisation en commençant par donner une vision générale incorporant une typologie des risques de fonds de pension. Nous présentons ensuite les méthodes pratiques et courantes de la modélisation en temps discret. La deuxième partie de la thèse accueille les développements de la modélisation en temps continu. Dans une économie dynamique et un marché non nécessairement complet, avec une expression stochastique des évolutions de l'inflation et des prix, nous usons du zéro-coupon nominal et du zéro-coupon indexé sur les prix de la consommation. Grâce aux outils et principes des assurances, des valeurs actuarielles des flux continus de cotisations et pensions sont fournies. Tout en faisant le lien avec les résultats issus de la littérature, nous appuyons, aussi bien en première partie qu'en deuxième, les portefeuilles optimaux de fonds de pension avec leurs probabilités de ruine, par des illustrations à travers des exemples concrets et des simulations numériques.
|
640 |
Breast Reconstruction Post-Mastectomy : an Assessment of Rates, Limiting Factors and Attitudes at a Tertiary Care Center in QuebecKarunanayake, Mihiran 07 1900 (has links)
La reconstruction mammaire post-mastectomie améliore le bien-être psychosocial, et l’image corporelle des patientes. Parcontre, la reconstruction mammaire demeure faiblement utilisée et même inaccessible à des patients dû à des facteurs limitants. Les taux de reconstruction et les facteurs qui influencent l’accès à la reconstruction n’ont pas été évalués dans la province du Québec.
Avec une revue de dossier rétrospective, l’objectif de notre étude est d’identifier les taux de reconstruction mammaire dans un centre tertiaire à Montréal et les facteurs qui influencent l’accès à la reconstruction, avec un revu de dossier rétrospective. Ensuite, nous avons évaluer directement dans la même cohorte de patientes, leur désire d’avoir une consultation en chirurgie plastique pour discuter d’une reconstruction.
Il y avait un taux total de reconstruction mammaire post-mastectomie de 21%, dont 14% était immédiat et 8% tardif. Les patientes qui ont eu une reconstruction étaient plus jeunes, plus de tendance à avoir une plus grande proportion de mastectomie bilatérale, avaient des cancers non-invasifs et habitaient plus loin de l’hôpital (>10km). Environ la moitié des patientes avec une mastectomie sont intéresser à avoir une consultation avec un chirurgien plasticien mais seulement 38% ont eu une reconstruction. Les chances d’avoir subi une reconstruction, augmentent lorsqu’une reconstruction est offerte et expliquée.
Présentement, il existe des barrières autres que les désires de la patiente qui empêchent l’accès à la reconstruction mammaire post-mastectomie. / Breast reconstruction post-mastectomy has been shown to improve psychosocial wellbeing, and body image. However, accessibility and acceptance of breast reconstruction is limited, with patients being unequally privileged based a number of limiting factors. To date, no evaluation on the rates of reconstruction and the factors that influence patient access has been
performed in the province of Quebec.
The objective of the research was two-fold with the first component being to identify the rates of breast reconstruction at a tertiary care center in Montreal and the factors influencing the rates of reconstruction through a retrospective chart review. The second component was to directly evaluate in the same cohort of breast cancer patients; their interest in a consultation
with plastic surgery through a telephone questionnaire.
There was a total rate of PMBR of 21%, where 14% of patients had an immediate reconstruction and 8% of eligible patients underwent a delayed reconstruction. Patients that received a PMBR were younger, more likely to have bilateral mastectomies, had non-invasive breast cancer and resided further then 10km from the hospital. Approximately half of patients with a mastectomy were interested in consulting a plastic surgeon but only 38% of all patients underwent a reconstruction. The offer and awareness of reconstruction increased the chance of opting to have a reconstruction.
There are barriers outside of the patient’s own desires that impede their access to breast reconstruction.
|
Page generated in 0.0412 seconds