• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Procédés de traitement biologiques in situ : la modélisation numérique comme outil d'aide à la décision / Biological treatment processes in situ : Numerical modelling as decision support tool

Verardo, Elicia 22 March 2016 (has links)
La bio-remédiation in situ est une technique de réhabilitation couramment utilisée pour le traitement des sols et des nappes contaminés, notamment par les hydrocarbures pétroliers. Si démontrer la pertinence de ce type de traitement constitue un préalable incontournable pour chacun des sites où il est mis en œuvre, l’efficacité du traitement dépend de ses conditions de mise en œuvre dans le contexte spécifique d’un site. Le suivi et le contrôle des différents processus qui gouvernent les phénomènes de biodégradation est complexe, et leur optimisation constitue un élément clé de la réussite du traitement tant au plan technique qu’économique. La démarche générale du travail de thèse porte sur le développement d’une méthodologie permettant d’employer la modélisation dans une démarche de gestion (au sens des textes de 2007) d’un site contaminé par des hydrocarbures pétroliers traité par biodégradation in situ. L’originalité du travail de thèse porte sur l’utilisation de la modélisation comme outil de compréhension des mécanismes et d’aide à la décision à chaque étape du traitement : (i) Dimensionnement de l’installation : définir la meilleure option envisageable, (ii) suivi de l’efficacité du traitement : optimiser le procédé et (iii) prédiction et justification de l’arrêt du traitement : sécuriser en termes de garantie de résultat. Les données d’un site d’étude servent de support dans la définition de l’approche méthodologique de modélisation. A chaque étape d’un projet de bio-remédiation in situ peut être associée une étape de modélisation qui fera appel à des moyens plus ou moins sophistiqués avec des exigences de précision variables. Le premier outil développé concerne l’estimation des incertitudes prédictives dans les modèles mis en œuvre. Cet aspect est fondamental, dès lors que l’on souhaite utiliser la modélisation dans un processus d’aide à la décision. Les processus de bio-remédiation in situ impliquent des relations complexes et incertaines entre la biomasse, les contaminants et les mesures de contrôle appropriées. Prévoir la performance du traitement (en termes de réduction du flux et/ou de la masse) constitue un défi en raison des incertitudes liées aux propriétés du milieu, de la source et aux incertitudes liées aux mécanismes de bio-remédiation. L’étude de la contribution des incertitudes paramétriques dans la prédiction de la performance du traitement est réalisée avec la méthode du « Null Space Monte Carlo » (NSMC) implémentée dans l’outil PEST. Le second outil utilisé concerne l’optimisation du design et/ou du monitoring d’un procédé de bio-traitement in situ. Dans ce contexte, deux objectifs peuvent être envisagés à savoir la réduction du flux de contaminants d’une part, et l’élimination de la masse à la zone source d’autre part. L’outil utilisé est un algorithme d’optimisation mathématique dénommé “Particle Swarm Optimisation” (PSO). Le choix de la fonction objectif à optimiser est particulièrement important et s’avère lié au comportement spécifique hydrogéochimique du site considéré. Cette étude montre que les outils NSMC et PSO s’avèrent appropriés dans l'utilisation de modèles de transport réactif dans la gestion environnementale. Les temps de calcul de ces modèles hautement paramétrés et non linéaires limitent encore l'utilisation de la modélisation comme outil d’aide à la décision. Malgré ces limites, l’approche proposée pour gérer la bio-remédiation in situ des eaux souterraines sur site réel peut être efficace pour fournir un soutien dans la gestion du traitement d’une pollution, étendant ainsi le domaine d’application de la modélisation numérique. Cette approche permet aussi de mettre en évidence des difficultés dues aux spécificités du site ou à la technique même de traitement choisie, permettant d’alerter à temps les gestionnaires. / In-situ bioremediation is a commonly used remediation technology to clean up the subsurface of petroleum-contaminated sites. Although demonstrating the relevance of this type of treatment is an essential prerequisite for each site where it is implemented, the effectiveness of the treatment depends on its implementation conditions in the site-specific context. The monitoring and control of different processes that govern biodegradation phenomena is complex, and optimization is a key element of successful treatment both technically and economically. The general approach of the thesis is the development of a methodology for using modelling in a management approach (as defined in the French regulatory text) of petroleum-contaminated site treated by in situ biodegradation. The work focuses on the use of modelling as a tool for understanding mechanisms and for decision support at every stage of treatment: • System design: defining the best possible option.• Monitoring the effectiveness of treatment: process optimization.• Prediction and justification of stopping treatment: analysis of the uncertainty on the treatment result. Data from two study sites are used to define the modelling methodology. At each stage of the bio-remediation project (design, conception, monitoring and optimization) may be associated a modelling stage that will be more or less sophisticated depending on accuracy requirements. The first tool developed involved predictive uncertainty analysis, which is crucial when modelling is used as a decision support tool, and can be used at the design process step or for predicting the effectiveness of treatment. The process of in-situ bioremediation involves complex and uncertain relationships among biomass, contaminants and appropriate control actions. Forecasting remedial performance (in terms of flux and mass reduction) is a challenge due to uncertainties associated with (i) the medium and source properties and (ii) the efficiency of concentration reducing mechanisms. Parametric uncertainty contributions involved in forecasting treatment performance is carried out with the “Null-Space Monte Carlo” (NSMC) method implemented in the PEST tool. The second tool relates design and / or monitoring optimization of the bio-treatment method. In this context, two purposes can be considered: the reduction of contaminants flux or mass in the source zone. The tool used is a mathematical optimization algorithm called "Particle Swarm Optimization" (PSO). The choice of the objective function to be optimized is particularly important and appears to be related to hydrogeochemical site-specific behavior. This study showed that the NSMC and PSO methods are suitable tools for an efficient use reactive transport models in environmental management. The computation time of these highly parameterized and nonlinear models still limit the use of modelling as a decision support tool. Despite these limitations, the proposed approach for managing the bioremediation in-situ groundwater on actual site can be effective to provide support in managing the treatment of pollution, extending the field of application of numerical modelling. This approach also allows to highlight difficulties due to site-specific behavior or to the treatment technique applied, and to inform decision support managers in consequence.
2

Modélisation et optimisation de la production de bio-lipides par les levures oléagineuses / Modeling and optimization of the production of lipids by oleaginous yeasts

Robles Rodriguez, Carlos Eduardo 19 October 2016 (has links)
Le but de ce travail de doctorat est de contribuer à l'optimisation de l'accumulation de lipides par les levures oléagineuses, et plus particulièrement par la levure Yarrowia lipolytica à partir du glucose, avec une stratégie d’optimisation dynamique à partir d’une commande basée sur un modèle. L’étude bibliographique permet de faire le bilan des connaissances antérieures pour identifier les différentes méthodologies existantes pour l’optimisation des procédés en structurant trois parties principales: la modélisation, la commande, et le suivi des procédés. Dans ce contexte, cinq modèles ont été proposés pour décrire l'accumulation de lipides. Le premier est un modèle non structuré basé sur des cinétiques de Monod et d’inhibition. Le deuxième s’appuie sur le modèle de Droop (quota) précédemment utilisé pour décrire l’accumulation de lipides dans les microalgues. Les trois derniers sont des modèles métaboliques dynamiques qui combinent les cinétiques avec un réseau métabolique réduit, obtenu à partir des modes élémentaires. Les cinq modèles ont été calibrés et validés en utilisant plusieurs jeux des données expérimentales. Néanmoins, un des avantages des modèles métaboliques dynamiques présentés est la possibilité de décrire les basculements métaboliques. Deux stratégies de commande multi-objective visant à maximiser la productivité des lipides et la fraction en teneur lipidique ont été proposées. Dans la première, les deux objectifs ont été pondérés par le calcul statique des fronts de Pareto, et intégrés à la stratégie de commande avec un modèle dynamique métabolique. La deuxième stratégie est basée sur des fonctions linéaires par morceaux en intégrant le modèle quota. Les simulations de la commande montrent la possibilité d’atteindre des teneurs en lipides entre 0,21 – 0,26 gLIP.gX-1 et productivités entre 0,78 – 1,02 g.(L-h)-1 en diminuant le temps de la culture à 20 h. Des capteurs logiciels ont été proposés afin de pallier le manque de capteurs en ligne en corrélant des mesures en ligne (i.e. pO2 et la base ajoutée pour le pH) par des algorithmes de types machines à vecteurs supports. La validation expérimentale des stratégies de commande est la principale perspective de ce travail. / This PhD thesis aims at optimizing lipid accumulation by oleaginous yeast, and most particularly by the yeast Yarrowia lipolytica from glucose. This optimization is addressed from a mathemantical point of view based on automatic control laws, where model-based control strategies are proposed. The bibliographic review compiles and evaluates previous works to identify the different existing methodologies to attain the optimization, which is divided in three main axes: modeling, control strategies, and monitoring. In this context, five different models are proposed to describe lipid accumulation. The first model is based on Monod and inhibition kinetics (unstructured), and the second on the Droop quota model (quota) previously used for microalgae. The last three are dynamic metabolic models that combine kinetics with metabolic models based on the stoichiometry of metabolism. These three models used a reduced metabolic network decomposed into elementary flux modes. The five models were successfully calibrated and validated with different experimental data. Nonetheless, the dynamic metabolic models presented highlighting features such as the description of metabolic shifts. Two approaches of multi-objective control strategies aiming at maximizing lipid productivity and lipid content fraction were proposed. In the first, the two objectives were weighted by static calculation of Pareto fronts, and integrated to the control strategy by dynamic optimization algorithms with a dynamic metabolic model. The second strategy used a constant weighed objective function solved by piecewise linear functions by integrating the quota model. The simulation results of the optimization attained lipid contents between 0.21 – 0.26 gLIP.gX-1 and productivities between 0.78 – 1.02 g.(L-h)-1 shortening the culture time to 20 h. Soft-sensors were developed by correlating on-line measurements (i.e. pO2 and the added base for pH) through support vector machines in order to overcome the lack of measurements. The perspective is to experimentally validate the control strategies.
3

Elaboration d’une technologie de pixels actifs à détection de trous et évaluation de son comportement en environnement ionisant / Development of a hole-based active pixel sensor and evaluation of its behavior under ionizing environment

Place, Sébastien 06 December 2012 (has links)
Les capteurs d’images CMOS connaissent une croissance rapide vers des applications à fortes valeurs ajoutées. Certains marchés en devenir, comme les applications d’imagerie médicale,sont axés sur la tenue aux rayonnements ionisants. Des solutions de durcissement par dessin existent actuellement pour limiter les effets de ces dégradations. Cependant, ces dernières peuvent contraindre assez fortement certains paramètres du pixel. Dans ce contexte, cette thèse propose une solution novatrice de durcissement aux effets d’ionisation par les procédés.Elle suggère l’utilisation de pixels intégrant une photodiode pincée à collection de trous pour limiter la dégradation du courant d’obscurité : paramètre le plus sévèrement impacté lors d’irradiations ionisantes. Cette étude est donc premièrement centrée sur la modélisation et l’étude du courant d’obscurité sur des capteurs CMOS standards aussi bien avant qu’après irradiation. Ces dernières assimilées, un démonstrateur d’un capteur intégrant des pixels de1.4 μm à détection de trous est proposé et réalisé. Les résultats en courant d’obscurité, induit par la contribution des interfaces, montrent de belles perspectives avant irradiation. Ce capteur a d’ailleurs été utilisé pour effectuer une comparaison directe sous irradiation entre un capteur à détection de trous et d’électrons à design identique. Ces essais montrent une réduction significative du courant d’obscurité aux fortes doses. Des voies d’amélioration sont proposées pour améliorer l’efficacité quantique du capteur, principal point à optimiser pour des applications aussi bien grand public que médicales. / CMOS image sensors are rapidly gaining momentum in high end applications. Some emerging markets like medical imaging applications are focused on hardening against ionizing radiation. Design solutions currently exist to mitigate the effects of these degradations. However, they may introduce additional limitations on pixel performances. In this context, this thesis proposes an innovative solution of hardening by process against ionization effects. It suggests using hole pinned photodiode pixels to mitigate the dark current degradation: one of the most severely impacted parameter during ionizing radiation. This study is first focused on the modeling and understanding of dark current variation on standard CMOS sensors before and after irradiation. Next, a sensor integrating hole-based 1.4 micron pixels is proposed and demonstrated. Dark current performances induced by interfaces contribution are promising before irradiation. A direct comparison under irradiation between hole and electron based sensors with similar design has been carried out. These experiments show a significant reduction in dark current at high doses. Ways of improvement are proposed to enhance the quantum efficiency of this sensor, the main area for improvement as well consumer as medical applications.

Page generated in 0.1146 seconds