Spelling suggestions: "subject:"3analyse dde ensibilité"" "subject:"3analyse dde extensibilité""
131 |
Vieillissement des batteries Li-ion de traction : des mécanismes vers le vieillissement accéléré / Study of the lithium ion batteries ageing : from mechanisms to accelerated ageingEdouard, Clément 13 October 2015 (has links)
En raison de leurs performances en termes de densités énergétiques et de puissance, les batteries Li-ion sont les systèmes de stockage électrique privilégiés pour les nouvelles générations de véhicules électriques. Leur modélisation est indispensable pour fournir une évaluation de leurs performances tout au long de leur durée de vie tout en limitant le nombre d'essais expérimentaux, et ceci dans le but de concevoir des configurations et des gestions optimales des packs batteries pour une application envisagée. Le but de ce travail consiste à proposer un modèle physique capable de prédire le comportement et le vieillissement de la batterie sous différentes conditions. Un modèle simplifié électrochimique et thermique capable de prédire le comportement physicochimique et le vieillissement de batteries Li-ion a été étudié. Une analyse de sensibilité a été menée sur l'ensemble des paramètres du modèle dans différentes conditions afin de mettre en évidence leurs influences sur les sorties du modèle. Sur cette base, une méthode d'identification a été proposée pour préserver une indépendance des résultats de l'identification paramétrique par rapport à la sensibilité des paramètres. Cette méthode a permis d'améliorer les prédictions de vieillissement avec des estimations très proches des résultats expérimentaux. Au-delà des gains en compréhension et prédiction, ce modèle physique ouvre de nouvelles possibilités pour établir des protocoles de vieillissement accélérés. / Due to their high power and energy densities, Li-ion batteries are the leading systems for the new generations of electric vehicles, for which an optimum cell design, management and configuration is essential. Modeling provides tools to perform complex analysis of the performance of Li-ion batteries and reduces the amount of time spent on experimental testing. The aim of our research is to propose a physics-based model that can predict battery behavior and aging under various conditions during the entire lifespan. A simplified electrochemical and thermal model that can predict both physicochemical and aging behaviors of Li-ion batteries has been studied. A sensitivity analysis of all its physical parameters has been performed in order to find out their influence on the model outputs based on simulations under various conditions. The results gave hints on whether a parameter needs particular attention when measured or identified and on the conditions under which it is the most sensitive. A specific simulation profile has been designed for parameters involved in aging equations in order to determine their sensitivity. Finally, a step-wise method has been followed to limit the influence of parameter values when identifying sorne of them. This sensitivity analysis and the subsequent step-wise identification method show very good results, such as a better fitting of the experimental data with simulated cell voltage. Beyond advanced comprehension and prediction, this physical model opens new possibilities to define accelerated aging tests.
|
132 |
Amélioration des métaheuristiques d'optimisation à l'aide de l'analyse de sensibilité / Improvement of optimization metaheuristics with sensitivity analysisLoubiere, Peio 21 November 2016 (has links)
L'optimisation difficile représente une classe de problèmes dont la résolution ne peut être obtenue par une méthode exacte en un temps polynomial.Trouver une solution en un temps raisonnable oblige à trouver un compromis quant à son exactitude.Les métaheuristiques sont une classe d'algorithmes permettant de résoudre de tels problèmes, de manière générique et efficiente (i.e. trouver une solution satisfaisante selon des critères définis: temps, erreur, etc.).Le premier chapitre de cette thèse est notamment consacré à la description de cette problématique et à l'étude détaillée de deux familles de métaheuristiques à population, les algorithmes évolutionnaires et les algorithmes d'intelligence en essaim.Afin de proposer une approche innovante dans le domaine des métaheuristiques, ce premier chapitre présente également la notion d'analyse de sensibilité.L'analyse de sensibilité permet d'évaluer l'influence des paramètres d'une fonction sur son résultat.Son étude caractérise globalement le comportement de la fonction à optimiser (linéarité, influence, corrélation, etc.) sur son espace de recherche.L'incorporation d'une méthode d'analyse de sensibilité au sein d'une métaheuristique permet d'orienter sa recherche le long des dimensions les plus prometteuses.Deux algorithmes réunissant ces notions sont proposés aux deuxième et troisième chapitres.Pour le premier algorithme, ABC-Morris, la méthode de Morris est introduite dans la métaheuristique de colonie d'abeilles artificielles (ABC).Cette inclusion est dédiée, les méthodes reposant sur deux équations similaires.Afin de généraliser l'approche, une nouvelle méthode, NN-LCC, est ensuite développée et son intégration générique est illustrée sur deux métaheuristiques, ABC avec taux de modification et évolution différentielle.L'efficacité des approches proposées est testée sur le jeu de données de la conférence CEC 2013. L'étude se réalise en deux parties: une analyse classique de la méthode vis-à-vis de plusieurs algorithmes de la littérature, puis vis-à-vis de l'algorithme d'origine en désactivant un ensemble de dimensions, provoquant une forte disparité des influences / Hard optimization stands for a class of problems which solutions cannot be found by an exact method, with a polynomial complexity.Finding the solution in an acceptable time requires compromises about its accuracy.Metaheuristics are high-level algorithms that solve these kind of problems. They are generic and efficient (i.e. they find an acceptable solution according to defined criteria such as time, error, etc.).The first chapter of this thesis is partially dedicated to the state-of-the-art of these issues, especially the study of two families of population based metaheuristics: evolutionnary algorithms and swarm intelligence based algorithms.In order to propose an innovative approach in metaheuristics research field, sensitivity analysis is presented in a second part of this chapter.Sensitivity analysis aims at evaluating arameters influence on a function response. Its study characterises globally a objective function behavior (linearity, non linearity, influence, etc.), over its search space.Including a sensitivity analysis method in a metaheuristic enhances its seach capabilities along most promising dimensions.Two algorithms, binding these two concepts, are proposed in second and third parts.In the first one, ABC-Morris, Morris method is included in artificial bee colony algorithm.This encapsulation is dedicated because of the similarity of their bare bone equations, With the aim of generalizing the approach, a new method is developped and its generic integration is illustrated on two metaheuristics.The efficiency of the two methods is tested on the CEC 2013 conference benchmark. The study contains two steps: an usual performance analysis of the method, on this benchmark, regarding several state-of-the-art algorithms and the comparison with its original version when influences are uneven deactivating a subset of dimensions
|
133 |
Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
|
134 |
Evaluation environnementale des systèmes agricoles urbains en Afrique de l'Ouest : Implications de la diversité des pratiques et de la variabilité des émissions d'azote dans l'Analyse du Cycle de Vie de la tomate au Bénin / Environmental assessment of urban agricultural systems in West Africa : Implications of the diversity of practices and the variability of nitrogen emissions for the Life Cycle Assessment of tomato from BeninPerrin, Aurélie 20 December 2013 (has links)
L’agriculture urbaine représente une opportunité de réduire la pauvreté et d’améliorer la sécurité alimentaire des habitants des villes d’Afrique de l’Ouest. L’objectif général de cette thèse est de produire des données d’inventaire représentatives ainsi qu’une évaluation environnementale robuste de ces systèmes de production par la méthodologie Analyse du Cycle de Vie (ACV). Notre cas d’étude a été la tomate des jardins urbains au Bénin. Notre état de l’art nous a permis d’identifier que prendre en compte la diversité des systèmes de production et la variabilité des émissions au champ étaient deux enjeux majeurs de l’ACV des produits maraîchers. Nous avons donc développé un protocole de collecte de données basé sur la typologie qui prend en compte la diversité des systèmes puis mis au point une méthode d’estimation des flux d’azote au champ combinant un bilan d’azote et l’usage d’un modèle biophysique. Nous avons ainsi créé des inventaires pour 6 types de systèmes et une moyenne pondérée représentative de la population étudiée. L’analyse des performances agronomiques de ces systèmes a montré une forte variabilité des rendements et une utilisation fluctuante et souvent excessive d’engrais et de pesticides. L’exploration de la variabilité des flux d’azote à l’échelle de la parcelle et du cycle de culture a permis l’identification de 4 facteurs majeurs: les volumes d’eau d’irrigation, la dose d’azote, le pH du sol et la capacité au champ. A l’aide de scénarios favorables et défavorables aux émissions pour chacun de ces 4 facteurs, nous avons montré que leurs effets sur les résultats d’ACV étaient importants. L’intégration de ces données dans une ACV finalisée a montré qu’un hectare de production de tomate au Bénin était plus impactant que les productions maraichères Européennes. Les avantages du climat favorable du sud Bénin à la production de tomate en contre saison sont annulés par les faibles performances des systèmes d’irrigation, l’usage fréquent d’insecticides et d’importantes émissions azotées. Des données mesurées et des connaissances nouvelles sont nécessaires sur ces systèmes pour valider et affiner nos conclusions. / Urban agriculture provides opportunities to reduce poverty and ensure food safety for cities inhabitants in West Africa. The general objective of this thesis is producing representative inventories and a robust environmental assessment for those production systems using the Life Cycle Assessment (LCA) methodology. Our case study was the tomato production in urban gardens in Benin. Our state of the art identified the integration of the diversity of systems and the variability of field emissions as two major challenges for the LCA of vegetable products. We therefore developed a typology-based protocol to collect cropping systems data that includes their diversity and an approach combining a nitrogen budget and the use of a biophysical model to estimate nitrogen field emissions. We created inventories for 6 cropping system types and one weighted mean representative for the urban tomato growers in Benin. The analysis of the agronomical performances of these systems highlighted the important yield variability and the variable and often excessive use of pesticides and fertilizers. The investigation of nitrogen fluxes variability at plot and crop cycle scales led to the identification of 4 major influencing factors: water use, nitrogen input, soil pH and field capacity. Using favorable and unfavorable scenarios for nitrogen emissions for each of these 4 factors, we demonstrated that the LCA results were sensitive to their variations. The implementation of LCA using those contrasted data showed that one hectare of tomato production in Benin was more impacting than European vegetable productions. The benefits from the favorable climate for producing out-of-season tomatoes were hampered by the low efficiency of irrigations systems, the frequent use of insecticides and large nitrogen emissions. Measured data and new knowledge on these systems are needed to validate and refine our conclusions.
|
135 |
Global sensitivity analysis on vibro-acoustic composite materials with parametric dependency / L'analyse de sensibilité globale sur matériaux composites vibroacoustiques avec la dépendance paramétriqueChai, Wenqi 30 November 2018 (has links)
Avec le développement rapide des modèles mathématiques et des outils de simulation, le besoin des processus de quantification des incertitudes a été bien augmenté. L'incertitude paramétrique et la groupe des nombreux décisions sont aujourd’hui les deux barrières principales dans la résolution des grandes problèmes systématiques.Capable de proportionner l'incertitude de la sortie sur celle des entrées, l’Analyse de Sensibilité Globale (GSA) est une solution fiable pour la quantification de l’incertitude. Parmi plusieurs algorithmes de GSA, Fourier Amplitude Sensitivity Analysis (FAST) est l’un des choix les plus populaires des chercheurs. Basé sur ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), il est solide en mathématique est efficace en calcul.Malheureusement, la décomposition unique d’ANOVA-HDMR se dépend sur l’indépendance des entrées. À cause de cela, il y a pas mal de cas industriels qui ne peut pas se traiter par FAST, particulièrement pour ceux qui donnent uniquement les échantillons mais sans lois de distribution. Sous cette demande, deux méthode extensifs de FAST avec design de corrélation sont proposées et étudiées dans la recherche. Parmi les deux méthodes, FAST-c s’est basé sur les distributions et FAST-orig s’est basé sur les échantillons.Comme applications et validations, multiples problèmes vibroacoustiques se sont traités dans la recherche. Les matériaux acoustiques avec soustructures, sont des candidats parfaits pour tester FAST-c et FAST-orig. Deux application sont présentées dans la première partie de la thèse, après l’état de l’arts. Les modèles choisis sont matérial poroélastique et structures composite sandwich, dont les propriétés mécaniques sont tous fortement influencées par les paramètres géométriques microscopique ou mesoscopique. D’avoir la méthode de FAST originale comparée avec les deux nouvelles, on trouve bien plus d’information sur la performance vibroacoustique de ces matériaux.Déjà répondu à la demande de GSA sur les modèles avecs les variables dépendantes, la deuxième partie de la thèse contient plus de recherches reliées avec FAST. D’abord FAST est pris en comparaison avec Random Forest, une algorithme bien connu de data-mining. Leurs erreurs potentiels et la possibilité de fonctioner ensemble sont discutés. Et dans les chapitres suivies, plus d’application de FAST sont présentées. Les méthodes sont appliquées sous plusieurs différente conditions. Une modèle de structure périodique qui contient des corrélation parmi les unités nous a en plus forcé à développer une nouvelle FAST-pe méthode. Dans ces applications, les designs des processus préliminaires et les stratégies d’échantillonages sont des essences à présenter. / With rapid development of mathematical models and simulation tools, the need of uncertainty quantification process has grown higher than ever before. Parametric uncertainties and overall decision stacks are nowadays the two main barriers in solving large scale systematic problem.Global Sensitivity Analysis (GSA) is one reliable solution for uncertainty quantification which is capable to assess the uncertainty of model output on its inputs’. Among several GSA algorithms, Fourier Amplitude Sensitivity Test (FAST) is one of the most popular choices of researchers. Based on ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), it is both mathematically solid and computationally efficient.One unfortunate fact is that the uniqueness of ANOVA-HDMR relies on the independency of input variables. It makes FAST unable to treat many industrial cases especially for those with only datasets but not distribution functions to be found. To answer the needs, two extended FAST methods with correlation design are proposed and further studied in this research. Among them FAST-c is distribution-based and FAST-orig is data-based.As a frame of validation and application, a number of vibroacoustic problems are dealt with in this research. Vibroacoustic materials with substructures, are perfect test candidates for FAST-c and FAST-orig. Two application cases are presented in the first part of this thesis, following the literature review. The models chosen here are poroelastic material and sandwich composite structures, both having their mechanical properties hugely influenced by their microscopic and mesoscopic geometric parameters. Getting the original FAST method compared to the two with correlation design, many different features on materials’ vibroacoustic performance are latter discovered.Having got an answer for GSA on models with dependent variables, the second part of this thesis contains more extended researches related to FAST. It is taken into comparison with Random Forest, a well-known data-mining algorithm. The potential error of both algorithms are analyzed and the possibility of joint application is discussed. In the following chapters, more applications of FAST-series methods are reported. They are applied under various conditions where another improved version named FAST-pe is developed to treat a model of periodic structures with correlation among each units. Upon these FAST application cases, the design of preliminary process and the sampling strategies is the core part to be introduced.
|
136 |
Modélisation de la dynamique du transfert hydrique vers les aquifières : application à la détermination de la recharge par inversion dans un système hydrogéologique complexe / Modeling of water transfer to aquifers : application to the determination of groundwater recharge by inversion in a complex hydrogeological systemHassane Mamadou Maina, Fadji Zaouna 29 September 2016 (has links)
Les eaux souterraines constituent une réserve d’eau potable non négligeable, leur alimentation se fait en majeure partie par les précipitations, appelée recharge des nappes. Du fait de leur grande importance, la compréhension du fonctionnement de ces ressources en eau est plus que jamais indispensable. Celle-ci passe par l’élaboration de modèles mathématiques. Ces outils nous offrent une meilleure appréhension et une bonne prévision des phénomènes physiques. Les systèmes hydrogéologiques sont généralement très complexes et caractérisés par des dynamiques hydriques très variables dans le temps et dans l’espace. Cette complexité a attiré l’attention de nombreux hydrogéologues et un grand nombre de modèles très sophistiqués a été développé afin de décrire ces systèmes avec précision. Cependant, la prise en compte de la recharge de ces réservoirs reste toujours un défi dans la modélisation hydrogéologique. En effet, le plus souvent, les modèles hydrogéologiques simulent l’écoulement dans la nappe tout en considérant la recharge comme une constante sur le domaine et indépendante du système. De plus, elle est souvent calculée de façon simplifiée. Or, la recharge traduisant la quantité des précipitations atteignant les nappes est une composante hydrologique complexe et variable car elle interagit avec les nappes et dépend des conditions climatiques, du couvert végétal et du transfert de l’eau dans le sol. Ce présent travail vise à intégrer cette recharge variable et complexe aux modèles hydrogéologiques. À cet effet, un modèle couplé a été développé. Une première partie de ce modèle permet de calculer la recharge des nappes en modélisant les interactions précipitations-sol et l’hydrodynamique dans le sol. Cette modélisation a été effectuée en utilisant des modèles conceptuels simples basés sur des lois empiriques (Gardénia, Nash) et des modèles physiques résolvant l’équation de Richards. La recharge ainsi calculée est intégrée à la deuxième partie du modèle simulant l’hydrodynamique dans les nappes décrite par l’équation de diffusivité. Des méthodes numériques précises et robustes ont été utilisées pour résoudre les équations du modèle mathématique : les éléments finis non conformes ont été utilisés pour résoudre l’équation de diffusivité et l’équation de Richards est résolue sous sa forme mixte par une méthode itérative en temps. En somme, ce modèle couplé permet de décrire les variations de niveaux de nappe à partir des données météorologiques connaissant les paramètres caractéristiques de cet aquifère. [...] / Groundwater is the main available water resource for many countries; they are mainly replenished by water from precipitation, called groundwater recharge. Due to its great importance, management of groundwater resources is more essential than ever, and is achieved through mathematical models which offer us a better understanding of physical phenomena as well as their prediction. Hydrogeological systems are generally complex thus characterized by a highly variable dynamic over time and space. These complexities have attracted the attention of many hydrogeologists and many sophisticated models that can handle these issues and describe these systems accurately were developed. Unfortunately, modeling groundwater recharge is still a challenge in groundwater resource management. Generally, groundwater models are used to simulate aquifers flow without a good estimation of recharge and its spatial-temporal distribution. As groundwater recharge rates show spatial-temporal variability due to climatic conditions, land use, and hydrogeological heterogeneity, these methods have limitations in dealing with these characteristics. To overcome these limitations, a coupled model which simulates flow in the unsaturated zone and recharge as well as groundwater flow was developed. The flow in the unsaturated zone is solved either with resolution of Richards equation or with empirical models while the diffusivity equation governs flow in the saturated zone. Robust numerical methods were used to solve these equations: we apply non-conforming finite element to solve the diffusivity equation and we used an accurate and efficient method for solving the Richards equation. [...]
|
137 |
Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminantsMarchand, Estelle 12 December 2007 (has links) (PDF)
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
|
138 |
Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnellesCastaings, William 24 October 2007 (has links) (PDF)
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. météorologie, océanographie ...) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données).
|
139 |
Fusion de données géoréférencées et développement de services interopérables pour l'estimation des besoins en eau à l'échelle des bassins versantsBeaufils, Mickaël 04 December 2012 (has links) (PDF)
De nos jours, la préservation de l'environnement constitue un enjeu prioritaire. La compréhension des phénomènes environnementaux passe par l'étude et la combinaison d'un nombre croissant de données hétérogènes. De nombreuses initiatives internationales (INSPIRE, GEOSS) visent à encourager le partage et l'échange de ces données. Dans ce sujet de recherche, nous traitons de l'intérêt de mettre à disposition des modèles scientifiques sur le web. Nous montrons l'intérêt d'utiliser des applications s'appuyant sur des données géoréférencées et présentons des méthodes et des moyens répondant aux exigences d'interopérabilité. Nous illustrons notre approche par l'implémentation de modèles d'estimation des besoins en eau agricoles et domestiques fonctionnant à diverses échelles spatiales et temporelles. Un prototype basé sur une architecture entièrement orientée services web a été développé. L'outil s'appuie sur les standards Web Feature Service (WFS), Sensor Observation Service (SOS) et Web Processing Service (WPS) de l'OGC. Enfin, la prise en compte des imperfections des données est également abordée avec l'intégration de méthodes d'analyse de sensibilité et de propagation de l'incertitude.
|
140 |
Prédiction des impacts pharmacocinétiques des interactions médicamenteuses impliquant des CYP3A et les glycoprotéines-P : développement de modèles physiologiques et analyse de sensibilitéFenneteau, Frédérique 11 1900 (has links)
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport.
Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone.
Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire.
Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable.
Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse. / Early knowledge of pharmacokinetic properties of a new drug candidate and good characterization of the impact of drug-drug interaction (DDI) on those properties is of crucial importance in the process of drug research and development. The main objective of this thesis consisted in the conception of PBPK models able to predict the drug disposition in the absence and presence of metabolic and transport activity modulation.
The first part of this work aimed to develop a PBPK model that incorporates the efflux function of P-gp expressed in various tissues, in order to predict the impact of P-gp activity modulation on drug distribution. This approach, based on in vivo-in vitro extrapolation for estimating the transport-related parameters, allowed the prediction of domperidone distribution in heart and brain of wild-type mice and P-gp deficient mice. The model pointed out the protective function of P-gp in brain whereas it showed the negligible protective effect of P-gp in heart.
The second part of the project aimed to perform the global sensitivity analysis of the previous PBPK model, in order to investigate how the uncertainly and variability of the correlated physiological parameters influence the outcome of the drug distribution process. While a moderate variability of the model predictions was observed, this analysis confirmed the importance for a better quantitative characterization of parameters related to the transport processes trough the blood-tissue membrane. Accounting for the input correlation allowed the delineation of the true contribution of each input to the variability of the model outcome.
The last part of the project consisted in predicting the pharmacokinetics of selected CYP3A substrates administered at a single oral dose to human, alone or with an inhibitor. Successful predictions were obtained for a single administration of the CYP3A substrates. Some deviations were observed between the predictions and in vivo plasma profiles in the presence of DDI. However, the impact of inhibition on the PK parameters of the selected substrates and the impact of grapefruit juice-mediated inhibition on the extent of intestinal pre-systemic elimination were predicted within a very acceptable error range.
Overall, this thesis demonstrated the ability of PBPK models to predict DDI with promising accuracy.
|
Page generated in 0.0872 seconds