• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 147
  • 59
  • 5
  • 1
  • Tagged with
  • 684
  • 298
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 70
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Analyse de sensibilité et réduction de dimension. Application à l'océanographie / Sensitivity analysis and model reduction : application to oceanography

Janon, Alexandre 15 November 2012 (has links)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique. / Mathematical models seldom represent perfectly the reality of studied systems, due to, for instance, uncertainties on the parameters that define the system. In the context of geophysical fluids modelling, these parameters can be, e.g., the domain geometry, the initial state, the wind stress, the friction or viscosity coefficients. Sensitivity analysis aims at measuring the impact of each input parameter uncertainty on the model solution and, more specifically, to identify the ``sensitive'' parameters (or groups of parameters). Amongst the sensitivity analysis methods, we will focus on the Sobol indices method. The numerical computation of these indices require numerical solutions of the model for a large number of parameters' instances. However, many models (such as typical geophysical fluid models) require a large amount of computational time just to perform one run. In these cases, it is impossible (or at least not practical) to perform the number of runs required to estimate Sobol indices with the required precision. This leads to the replacement of the initial model by a emph{metamodel} (also called emph{response surface} or emph{surrogate model}), which is a model that approximates the original model, while having a significantly smaller time per run, compared to the original model. This thesis focuses on the use of metamodel to compute Sobol indices. More specifically, our main topic is the quantification of the metamodeling impact, in terms of Sobol indices estimation error. We also consider a method of metamodeling which leads to an efficient and rigorous metamodel, which can be used in the geophysical context.
112

Analyse de sensibilité globale et polynômes de chaos pour l'estimation des paramètres : application aux transferts en milieu poreux / Sensitivity analysis and polynomial chaos expansion for parameter estimation : application to transfer in porous media

Fajraoui, Noura 21 January 2014 (has links)
La gestion des transferts des contaminants en milieu poreux représentent une préoccupation croissante et revêtent un intérêt particulier pour le contrôle de la pollution dans les milieux souterrains et la gestion de la ressource en eau souterraine, ou plus généralement la protection de l’environnement. Les phénomènes d’écoulement et de transport de polluants sont décrits par des lois physiques traduites sous forme d'équations algébro-différentielles qui dépendent d'un grand nombre de paramètres d'entrée. Pour la plupart, ces paramètres sont mal connus et souvent ne sont pas directement mesurables et/ou leur mesure peut être entachée d’incertitude. Ces travaux de thèse concernent l’étude de l’analyse de sensibilité globale et l’estimation des paramètres pour des problèmes d’écoulement et de transport en milieux poreux. Pour mener à bien ces travaux, la décomposition en polynômes de chaos est utilisée pour quantifier l'influence des paramètres sur la sortie des modèles numériques utilisés. Cet outil permet non seulement de calculer les indices de sensibilité de Sobol mais représente également un modèle de substitution (ou métamodèle) beaucoup plus rapide à exécuter. Cette dernière caractéristique est alors exploitée pour l'inversion des modèles à partir des données observées. Pour le problème inverse, nous privilégions l'approche Bayésienne qui offre un cadre rigoureux pour l'estimation des paramètres. Dans un second temps, nous avons développé une stratégie efficace permettant de construire des polynômes de chaos creux, où seuls les coefficients dont la contribution sur la variance du modèle est significative, sont retenus. Cette stratégie a donné des résultats très encourageants pour deux problèmes de transport réactif. La dernière partie de ce travail est consacrée au problème inverse lorsque les entrées du modèle sont des champs stochastiques gaussiens spatialement distribués. La particularité d'un tel problème est qu'il est mal posé car un champ stochastique est défini par une infinité de coefficients. La décomposition de Karhunen-Loève permet de réduire la dimension du problème et également de le régulariser. Toutefois, les résultats de l'inversion par cette méthode fournit des résultats sensibles au choix à priori de la fonction de covariance du champ. Un algorithme de réduction de la dimension basé sur un critère de sélection (critère de Schwartz) est proposé afin de rendre le problème moins sensible à ce choix. / The management of transfer of contaminants in porous media is a growing concern and is of particular interest for the control of pollution in underground environments and management of groundwater resources, or more generally the protection of the environment. The flow and transport of pollutants are modeled by physical and phenomenological laws that take the form of differential-algebraic equations. These models may depend on a large number of input parameters. Most of these parameters are well known and are often not directly observable.This work is concerned with the impact of parameter uncertainty onto model predictions. To this end, the uncertainty and sensitivity analysis is an important step in the numerical simulation, as well as inverse modeling. The first study consists in estimating the model predictive uncertainty given the parameters uncertainty and identifying the most relevant ones. The second study is concerned with the reduction of parameters uncertainty from available observations.This work concerns the study of global sensitivity analysis and parameter estimation for problems of flow and transport in porous media. To carry out this work, the polynomials chaos expansion is used to quantify the influence of the parameters on the predictions of the numerical model. This tool not only calculate Sobol' sensitivity indices but also provides a surrogate model (or metamodel) that is faster to run. This feature is then exploited for models inversion when observations are available. For the inverse problem, we focus on Bayesian approach that offers a rigorous framework for parameter estimation.In a second step, we developed an effective strategy for constructing a sparse polynomials chaos expansion, where only coefficients whose contribution to the variance of the model is significant, are retained. This strategy has produced very encouraging results for two reactive transport problems.The last part of this work is devoted to the inverse problem when the inputs of the models are spatially distributed. Such an input is then treated as stochastic fields. The peculiarity of such a problem is that it is ill-posed because a stochastic field is defined by an infinite number of coefficients. The Karhunen-Loeve reduces the dimension of the problem and also allows regularizing it. However, the inversion with this method provides results that are sensitive to the presumed covariance function. An algorithm based on the selection criterion (Schwartz criterion) is proposed to make the problem less sensitive to this choice.
113

Contribution à l'approche probabiliste de la durabilité des structures en béton soumise à la carbonatation / Probabilistic approach to the durability of concrete structures exposed to carbonation

Ngo, Viet Duc 11 September 2015 (has links)
La corrosion de l'acier par carbonatation du béton est un phénomène de dégradation majeur des structures en béton armé, qui débute par la dépassivation de l'acier due à l'abaissement du pH de la solution interstitielle. Un modèle est été développé pour estimer la profondeur de carbonatation du béton. Le modèle proposé est un approfondissement de modélisations antérieures, notamment afin de prendre en considération dans les simulations l'effet de la température, tant par l’équation de transfert que par des termes de thermo-activation venant modifier les grandeurs de diffusion de dioxyde de carbone et des ions calcium en phase liquide, la solubilité des hydrates, la viscosité de l’eau, ainsi que l’isotherme hydrique. L’objectif étant d’inscrire la modélisation dans un cadre probabiliste, et donc coûteux en terme de calculs, il a fallu réduire la dimension stochastique du problème. Une méthodologie de choix des paramètres intervenant dans le modèle, basée sur une étude de sensibilité, a été proposée. Un modèle de substitution a été construit, à partir du modèle initial, pour déterminer les grandeurs intervenant dans les expressions des états-limites de dépassivation et d’initiation de la corrosion, s’appuyant sur des développements en chaos polynomiaux.Avec une définition de la probabilité d’amorçage de la corrosion et des modèles de substitution pour la profondeur carbonatée et pour l’amplitude de la variation annuelle du taux de saturation au voisinage des armatures, l’analyse fiabiliste proprement dite a été menée, notamment par rapport à l’incidence des conditions climatiques sur la fiabilité des ouvrages en béton vis-à-vis de la durabilité. / Corrosion of the steel by concrete carbonation phenomenon is a major degradation of reinforced concrete structures, which starts with the depassivation of the steel due to the lowering of the pH of the pore solution.A model was developed to estimate the depth of carbonation of concrete. The proposed model is a deepening of previous models, particularly to be considered in the simulations the effect of temperature, both by the transfer equation in terms of thermo-activation that modify dioxide diffusion of sizes carbon and calcium ions in the liquid phase, the solubility of hydrates, the viscosity of water and the water isotherm.The aim is to include in a probabilistic modeling framework, and therefore costly in terms of calculations, it was necessary to reduce the stochastic dimension of the problem. A methodology for the selection of parameters involved in the model, based on a sensitivity analysis, was proposed. An alternative model was built, from the original model, to determine the quantities involved in the expressions of borderline depassivation and corrosion initiation, based on developments in polynomial chaos.With a definition of the boot likelihood of corrosion and substitution patterns for carbonated depth and the amplitude of the annual variation in the degree of saturation in the vicinity of frames, reliability engineer the actual analysis was conducted, including compared to the impact of weather on the reliability of the fabricated vis-à-vis sustainability concrete.
114

Impact de la variabilité des données météorologiques sur une maison basse consommation. Application des analyses de sensibilité pour les entrées temporelles. / Impact of the variability of weather data on a low energy house. Application of sensitivity analysis for correlated temporal inputs.

Goffart, Jeanne 12 December 2013 (has links)
Ce travail de thèse s'inscrit dans le cadre du projet ANR FIABILITE qui porte sur la fiabilité des logiciels de simulation thermique dynamique et plus particulièrement sur les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique et énergétique des bâtiments basse consommation. Les sollicitations telles que les occupants, la météo ou encore les scénarios de consommation des usages font partie des entrées les plus incertaines et potentiellement les plus influentes sur les performances d'un bâtiment basse consommation. Il est nécessaire pour pouvoir garantir des performances de déterminer les dispersions de sortie associées à la variabilité des entrées temporelles et d'en déterminer les variables responsables pour mieux réduire leur variabilité ou encore concevoir le bâtiment de manière robuste. Pour répondre à cette problématique, on se base sur les indices de sensibilité de Sobol adaptés aux modèles complexes à grandes dimensions tels que les modèles de bâtiment pour la simulation thermique dynamique. La gestion des entrées fonctionnelles étant un verrou scientifique pour les méthodes d'analyse de sensibilité standard, une méthodologie originale a été développée dans le cadre de cette thèse afin de générer des échantillons compatibles avec l'estimation de la sensibilité. Bien que la méthode soit générique aux entrées fonctionnelles, elle a été validée dans ce travail de thèse pour le cas des données météorologiques et tout particulièrement à partir des fichiers météo moyens (TMY) utilisés en simulation thermique dynamique. Les deux aspects principaux de ce travail de développement résident dans la caractérisation de la variabilité des données météorologiques et dans la génération des échantillons permettant l'estimation de la sensibilité de chaque variable météorologique sur la dispersion des performances d'un bâtiment. A travers différents cas d'application dérivés du modèle thermique d'une maison basse consommation, la dispersion et les paramètres influents relatifs à la variabilité météorologique sont estimés. Les résultats révèlent un intervalle d'incertitude sur les besoins énergétiques de l'ordre de 20% à 95% de niveau de confiance, dominé par la température extérieure et le rayonnement direct. / This thesis is part of the ANR project FIABILITE dealing with the reliability of dynamic thermal simulation softwares and particularly with the potential sources of bias and uncertainties in the field of thermal and energy modeling of low consumption buildings. The solicitations such as the occupancy schedules, the weather data or the usage scenarios are among the most uncertain and potentially most influential inputs on the performance of a low energy building. To ensure the efficiency of such buildings, we need to determine the outputs dispersion associated with the uncertainty of the temporal inputs as well as to emphasize the variables responsible for the dispersion of the output in order to design the building in a robust manner. To address this problem, we have used the sensitivity indices of Sobol adapted to complex models with high dimensions, such as building models for dynamic thermal simulations. The management of the functional inputs being a lock for the scientific methods of standard sensitivity analysis, an innovative methodology was developed in the framework of this thesis in order to generate consistent samples with the estimate of the sensitivity. Although the method can incorporate generic functional inputs, it has been validated in this thesis using meteorological data and especially the typical meteorological year (TMY files) used in dynamic thermal simulations. The two main aspects of this development work lie in the characterization of the variability of meteorological data and the generation of samples to estimate the sensitivity of each weather variable dispersion on the thermal and energy performances of a building. Through various case studies derived from the thermal model of a low-energy house, the dispersion and influential parameters for meteorological variability are estimated. Results show a large range of uncertainties in the energy requirements from about 20 % at a confidence level of 95%.
115

Recherche de la performance en simulation thermique dynamique : application à la réhabilitation des bâtiments / Performance research with thermal dynamic simulation : application for buildings rehabilitation

Rabouille, Mickael 07 November 2014 (has links)
Le secteur du bâtiment est en évolution et se doit de répondre aux problématiques environnementales actuelles aussi bien dans la construction neuve que dans la réhabilitation. La simulation thermique offre le moyen de répondre à cette problématique, mais se limite à une estimation des performances spécifiques aux paramètres qui ont été définis. Ce travail de thèse propose une méthodologie basée sur les puissances de calcul actuelles pour évaluer le comportement du bâtiment sur différentes plages de variation des entrées. Ces variations permettront, en fonction des propriétés qui leur sont attribuées, de rechercher des solutions de réhabilitation ou d'évaluer l'incertitude sur les sorties du modèle thermique. Afin de réaliser cela, des méthodes d'analyse de sensibilité performantes sont utilisées à travers un outil d'analyse spécifiquement développé pour le logiciel de simulation EnergyPlus. Cet outil permet une évaluation quasi automatique du modèle énergétique de bâtiment via : des techniques d'échantillonnage éprouvées LHS et LP-Tau, des techniques d'analyse performante pour un nombre de simulations réduit RBD-FAST et RBD-SOBOL, une gestion avancée des entrées et sorties permettant une évaluation détaillée du bâtiment, quelle que soit sa géométrie. Les techniques d'analyse de sensibilité sont employées pour proposer une vision précise des principales relations présentes au sein du modèle. Pour répondre à la contrainte du coût de calcul, la recherche de solution est réalisée à travers un méta-modèle issu d'une décomposition en polynôme de chaos. Une interface graphique utilise cette approximation du modèle complexe du bâtiment pour proposer de façon instantanée une vision claire du comportement de chaque entrée sur les sorties, ainsi que leurs tendances et les plages de variation idéales afin de choisir des solutions. Il est possible de coupler la recherche de solution à l'analyse d'incertitude afin de proposer des solutions robustes et identifier les principales raisons d'un écart entre simulation et réalité. La méthodologie des travaux de thèse encourage à l'optimisation de la compréhension du modèle plus qu'à la recherche d'une solution particulière.L'objectif de la démarche est de fournir des outils d'analyse afin d'aider l'expert dans la recherche de solution et ainsi de mettre en place des représentations graphiques qui facilitent la compréhension du système bâtiment, pour un gain en transparence et l'intégration de nombreuses contraintes de projet. / The building sector is evolving and has to meet the current environmental issues in both new construction and rehabilitation. The thermal simulation provides the mean to address this problem, but the estimated performance is limited to a specific set of parameters that have been defined. This thesis proposes a methodology based on the increased computing power to assess the building behaviour on different ranges of the inputs variation. Depending on the properties allocated to them, the changes of the variations will allow to seek solutions to restore or to assess the uncertainty in the outputs of the thermal model. To achieve this, effective sensitivity analysis methods are used across an analysis tool specifically developed for the simulation software EnergyPlus. This tool allows an almost automatic evaluation of the energy model building thanks to the proven sampling techniques such as LHS and LP-Tau; the efficient analysis techniques like RBD-FAST and RBD-SOBOL in order to reduce the number of simulations; an advanced management of the inputs and the outputs for a detailed assessment of the building regardless of its geometry. The sensitivity analysis techniques are used to provide an accurate picture of these key relationships within the model. To meet the constraints of the computational cost, the search for a solution is achieved through a metamodel from a Polynomial Chaos Expansion PCE. A GUI uses the approximation of the complex model of the building to provide instantly a clear vision of the behaviour of each entry on the outputs, their trends and their ideal ranges of variation to choose solutions. It is possible to couple the search for a solution to the uncertainty analysis to provide robust solutions and identify the main reason for the gap between simulation and reality. The methodology of the PhD work promotes the optimization of the model understanding more than looking for a specific solution. The purpose of the approach is to provide analytical tools to assist the expert in the search for a solution and so, develop graphical representations that facilitate the understanding of the building system for a gain in transparency and integration of many design constraints.
116

Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes / Stochastic methods for uncertainty treatment of functional variables in computer codes : application to safety studies

Nanty, Simon 15 October 2015 (has links)
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés. / This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications.
117

The context-aware middleware in ambient intelligence / Intergiciels sensibles au contexte en intelligence ambiante

Xu, Tao 09 December 2013 (has links)
Il y a près de 20 ans, Marc Weiser a imaginé l'ordinateur du 21ème siècle et a proposé le concept de l’informatique ubiquitaire. Une des idées principales de Weiser a récemment évolué vers un paradigme plus général connu comme la sensibilité au contexte qui est devenu un thème très important en informatique ubiquitaire. Depuis Active Badge considéré comme la première application sensible au contexte, de nombreuses tentatives pour construire des systèmes sensibles au contexte efficaces ont vu le jour. Cependant la problématique comment acquérir contexte, comment le traiter et comment créer des applications sensibles au contexte est encore aujourd’hui un défi suscitant de nombreuses recherches. Cette thèse étudie en profondeur certaines questions clés liées à la sensibilité au contexte et au développement d’intergiciels sensibles au contexte. Les principales contributions de notre recherche concernent la prise en compte du contexte spatiotemporel et sa modélisation, la conception et l’implémentation d’un intergiciel sensible au contexte et d’un moteur intelligent d'inférence de contexte. Le modèle de représentation du contexte spatiotemporel proposé vise à organiser le contexte et ses relations pour un système sensible au contexte. La méthode basée sur les ontologies est adoptée pour construire notre modèle, supportant à la fois le partage des connaissances et leur réutilisation ainsi que la déduction logique. Ce modèle adopte une structure hiérarchique à deux couches pour modéliser les situations à prendre en compte. La couche supérieure s’occupe du contexte commun générique, tandis que la couche inférieure se concentre sur les caractéristiques plus spécifiques. A la différence des modèles existants, en plus de prendre en compte l’aspect localisation, notre modèle prend également en charge la gestion d’historique des de contextes en s’appuyant sur différentes ressources. Ces historiques de contexte peuvent être utilisés pour prévoir et inférer le contexte. Un middleware sensible au contexte a été conçu comme une plateforme permettant la récupération et le traitement du contexte. Elle est organisée en deux couches : La couche basse apporte une solution à l’intégration des capteurs et actionneurs avec une représentation de données normalisée ; la couche haute propose un interpréteur de contexte polyvalent qui s’appuie sur quatre éléments : un agrégateur de contexte, un moteur d'inférence, une base de connaissance de contextes et un moteur de recherche en charge de la déduction de contexte, de l’interrogation et du stockage persistant. Ce middleware fournit un environnement pour le prototypage rapide de services sensibles au contexte pour l’intelligente ambiante. Le moteur intelligent d’inférence est le composant central de notre middleware. Pour le concevoir nous avons d’abord étudié toutes les méthodes publiées pendant les dix dernières années dans les trois conférences de premier plan du domaine. Nous en avons retiré que la reconnaissance du contexte d’activité peut être obtenue par trois catégories de traitements : par l’activité de l’inférence de base, par l’analyse dynamique de l’activité et par la recommandation d’activités futures. Nous proposons alors un moteur d'inférence intelligent basé sur notre middleware sensible au contexte. Outre les exigences liées à la vérification de la cohérence du contexte, notre moteur d'inférence intègre les trois méthodes les plus populaires concernant la reconnaissance de contexte : des règles, des arbres de décision, et les Modèles de Markov Cachés. Ceci constitue une solution intéressante couvrant toutes les facettes de l'activité de reconnaissance de contexte dans notre middleware sensible au contexte. Les informations collectées à partir des réseaux sociaux sont utilisées pour éduquer le moteur d'inférence intelligent. […] / Almost 20 years ago, Marc Weiser envisioned the prospect of computer in 21st century, and proposed the pioneering notion of ubiquitous computing. One of Weiser’s primary ideas has recently evolved to a more general paradigm known as context awareness, becoming a central research theme in many other ubiquitous computing programs. From Active Badge considered as the first context-aware application, there are numerous attempts to build effective context-aware systems. However, how to acquire context, how to process context and how to create context-aware applications is still faced with enormous challenges in the both of research and practice. This dissertation investigates deeply some chosen key issues in context awareness and develops a context-aware middleware. The main research contributions are presented in three categories: a spatialtemporal context represent model, a context-aware middleware and an intelligence context inference engine. The spatial-temporal context representation model is proposed to organize context and relations for context-aware system. Ontology-based method is adopted to construct our model, supporting both knowledge sharing and reuse as well as logic inference. This model adopts two-layer hierarchy structure for different situation. The higher layer comes up with the generic common context, while the lower layer focuses on various specific situations. Differing from existing models, besides taking locational factors into account, it supports different historical context service depending on different context resource. These context histories may be used to predict and infer the context. A context-aware middleware is designed as a platform associated with context retrieval and context processing. It is organized in two layers: the low layer provides a solution to integrate sensors and actuators with a standardized data representation; the high layer: versatile context interpreter focuses on context processing, which is made up of four parts: Context Aggregator, Inference Engine, Context Knowledge Base, and Query Engine in charge of context inferences, expressive query, and persistent storage. This middleware provides an environment for rapid prototyping of context aware services in ambient intelligent. The intelligent inference engine is the central and intellectual component of context-aware middleware. We review all the methods on activity context recognition published in three premier conferences in past decade and conclude that activity context recognition is divided into three facets: basic activity inference, dynamic activity analysis and future activity recommendation. Then we propose an intelligent inference engine based on our context-aware middleware. Beside satisfying requirements of checking the context consistency, our inference engine integrates the three most popular methods on activity context recognition: Rules, Decision Tree, and Hide Markov Model. It provides a solution for all facets of activity context recognition based on our context-aware middleware. The individuals’ information collecting from their social networks under permission are leveraged to train intelligent inference engine. We finally use two scenarios (applications) to explain the generic process to develop application via our middleware, and compare and analyze the main aspects of our middleware with other five representative context-aware applications. Our middleware profits good features from existing context-aware systems and improve intelligence via supporting activity context recognition. It provides an efficient platform for a rapid developing of new context-aware applications in ambient intelligence.
118

Exploring MRP1 overexpression as "Achilles Heel" of chemoresistant cancers / Étude de la surexpression du transporteur MRP1 comme talon d’Achille des cancers chimiorésistants

Nasr, Rachad 31 January 2018 (has links)
La Multidrug resistance Protein 1 (MRP1) est impliquée dans le phénotype de résistance multiple aux médicaments (MDR) des cellules cancéreuses. Les substrats physiologiques de MRP1 comprennent notamment le glutathion (GSH). Certains médicaments anti-cancéreux tels que la doxorubicine sont co-transportés avec le glutathion. Pour contourner le phénotype MDR induit par MRP1, nous proposons une nouvelle stratégie thérapeutique basée sur la sensibilité collatérale (SC) des cellules résistantes surexprimant MRP1. Certains composés, comme le vérapamil, provoquent la mort sélective des cellules résistantes (les cellules témoins ne sont pas affectées) en stimulant l'efflux du glutathion médié par MRP1. La déplétion intracellulaire très rapide et très forte du glutathion induit probablement un stress oxydatif déclenchant la mort cellulaire. Nous avons identifié de nouveaux agents de sensibilité collatérale puissants in vitro et nous avons montré l'effet du meilleur composé sur la réduction de la croissance des tumeurs chimiorésistantes chez la souris. Nous avons étudié le mécanisme moléculaire d'action des agents de SC et identifié un résidu, localisé dans une région inattendue, impliqué dans la stimulation de l'efflux de glutathion induit par ces molécules / Multidrug resistance Protein 1 (MRP1) is involved in the multidrug resistance (MDR) phenotype of cancer cells. Physiological substrates of MRP1 include glutathione (GSH) and drugs such as doxorubicin are co-transported with glutathione. To circumvent the MDR phenotype induced by MRP1, we propose a new therapeutic strategy based on collateral sensitivity (CS) of resistant cell expressing MRP1, its overexpression becoming the Achilles heel of the cell. Some compounds, like verapamil, act as MRP1 modulators. They trigger selective death of resistant cells (control cells are not affected) by stimulating MRP1-mediated glutathione efflux. The fast and huge intracellular depletion of glutathione probably induces an oxidative stress triggering cell death. We identified new potent collateral sensitivity agents in vitro and we checked the effect of the strongest compound on reducing resistant tumor growth in nude mice. We studied the molecular mechanism of action of CS agents and identified an unexpected residue involved in the stimulation of glutathione efflux induced by these molecules
119

Vers une démarche de garantie des consommations énergétiques dans les bâtiments neufs : Méthodes d'évaluation des incertitudes associées à la simulation thermique dynamique dans le processus de conception et de réalisation. / Energy performance guarantee in new buildings : Uncertainty assessment methods associated to the thermal dynamic simulation in the process of design and construction

Rivalin, Lisa 25 May 2016 (has links)
La garantie de performance énergétique des bâtiments neufs demande d'estimer, avant construction, l'énergie requise pour assurer le confort de ses utilisateurs. Pour cela, il est nécessaire de définir une consommation contractuelle raisonnablement probable et d'identifier les paramètres clés responsables d'un éventuel dépassement afin de les maitriser. Dans les bâtiments neufs, ce calcul est effectué en phase de conception, alors que beaucoup de données sont encore incertaines. Ainsi, la simulation thermique dynamique doit être effectuée avec des données de conception hypothétiques, sans possibilité de calibration sur des mesures.La thèse a pour but de développer une méthode de quantification des incertitudes lors de la conception et la réalisation d'un bâtiment neuf. Ces incertitudes sont classées en trois catégories : celles liées au modèle physique du bâtiment, celles provenant du manque de connaissance des paramètres à renseigner et celles dues aux sollicitations du bâtiment (usage et météo).Dans une première partie, les incertitudes liées aux méthodes de calcul sont abordées, afin de définir des pratiques permettant d'arbitrer entre finesse de modèle et paramètres inconnus à entrer. Puis, on définit une méthodologie permettant de choisir les paramètres incertains critiques qui seront inclus dans l'étude probabiliste et de leur associer une densité de probabilité, selon la connaissance dont on dispose. La partie centrale de la thèse est consacrée à une comparaison exhaustive des méthodes visant la sélection d'une méthode rapide de propagation des incertitudes et d'analyse de sensibilité. Enfin, après avoir illustré la démarche globale d'engagement et discuté de la prise en compte des risques financiers, la méthode est mise en œuvre sur un cas réel, en ajoutant une formule d'ajustement pour prendre en compte les sollicitations. / Before the construction of a building, an energy performance guarantee consists in predicting the energy required for user comfort. To do that, it is necessary to state a contractual consumption and identify the key parameters to pay special attention to. Thus, for new buildings, consumption is calculated under design phase, when several data are uncertain. Thus, the dynamic thermal simulation is carried out with hypothetical data, without having the possibility to calibrate with measures.This PhD thesis aims to develop a method of uncertainty quantification during the design step and construction process of a new building. These uncertainties are classified into three categories: those associated with the calculation methods used for building and system modeling, those related to the lack of knowledge of model parameters and those due to the real use conditions of the building (occupancy and weather).To achieve this goal, uncertainties associated with the calculation methods are addressed, to identify some practices limiting the number of errors and the associated uncertainties. Then, a methodology is defined to choose the critical parameters used for the probabilistic study and to associate them with a distribution according to the available knowledge. The central part of this PhD thesis is dedicated to an exhaustive comparison of methods to select a fast uncertainty propagation and sensitivity analysis method. Finally, after illustrating the overall contracting approach and discussing the inclusion of financial risks, the method is applied on a real case, on which an adjustment formula is added to take into account actual weather and usage.
120

Etude mathématique de la sensibilité POD (Proper orthogonal decomposition) / Mathematical study of the sensitivity of the POD method (Proper orthogonal decomposition)

Akkari, Nissrine 20 December 2012 (has links)
Dans cette thèse, nous nous sommes intéressés à l’étude mathématique de la sensibilité paramétrique de la méthode de réduction de modèles par projection connue sous le nom de POD pour Proper Orthogonal Decomposition. Dans beaucoup d’applications de la mécanique des fluides,la base de projection (base POD) calculée à un paramètre caractéristique fixe du problème de Navier-Stokes, est utilisée à la suite pour construire des modèles d’ordre réduit ROM-POD pour d’autres valeurs du paramètre caractéristique. Alors, la prédiction du comportement de ce ROM-POD vis-à-vis du problème initial est devenue cruciale. Pour cela, nous avons discuté cette problématique d’un point de vue mathématique. Nous avons établi des résultats mathématiques de sensibilité paramétrique des erreurs induites par application de la méthode ROM-POD. Plus précisément, notre approche est basée sur l’établissement d’estimations a priori de ces erreurs paramétriques, en utilisant les méthodes énergétiques classiques. Nos résultats sont démontrés pour les deux problèmes de type Burgers et Navier-Stokes. Des validations numériques de ces résultats mathématiques ont été faites uniquement pour le problème de type Burgers. / In this thesis, we are interested in the mathematical study of the parametric sensitivity of the reduced order model method known as the POD method (proper orthogonal decomposition). In several works applied to fluid mechanics, the POD modes are computed once and for all in association with a fixed parameter that characterize the equations of the fluid mechanics : Navier-Stokes system. Then, these modes are used in order to compute reduced order models (ROM) associated to these equations, for different parameter values. So, one needs a tool for predicting the behavior of the reduced order model with respect to the complete problem, when the parameter’s value is changing. We have discussed this problem from a mathematical point of vue. In fact, we have established mathematical results on the parametric sensitivity of the errors induced by applying the ROM-POD method. More precisely, our work is based on developing a priori estimations of these parametric errors, by using classical techniques of energy estimation.Our results are proved for the two problems of Burgers and Navier-Stokes. Numerical validations are established only in the case of the Burgers equation.

Page generated in 0.0682 seconds