• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Schémas et stratégies pour la propagation et l'analyse des incertitudes dans la simulation d'écoulements

Geraci, Gianluca 05 December 2013 (has links) (PDF)
Ce manuscrit présente des contributions aux méthodes de propagation et d'analyse d'incertitude pour des applications en Mécanique des Fluides Numérique. Dans un premier temps, deux schémas numériques innovantes sont présentées: une approche de type "Collocation", et une autre qui est basée sur une représentation de type "Volumes Finis" dans l'espace stochastique. Dans les deux, l''elément clé est donné par l'introduction d'une représentation de type "Multirésolution" dans l'espace stochastique. L'objective est à la fois de réduire le nombre de dimensions et d'appliquer un algorithme d'adaptation de maillage qui puisse ˆetre utilisé dans l'espace couplé physique/stochastique pour des problémes non-stationnaires. Pour finir, une stratégie d'optimisation robuste est proposée, qui est basée sur une analyse de décomposition de la variance et des moments statistiques d'ordre plus élevé. Dans ce cas, l'objectif est de traiter des probl'emes avec un grand nombre d'incertitudes.
112

Analyse radiative des photobioréacteurs

Dauchet, Jérémi 07 December 2012 (has links) (PDF)
L'ingénierie de la photosynthèse est une voie prometteuse en vue de produire à la fois des vecteurs énergétiques et des molécules plateformes pour palier la raréfaction des ressources fossiles. Le défi à relever est de taille car il faut réussir à mettre au point des procédés solaires de production de biomasse à constante de temps courte (quelques jours), là où une centaine de millions d'années a été nécessaire à la formation du pétrole. Cet objectif pourrait être atteint en cultivant des micro-organismes photosynthétiques dans des photobioréacteurs dont les performances cinétiques en surface et en volume seraient optimales. Une telle optimisation nécessite avant tout une analyse fine des transferts radiatifs au sein du procédé. L'analyse radiative des photobioréacteurs qui est ici proposée s'ouvre sur la détermination des propriétés d'absorption et de diffusion des suspensions de micro-organismes photosynthétiques, à partir de leurs caractéristiques morphologiques, métaboliques et structurales. Une chaîne de modélisation est construite, mise en oeuvre et validée expérimentalement pour des micro-organismes de formes simples ; à terme, la démarche développée pourra directement être étendue à des formes plus complexes. Puis, l'analyse du transfert radiatif en diffusion multiple est introduite et illustrée par différentes approximations qui apparaissent pertinentes pour une conceptualisation des photobioréacteurs, menant ainsi à la construction d'un intuitif nécessaire à leur optimisation. Enfin, la méthode de Monte Carlo est mise en oeuvre afin de résoudre rigoureusement la diffusion multiple en géométries complexes (géométries qui découlent d'une conception optimisée du procédé) et afin de calculer les performances cinétiques à l'échelle du photobioréacteur. Ce dernier calcul utilise une avancée méthodologique qui permet de traiter facilement le couplage non-linéaire du transfert radiatif à la cinétique locale de la photosynthèse (et qui laisse entrevoir de nombreuses autres applications dans d'autres domaines de la physique du transport). Ces outils de simulation mettent à profit les développements les plus récents autour de la méthode de Monte Carlo, tant sur le plan informatique (grâce à une implémentation dans l'environnement de développement EDStar) que sur le plan algorithmique : formulation intégrale, algorithmes à zéro-variance, calcul de sensibilités (le calcul des sensibilités aux paramètres géométriques est ici abordé d'une manière originale qui permet de simplifier significativement sa mise en oeuvre, pour un ensemble de configurations académiques testées). Les perspectives de ce travail seront d'utiliser les outils d'analyse développés durant cette thèse afin d'alimenter une réflexion sur l'intensification des photobioréacteurs, et d'étendre la démarche proposée à l'étude des systèmes photoréactifs dans leur ensemble.
113

Modélisation magnéto-mécanique d'un nano commutateur. Optimisation sous contraintes de fiabilité par dérivation automatique des programmes en Java

Pham quang, Phuong 11 October 2011 (has links) (PDF)
Les nano commutateurs magnétiques sont en cours d'étude et ils sont envisageables dans plusieurs domaines d'application comme les interrupteurs d'alimentation, les convertisseurs DC/DC...etc. Partant du besoin de modélisation et d'optimisation avec fiabilité de ces dispositifs, ces travaux de thèse se décomposent en trois axes. Axe modélisation : développement d'un modèle semi analytique pour calculer la déformation avec l'analyse de contact mécanique. Ce modèle a été introduit pour le couplage magnéto-mécanique dans le logiciel de modélisation de MEMS magnétiques MacMMems. Axe dérivation automatique de code : développement de JAP (Java Jacobian Automatic Programming) qui est un outil générique de dérivation d'algorithmes. Il a été appliqué pour le nano commutateur et a été introduit dans les outils de dimensionnement développés au G2Elab pour l'analyse de sensibilité, pour l'optimisation exploitant le Jacobien et aussi pour orienter des systèmes d'équations algébro-différentiels. Axe optimisation : mise en œuvre du modèle et des outils développés pour faire l'étude de sensibilité et l'optimisation sous contraintes de fiabilité du nano commutateur magnétique.
114

Étude de l'influence de l'inertie thermique sur les performances énergétiques des bâtiments

Munaretto, Fabio 07 February 2014 (has links) (PDF)
Étant de plus en plus isolés, les bâtiments très performants sont très sensibles aux apports solaires transmis par les vitrages ainsi qu'aux apports internes. Dans ce contexte, l'inertie thermique peut être utile en stockant l'énergie excédentaire et en réduisant les variations de température, améliorant ainsi le confort thermique.Évaluer la performance énergétique, environnementale et le confort thermique des bâtiments nécessite des outils de simulation thermique dynamique (STD) fiables. Historiquement, les modélisateurs ont essayé de trouver un compromis approprié entre précision et efficacité. Des hypothèses simplificatrices ont alors été intégrées dans les outils STD et ont un lien étroit avec l'inertie thermique. La validité de telles hypothèses, notamment la globalisation des échanges convectifs et radiatifs GLO intérieurs, ou la distribution forfaitaire des apports solaires transmis par les vitrages nécessitent particulièrement d'être remises en questions dans le contexte des bâtiments très isolés.Ainsi, un modèle découplant les échanges convectifs et radiatifs GLO ainsi qu'un modèle de suivi de la tache solaire (modèles détaillés) ont été implémentés dans une plateforme de simulation mettant en œuvre l'analyse modale et une discrétisation par volumes finis.Une première comparaison entre les modèles détaillés et simplifiés a été réalisée sur des cas d'études du "BESTEST", intégrant aussi des résultats d'outils STD de référence au niveau international (EnergyPlus, ESP-r, TRNSYS). Un travail similaire a été réalisé sur le cas d'une maison passive instrumentée (plateforme INCAS à Chambéry) en utilisant des techniques d'analyses d'incertitudes et de sensibilité.Les résultats montrent qu'une tendance à la baisse concernant les besoins de chauffage et de refroidissement existe en ce qui concerne les modèles détaillés considérés ici. D'autre part, il semble que ces modèles détaillés ne contribuent pas à diminuer significativement les écarts entre les simulations et les mesures.
115

Modèle de structuration et d'évaluation des scénarios des technologies de l'hydrogène du point de vue de l'acceptabilité sociale

Kpoumié, Amidou 09 July 2013 (has links) (PDF)
Cette thèse porte sur l'aide à la décision dans un contexte décisionnel très complexe. Classiquement, pour résoudre de telles situations, on utilise des méthodes de structuration de problèmes. Cependant ces méthodes bien qu'appliquées dans le cadre multi acteur ou dans les décisions de groupe, n'aboutissent pas toujours à des résultats directement exploitables dans un modèle d'évaluation. Ou, lorsque c'est le cas, les données obtenues par structuration sont utilisées comme si elles provenaient d'un seul décideur, tendant à réduire par conséquent l'efficacité de la décision prise et son adhésion publique. Dans cette thèse nous nous sommes attelés à concevoir un modèle d'intégration d'outils conciliant le choix approprié d'outils de structuration pour les décisions de groupe et son exploitation efficace dans un modèle d'évaluation multicritère. En particulier nous nous sommes focalisés sur les modalités du passage des cartes cognitives aux arbres de valeurs. Ensuite nous avons appliqué notre démarche sur le cas pratique du projet ''AIde à la Décision pour l'identification et l'accompagnement aux transformations sociétales induites par les nouvelles technologies de l'Hydrogène'' (AIDHY). Enfin, la dernière partie de notre thèse est axée sur l'apport d'une modélisation multicritère pour appréhender formellement le problème d'évaluation des scénarios, formulé comme un problème de tri multicritère. Par conséquent, nous avons construit une méthode permettant d'observer et de paramétrer le comportement des invariants d'une acceptabilité sociale en général, par le biais d'une d'analyse de sensibilité à partir du cas de l'hydrogène énergie.
116

A Sensitivity Analysis of Cross-Country Growth Regressions: Is 1990-2010 Different?

Kiwan, Rami 12 1900 (has links)
Cet article étudie la sensibilité des estimations de certaines variables explicatives de la croissance économique dans des régressions en coupe transversale sur un ensemble de pays. Il applique un modèle modifié de l’analyse de sensibilité de Leamer (1983, 1985). Mes résultats confirment la conclusion de Levine and Renelt (1992), toutefois, je montre que plus de variables sont solidement corrélées à la croissance économique. Entre 1990-2010, je trouve que huit sur vingt cinq variables ont des coefficients significatifs et sont solidement corrélées à la croissance de long terme, notamment, les parts de l’investissement et des dépenses étatiques dans le PIB, la primauté du droit et une variable dichotomique pour les pays subsahariens. Je trouve aussi une preuve empirique solide de l'hypothèse de la convergence conditionnelle, ce qui est cohérent avec le modèle de croissance néoclassique. / This paper examines the robustness of explanatory variables in cross-country growth regressions. It employs a variant of Leamer’s (1983, 1985) extreme-bounds analysis. My results confirm Levine and Renelt’s (1992) conclusion, but identify more variables to be robustly correlated with economic growth. Of 25 explanatory variables tested, I find 8 to be significantly and robustly correlated with long-term growth over the 1990-2010 period. The strongest evidence is for the investment ratio, government consumption share in GDP, the rule of law, and the Sub-Saharan dummy. I also find strong empirical evidence for conditional convergence, which is consistent with the neoclassical growth model.
117

Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertainties

Safadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
118

Méthode et outils pour l'identification de défauts des bâtiments connectés performants / Method and tools for fault detection in smart high-performance buildings

Josse, Rozenn 13 November 2017 (has links)
Ces travaux de thèse portent sur le développement d’une nouvelle méthodologie pour l’identification de défauts de bâtiments performants et connectés afin d'aider à la garantie de performances. Nous avons dans un premier temps resitué nos travaux dans le contexte énergétique actuel en montrant le rôle majeur des bâtiments dans la réduction des consommations énergétiques. Nous avons ensuite présenté notre méthodologie en argumentant sur les techniques à utiliser avant d’effectuer un choix final. Cette méthodologie se compose de deux blocs principaux : le premier vise à réduire les incertitudes liées à l'occupant et à l'environnement et le second étudie l'écart entre la simulation et la mesure par une analyse de sensibilité couplée à un algorithme bayésien. Nous l'avons ensuite implémentée dans un outil que nous avons nommé REFATEC. Nous avons alors soumis notre méthodologie à différents tests dans des conditions idéales afin d’éprouver sa précision et son temps d’exécution. Cette étape a montré que la méthodologie est efficace mais montre quelques faiblesses dans le cas d’une saison estivale ou d’un défaut très localisé. Enfin, nous l’avons mise en situation face à un cas réel afin de traiter les nombreuses questions que soulèvent l’utilisation de mesures in-situ dans la perspective de la garantie de performances et de la détection de défauts, avec notamment la fiabilité des mesures et les incertitudes encore nombreuses qui doivent être traitées. / This thesis deals with the development of a new methodology for fault detection within smart high-performance buildings helping the performance guarantee. We first have placed our work in the current energy context by focusing on the major role of buildings in the decrease of energy consumption. Then we introduced our methodology and we argued about various techniques that could be used before making a choice. This methodology is made up of two main parts : the former reduces the uncertainties due to the occupant and the environment and the latter studies the gap between simulation and measurements thanks to a sensitivity analysis coupled with a bayesian algorithm. Then we implemented it within a tool that we named REFATEC. We carried out various tests in controlled conditions in order to evaluate its precision and its calculation time. This step showed that our methodology is effective but it has some difficulties when the studied period is during summer or when the faults are very located. is a very located fault. Eventually we confronted our methodology to a real case where we faced numerous questions that appear when dealing with measurements, especially their reliability and the uncertainties that still need to be taken care of, in the perspective of performance guarantee and fault detection.
119

Life cycle assessment of enhanced geothermal systems : from specific case studies to generic parameterized models / Analyse du cycle de vie des systèmes géothermiques stimulés : de l’étude de cas à la caractérisation de la filière

Lacirignola, Martino 26 April 2017 (has links)
Cette recherche vise à étudier les impacts environnementaux d'une technologie émergente de production d’électricité basée sur une source renouvelable, les systèmes géothermiques stimulés (EGS), par l’analyse de leur cycle de vie (ACV).Après avoir analysé plusieurs études de cas, nous avons développé un modèle ACV paramétré capable de caractériser les performances environnementales de la filière EGS. Nos résultats montrent que les émissions de gaz à effet de serre des EGS sur leur cycle de vie sont bien inférieures à celles des centrales utilisant des combustibles fossiles.Dans un deuxième temps, nous avons mis au point un cadre méthodologique pour appliquer l'analyse de sensibilité globale (GSA) à l’ACV des technologies émergentes comme les EGS, prenant en compte les incertitudes élevées liées à leur caractère innovant. Nous avons appliqué notre nouvelle approche GSA pour développer un modèle ACV simplifié, à destination des décideurs, permettant une estimation rapide des impacts des EGS à partir de seulement cinq paramètres clefs: capacité installée, profondeur de forage, nombre de puits, débit géothermal et durée de vie.L'approche méthodologique développée dans cette thèse est applicable à d'autres technologies et ouvre de larges perspectives de recherche dans le domaine de l'évaluation environnementale. / This thesis investigates the environmental impacts of an emerging renewable energy technology, the enhanced geothermal systems (EGS), using a life cycle assessment (LCA) approach.Following the analysis of several EGS case studies, we developed a parameterized LCA model able to provide a global overview of the life cycle impacts of the EGS technology. The greenhouse gas emissions of EGS are found comparable with other renewable energy systems and far better than those of power plants based on fossil fuels.In a second stage, we developed a methodological framework for the application of global sensitivity analysis (GSA) to the LCA of emerging technologies like the EGS, taking into account the high uncertainties related to their description. We applied our new GSA approach to generate a simplified LCA model, aimed at decision makers, allowing a rapid estimation of the life cycle impacts of EGS from only five key parameters: installed capacity, drilling depth, number of wells, flow rate and lifetime.The methodological approach developed in this thesis is applicable to other technologies and opens large research perspectives in the field of environmental assessment.
120

Modèle effectif par une approche de Saint-Venant pour les écoulements complexes lors d'inondations urbaines / Effective shallow water models for complex flood flow patterns in urban areas

Chen, Shangzhi 04 June 2018 (has links)
Les inondations représentent le premier danger naturel sur chaque continent, avec des préoccupations particulières centrées sur les inondations urbaines pour l'urbanisation sans précédent, qui augmente la vulnérabilité des sociétés humaines aux inondations. Pour les difficultés d'accès aux données en temps réel, la méthode numérique semble être une approche puissante pour la prévision des inondations et l'atténuation des dommages. Dans cette thèse, un nouveau logiciel Flood1D2D pour la modélisation des crues urbaines a été proposé en utilisant le maillage de couplage 1D2D, avec 1D dans la rue et 2D appliqué au carrefour. Le logiciel est conçu sur la base de l'installation située dans ICube Strasbourg et validée à l'aide de cas de tests synthétiques. La nouveauté du modèle est de rendre compte de l'effet de recirculation en utilisant la fonction de porosité, et de reproduire la convexité dans les profils de profondeur le long de la rue en aval de chaque carrefour où une zone de recirculation apparaît. Une analyse de sensibilité basée sur la variance est également réalisée pour les modèles classiques d'eau peu profonde 1D et 2D pour l'étalonnage de modèles et la collecte de données. / Flooding represents the first natural hazard on each continent, with special concerns are focused on urban flooding for the unprecedented urbanization, which increases the vulnerability of human societies to floods. For the accessing difficulties of real-time data, numerical method seems to be a powerful approach for flood forecasting and damage mitigation. In this thesis, a new software Flood1D2D for urban flood modeling has been proposed using 1D2D coupling mesh, with 1D on the street and 2D applied on the crossroad. The software is designed based on the rig located in ICube Strasbourg and validated using synthetic test cases. The novelty of the model is to account for the recirculation effect using porosity function, and it can reproduce the convexity in water depth profiles along the street downstream each crossroad where a recirculation zone appears, which can't be accounted using roughness only. Variance based sensitivity analysis is also performed for classical 1D and 2D shallow water models for model calibration and data collections.

Page generated in 0.087 seconds