• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation de la demande énergétique des bâtiments à l'échelle urbaine : contribution de l'analyse de sensibilité à l'élaboration de modèles flexibles / Modeling energy demand of buildings at urban scale

Garcia Sanchez, David 29 October 2012 (has links)
Pour répondre aux enjeux énergétiques et climatiques, une des échelles d’action pertinentes est désormais celle du quartier ou de la ville. Des besoins de connaissance, d’outils d’aide à la décision et d’évaluation à cette échelle se manifestent de plus en plus. Un des volets concerne la modélisation de la demande d’énergie des bâtiments résidentiels, préalable à la mise en place d’actions de rénovation de l’existant ou à la valorisation de sources d’énergie locales. La diversité de situations de terrains, d’objectifs d’acteurs et de contextes de disponibilité de données incitent à rechercher des modèles flexibles, aptes à produire de l’information pour différentes applications, à partir de jeux alternatifs de données d’entrée, combinant des modèles de natures diverses (notamment physiques et statistiques) selon les besoins. Dans cet esprit, le présent travail cherche à explorer le potentiel de méthodes dites ascendantes, s’appuyant sur des modèles développés à l’origine pour la simulation à l’échelle d’un bâtiment isolé, mais extrapolés ici pour le parc de bâtiments d’une zone urbaine sur la base de bâtiments types. Les deux questions clés abordées sont celles de la sélection des bâtiments types et de la reconstitution des données d’entrée pertinentes sur le plan statistique pour la zone étudiée. Des techniques d’analyse de sensibilité, en particulier la méthode des effets élémentaires de Morris, ont été appliquées à un code de calcul thermique de bâtiment (ESP-r). Elles ont mis en évidence une réponse non linéaire du modèle, notamment du fait des interactions entre paramètres et de la dispersion des paramètres d’entrée. Elles ont permis d’identifier les paramètres les plus sensibles et les plus en interaction (concernant les bâtiments eux-mêmes, leur environnement ou leurs habitants), sur lesquels doit être concentré le travail de collecte ou de reconstitution statistique. Un modèle, dénommé MEDUS, de reconstitution de la distribution des besoins de chaleur sur un quartier à partir de trois typologies de bâtiments, a été développé et testé sur le secteur St-Félix à Nantes. Il est alimenté par des données INSEE à l’échelle d’un IRIS. Ses résultats sont analysés, à la fois sous l’angle de la pertinence des typologies choisies et dans une perspective d’application à l’échelle du quartier. / Urban scale is now considered as one of the most relevant scales to face energy and climate challenges. Specific needs for knowledge, decision making tools and evaluation are identified at urban scale. Modelling energy demand from residential buildings is one key aspect, priorto energy retrofitting of existing building asset or to valorisation of local energy sources. Diversity of local contexts, stake holder goals and data availability lead to search flexible models, with ability to produce information for different applications, from alternative input data sets, combining different types of basic models (namely both physical and statistical ones), according to user needs. The present work is exploring the potential of bottom-up approaches, based on engineering models, developed originally for isolated buildings. These models are extrapolated for the complete set of buildings in a city or neighbourhood, based on building archetypes. Two key questions tackled are the selection of suitable archetypes and the reconstitution of relevant input data, statistically representative for the area of interest Sensitivity analysis techniques have been applied to a thermal simulation programme (ESP-r), particularly the Morris elementary effects method. A non-linear response of the model has been emphasized, caused by scattering of input parameters and interaction effects. The most influencing and interacting parameters have been identified. They concern the buildings themselves, their environment and the inhabitants. Data collection or statistical reconstitution must be concentrated in priority to these main parameters. A model of the heat demand at a neighbourhood scale has been developed and tested on the sector St-Félix in Nantes. It is called MEDUS (Modelling Energy Demand at Urban Scale). Application is based on three building archetypes. Census data (INSEE) available at the sector scale are the main input data. Results are analyzed both to check archetype relevancy and to study a possible application for evaluating actions at sector scale, such as energy retrofitting.
2

Influence de la non-stationnarité du milieu de propagation sur le processus de Retournement Temporel (RT) / Impact of uncertainties in Electromagnetic Time Reversal process

Jannet, Basile 29 January 2014 (has links)
Cette thèse a pour objectif la quantification de l’impact d’incertitudes affectant le processus de Retournement Temporel (RT). Ces aléas, de natures diverses, peuvent avoir une forte influence s’ils se produisent entre les deux étapes du RT. Dans cette optique la méthode de Collocation Stochastique (CS) est utilisée. Les très bons résultats en termes d’efficacité et de précision observés lors de précédentes études en Compatibilité ÉlectroMagnétique (CEM) se confirment ici, pour des problématiques de RT. Cependant, lorsque la dimension du problème à traiter augmente (nombre de variables aléatoires important), la méthode de CS atteint ses limites en termes d’efficacité. Une étude a donc été menée sur les méthodes d’Analyse de Sensibilité (AS) qui permettent de déterminer les parts d’influence respectives des entrées d’un modèle. Parmi les différentes techniques quantitatives et qualitatives, la méthode de Morris et un calcul des indices de Sobol totaux ont été retenus. Ces derniers apportent des résultats qualitatifs à moindre frais, car seule une séparation des variables prépondérantes est recherchée. C’est pourquoi une méthodologie combinant des techniques d’AS avec la méthode de CS a été développée. En réduisant le modèle aux seules variables prédominantes grâce à une première étude faisant intervenir les méthodes d’AS, la CS peut ensuite retrouver toute son efficacité avec une grande précision. Ce processus global a été validé face à la méthode de Monte Carlo sur différentes problématiques mettant en jeu le RT soumis à des aléas de natures variées. / The aim of this thesis is to measure and quantify the impacts of uncertainties in the Time Reversal (TR) process. These random variations, coming from diverse sources, can have a huge influence if they happen between the TR steps. On this perspective, the Stochastique Collocation (SC) method is used. Very good results in terms of effectiveness and accuracy had been noticed in previous studies in ElectroMagnetic Compatibility (EMC). The conclusions are still excellent here on TR problems. Although, when the problem dimension rises (high number of Random Variables (RV)), the SC method reaches its limits and the efficiency decreases. Therefore a study on Sensitivity Analysis (SA) techniques has been carried out. Indeed, these methods emphasize the respective influences of the random variables of a model. Among the various quantitative or qualitative SA techniques the Morris method and the Sobol total sensivity indices have been adopted. Since only a split of the inputs (point out of the predominant RV) is expected, they bring results at a lesser cost. That is why a novel method is built, combining SA techniques and the SC method. In a first step, the model is reduced with SA techniques. Then, the shortened model in which only the prevailing inputs remain, allows the SC method to show once again its efficiency with a high accuracy. This global process has been validated facing Monte Carlo results on several analytical and numerical TR cases subjet to random variations.
3

Modélisation, analyse et optimisation d’un largage de fusée spatiale depuis un porteur de type avion / Modeling, analysis, and optimization of the separation of a space rocket from a carrier aircraft

Sohier, Henri 28 November 2014 (has links)
Un système de lancement aéroporté est constitué d'un porteur de type avion larguant un lanceur à une certaine altitude. De tels systèmes sont l'objet d'un intérêt croissant, notamment pour la mise à poste de petits satellites. Les travaux présentés dans cette thèse s'intègrent dans le programme Perseus du CNES qui a déjà donné lieu à la construction d'un modèle réduit appelé EOLE. Il s'agit d'étudier la phase de largage, particulièrement sensible.Les contraintes de similitude pouvant permettre l'étude du largage taille réelle avec EOLE sont d'abord identifiées. Les possibilités d'extrapolation directe et déterministe des mesures réalisées avec EOLE étant limitées par le non respect d'une contrainte de masse, il est choisi d'étudier le largage avec une approche probabiliste en développant un nouveau modèle multi-corps. Une grande variété d'incertitudes est prise en compte, concernant par exemple aussi bien les interactions aérodynamiques que le mécanisme de séparation. Un nouveau critère de performance générique,basé sur des géométries élémentaires, est développé pour évaluer la fiabilité du largage.L'analyse de sensibilité du largage aux facteurs d'incertitude est ensuite réalisée. Compte tenu du nombre élevé de paramètres en jeu et du temps de simulation, il est d'abord recherché une simplification du modèle. La méthode de Morris est utilisée pour identifier des facteurs d'incertitude peu influents pouvant être fixés à une certaine valeur. Cette étape est fréquente, mais il est montré qu'il existe un risque important de fixer des facteurs dont l'influence a en fait été sous-estimée. Une adaptation de la méthode de Morris améliorant l'échantillonnage des facteurs, le calcul de leurs influences et le traitement statistique des résultats permet de réduire considérablement ce risque.Une fois l'impact des différentes incertitudes estimé, il a été possible d'optimiser les conditions de largage afin de réduire la probabilité qu'un problème intervienne. / In an air launch to orbit, a space rocket is launched from a carrier aircraft. Air launchto orbit appears as particularly interesting for small satellites. This Ph.D. thesis is part of the program Pegasus of the French space agency CNES and it follows the development of a small scale demonstrator called EOLE. It focuses on the very sensitive separation phase.The similitude constraints which have to be respected to study the large scale system with EOLEare first identified. A problem of mass limits the possibilities to directly extrapolate at a larger scale, in a deterministic approach, data obtained with EOLE. It is decided to study the separation in a probabilistic approach by developing a new multi-body model. A great variety of uncertainties are taken into account, from the aerodynamic interactions to the atmospheric turbulences, the separation mechanism, and the launch trajectories. A new performance criterion is developed to quantify the safety of the separation phase. It is based on elementary geometries and it could beused in other contexts.A sensitivity analysis is applied to estimate the influence of the uncertainties on the performance criterion. Given the large number of factors of uncertainty and the non-negligible simulation time,the model is first simplified. The Morris method is applied to identify the factors with a low influence which can be fixed to a given value. It is a frequent step, but it is shown that there isa high risk to fix the wrong factors. Any further study would then be altered. The risk to fix the wrong factors is significantly reduced by improving the factors sampling, the calculation of their influence, and the statistical treatment of the results. This new method is used to estimate the influence of the uncertainties at the separation and the safety is improved by optimizing launch trajectories.
4

Amélioration des métaheuristiques d'optimisation à l'aide de l'analyse de sensibilité / Improvement of optimization metaheuristics with sensitivity analysis

Loubiere, Peio 21 November 2016 (has links)
L'optimisation difficile représente une classe de problèmes dont la résolution ne peut être obtenue par une méthode exacte en un temps polynomial.Trouver une solution en un temps raisonnable oblige à trouver un compromis quant à son exactitude.Les métaheuristiques sont une classe d'algorithmes permettant de résoudre de tels problèmes, de manière générique et efficiente (i.e. trouver une solution satisfaisante selon des critères définis: temps, erreur, etc.).Le premier chapitre de cette thèse est notamment consacré à la description de cette problématique et à l'étude détaillée de deux familles de métaheuristiques à population, les algorithmes évolutionnaires et les algorithmes d'intelligence en essaim.Afin de proposer une approche innovante dans le domaine des métaheuristiques, ce premier chapitre présente également la notion d'analyse de sensibilité.L'analyse de sensibilité permet d'évaluer l'influence des paramètres d'une fonction sur son résultat.Son étude caractérise globalement le comportement de la fonction à optimiser (linéarité, influence, corrélation, etc.) sur son espace de recherche.L'incorporation d'une méthode d'analyse de sensibilité au sein d'une métaheuristique permet d'orienter sa recherche le long des dimensions les plus prometteuses.Deux algorithmes réunissant ces notions sont proposés aux deuxième et troisième chapitres.Pour le premier algorithme, ABC-Morris, la méthode de Morris est introduite dans la métaheuristique de colonie d'abeilles artificielles (ABC).Cette inclusion est dédiée, les méthodes reposant sur deux équations similaires.Afin de généraliser l'approche, une nouvelle méthode, NN-LCC, est ensuite développée et son intégration générique est illustrée sur deux métaheuristiques, ABC avec taux de modification et évolution différentielle.L'efficacité des approches proposées est testée sur le jeu de données de la conférence CEC 2013. L'étude se réalise en deux parties: une analyse classique de la méthode vis-à-vis de plusieurs algorithmes de la littérature, puis vis-à-vis de l'algorithme d'origine en désactivant un ensemble de dimensions, provoquant une forte disparité des influences / Hard optimization stands for a class of problems which solutions cannot be found by an exact method, with a polynomial complexity.Finding the solution in an acceptable time requires compromises about its accuracy.Metaheuristics are high-level algorithms that solve these kind of problems. They are generic and efficient (i.e. they find an acceptable solution according to defined criteria such as time, error, etc.).The first chapter of this thesis is partially dedicated to the state-of-the-art of these issues, especially the study of two families of population based metaheuristics: evolutionnary algorithms and swarm intelligence based algorithms.In order to propose an innovative approach in metaheuristics research field, sensitivity analysis is presented in a second part of this chapter.Sensitivity analysis aims at evaluating arameters influence on a function response. Its study characterises globally a objective function behavior (linearity, non linearity, influence, etc.), over its search space.Including a sensitivity analysis method in a metaheuristic enhances its seach capabilities along most promising dimensions.Two algorithms, binding these two concepts, are proposed in second and third parts.In the first one, ABC-Morris, Morris method is included in artificial bee colony algorithm.This encapsulation is dedicated because of the similarity of their bare bone equations, With the aim of generalizing the approach, a new method is developped and its generic integration is illustrated on two metaheuristics.The efficiency of the two methods is tested on the CEC 2013 conference benchmark. The study contains two steps: an usual performance analysis of the method, on this benchmark, regarding several state-of-the-art algorithms and the comparison with its original version when influences are uneven deactivating a subset of dimensions

Page generated in 0.0311 seconds