• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Définition d'un cadre conceptuel et méthodologique pour concevoir un système à fléxibilité souhaitée.

Lelièvre, Adrien 12 July 2011 (has links) (PDF)
Dans un environnement économique décrit comme turbulent, la flexibilité est perçue comme un facteur clé de succès que les entreprises devraient maximiser. Pourtant, la notion de flexibilité est souvent présentée comme un concept relatif au domaine étudié. Celle-ci reste par conséquent un concept difficile à appréhender de façon globale et est souvent limitée à une fonction analytique malgré les nombreux travaux dont elle a fait l'objet depuis le début du XXe siècle. La complexité provient essentiellement de la multiplicité des domaines d'application, en témoignent les travaux portants sur la classification des différents types de flexibilités et de l'absence d'approche homogène pour traiter ces problématiques. L'enjeu, pour développer une gestion de la flexibilité au sein des niveaux stratégique, tactique et opérationnel, est alors d'intégrer cette dimension au processus décisionnel. Aujourd'hui, seules certaines décisions ont pour objet la flexibilité alors que tout processus de décision, par le changement d'état qu'il opère, modifie la topologie de l'espace des situations atteignables et par conséquent la capacité du système à être flexible. En vue d'établir une véritable politique de couverture du risque efficiente en univers incertain pour les entreprises, notre recherche s'est attachée à proposer une unité de gestion commune pour la flexibilité que nous avons nommée " potentialité ". Nous avons ainsi défini un cadre conceptuel sur lequel repose une méthodologie permettant de concevoir un système à flexibilité souhaitée. Nos travaux ouvrent des perspectives de recherches importantes sur deux axes majeurs. Le premier consiste à formaliser l'expression du besoin en termes de flexibilité dans le cadre de la méthodologie proposée. Le second, concerne le développement d'une politique de flexibilité basée sur la gestion d'un portefeuille de potentialités à l'instar d'une gestion de stock.
62

Stochastic analysis, simulation and identification of hyperelastic constitutive equations / Analyse stochastique, simulation et identification de lois de comportement hyperélastiques

Staber, Brian 29 June 2018 (has links)
Le projet de thèse concerne la construction, la génération et l'identification de modèles continus stochastiques, pour des milieux hétérogènes exhibant des comportements non linéaires. Le domaine d'application principal visé est la biomécanique, notamment au travers du développement d'outils de modélisation multi-échelles et stochastiques, afin de quantifier les grandes incertitudes exhibées par les tissus mous. Deux aspects sont particulièrement mis en exergue. Le premier point a trait à la prise en compte des incertitudes en mécanique non linéaire, et leurs incidences sur les prédictions des quantités d'intérêt. Le second aspect concerne la construction, la génération (en grandes dimensions) et l'identification multi-échelle de représentations continues à partir de résultats expérimentaux limités / This work is concerned with the construction, generation and identification of stochastic continuum models, for heterogeneous materials exhibiting nonlinear behaviors. The main covered domains of applications are biomechanics, through the development of multiscale methods and stochastic models, in order to quantify the great variabilities exhibited by soft tissues. Two aspects are particularly highlighted. The first one is related to the uncertainty quantification in non linear mechanics, and its implications on the quantities of interest. The second aspect is concerned with the construction, the generation in high dimension and multiscale identification based on limited experimental data
63

Modélisation cinématique et stochastique des failles à partir de données éparses pour l’analyse des incertitudes structurales / Kinematic and stochastic fault modeling from sparse data for structural uncertainty analysis

Godefroy, Gabriel 29 March 2018 (has links)
Le manque et l’ambiguïté des observations géologiques ainsi que le choix des concepts utilisés pour leur interprétation ne permettent pas de représenter les structures géologiques avec certitude. Dans ces travaux de thèse, je m’intéresse à l’estimation des incertitudes associées à la représentation des structures faillées à partir de données éparses. Une première contribution de cette thèse est l’étude des incertitudes d’interprétation lors de l’association des observations pouvant appartenir à une même faille. Des règles numériques, traduisant les concepts et les connaissances utilisés pendant l’interprétation structurale (telles que les orientations et les dimensions des structures) assurent la reproductibilité de l’interprétation. Chaque scénario d’association est représenté par un métamodèle reposant sur la théorie des graphes. Je présente une méthode numérique d’interprétation multi-scénarios basée sur ce formalisme. Son utilisation montre que la dimension combinatoire du problème rend faible la probabilité de trouver la bonne association et que le choix des règles perturbent les associations obtenues. Une seconde contribution est l’intégration d’une distribution théorique du déplacement sur le plan de failles normales et isolées pour assurer la cohérence cinématique des modèles structuraux en trois dimensions. Je présente un opérateur cinématique pour déplacer numériquement les structures à proximité d’une faille non nécessairement plane. Le champ de déplacement est paramétré par deux profils décrivant l’évolution du rejet sur la surface de faille (TX et TZ), un profil d’atténuation dans la direction orthogonale à la surface de faille (TY) et une valeur de déplacement au centre de la faille (Dmax). Ces paramètres sont choisis à partir des observations structurales par optimisation numérique. L’utilisation de cet opérateur permet de valider des interprétations structurales et d’assurer la cohérence cinématique des modèles structuraux construits à partir de données éparses et/ou dans des contextes de déformation polyphasée. Les méthodologies présentées sont testées et discutées en utilisant deux jeux de données. Le premier est composé de neuf lignes sismiques 2D acquises au large du Maroc (marge d’Ifni) qui imagent un socle cristallin faillé. L’interprétation de ces données éparses est guidée par des connaissances dérivées de l’étude d’un affleurement proche. Cependant, l’association des observations appartenant à la même faille ainsi que la chronologie de la mise en place des structures restent fortement incertaines. Le second jeu de données utilisé est situé dans le bassin de Santos, au large du Brésil. Des failles normales y recoupent une série sédimentaire bien stratifiée. Elles sont imagées par un cube sismique de haute résolution. Des observations éparses synthétiques en sont extraites pour tester l’approche. La qualité des données sismiques 3D donne une bonne confiance dans le modèle de référence. Cela permet de tester les méthodes numériques et les règles géologiques développées dans cette thèse pour estimer les incertitudes structurales / The sparsity and the incompleteness of geological data sets lead geologists to use their prior knowledge while modeling the Earth. Uncertainties in the interpretation are an inherent part of geology. In this thesis, I focus on assessing uncertainties related to the modeling of faulted structures from sparse data. Structural uncertainties arise partly from the association of fault evidence explaining the same structure. This occurs especially while interpreting sparse data such as 2D seismic lines or limited outcrop observations. I propose a mathematical formalism to cast the problem of associating fault evidence into graph theory. Each possible scenario is represented by a graph. A combinatorial analysis shows that the number of scenarios is related to the Bell number and increases in a non-polynomial way. I formulate prior geological knowledge as numerical rules to reduce the number of scenarios and to make structural interpretation more objective. I present a stochastic numerical method to generate several interpretation scenarios. A sensitivity analysis, using synthetic data extracted from a reference model, shows that the choice of the interpretation rules strongly impacts the simulated associations. In a second contribution, I integrate a quantitative description of fault-related displacement while interpreting and building 3D subsurface models. I present a parametric fault operator that displaces structures closely surrounding a fault in accordance with a theoretical isolated normal fault model. The displacement field is described using the maximum displacement (Dmax), two profiles on the fault surface (TX and TZ), and a third profile representing the displacement attenuation in the normal direction to the fault surface. These parameters are determined by numerical optimization from the available structural observations. This kinematic fault operator ensures the kinematic consistency of structural models built from sparse data and/or in polyphasic deformation contexts. These two modeling methodologies are tested and discussed on two data sets. The first one contains nine seismic lines imaging a faulted and fractured basement in the Ifni Margin, offshore Morocco. The interpretation of these lines is guided by orientation measurements coming from a nearby onshore field analog. However, uncertainties remain on the association of observations and on the structure chronology. The second data set is located in the Santos Basin, offshore Brazil. A seismic cube exhibits normal faults within a layered sedimentary sequence. I build a reference structural model from this high quality seismic data. The kinematic and stochastic methodologies can be tested and discussed on synthetic sparse data extracted from this known reference model
64

Détermination, maîtrise et réduction des biais et incertitudes de la réactivité du réacteur Jules HOROWITZ / Determination, control and reduction of biais and uncertainties on reactivity of the Jules Horowitz Reactor

Leray, Olivier 25 September 2012 (has links)
Le formulaire de calcul neutronique HORUS3D/N dédié au Réacteur Jules Horowitz (RJH), sert aux études de conception et de sûreté du réacteur. La maîtrise de l'ensemble des paramètres neutroniques du RJH doit être assurée pour l'instruction du rapport de sûreté de l'installation. Ce travail de recherche s'inscrit dans cet objectif et s'attache à la détermination, la maîtrise et la réduction des incertitudes dues aux données nucléaires sur la réactivité du Réacteur Jules Horowitz (RJH). Une démarche rigoureuse et générique a été mise en place : c'est un ensemble cohérent, complet et incrémental qui permet l'identification et la quantification de l'ensemble des sources d'incertitudes et qui a abouti à la maîtrise du biais et des incertitudes dus aux données nucléaires sur la réactivité du cas étudié : le Réacteur Jules Horowitz. Cette méthode est basée sur une succession d'études : l'élaboration d'un jeu de matrices de variance-covariance cohérentes concernant les données nucléaires des isotopes d'intérêt, les études de sensibilité aux données nucléaires de l'expérience et de l'application étudiées, la détermination fine des incertitudes technologiques par la mise en œuvre d'une méthode innovante une étude de transposition estimant le biais et l'incertitude a posteriori dus aux données nucléaires sur l'application étudiée. Les différentes étapes s'appuient sur les outils de calcul de référence du CEA (code de calcul Monte-Carlo TRIPOLI4, codes déterministes APOLLO2 et CRONOS2, code d'évaluation CONRAD), l'évaluation de données nucléaires JEFF-3.1.1 et des méthodes de propagation, marginalisation et de transposition des incertitudes. La propagation des incertitudes sur les données nucléaires contenues dans les matrices de variance-covariance conclut à une incertitude a priori de 637 pcm (1σ) sur la réactivité du RJH pour le combustible U3Si2Al enrichi à 19.75% en 235U. L'interprétation des mesures d'oscillation d'échantillons du programme VALMONT dans le réacteur MINERVE a permis la qualification des données nucléaires relatives au combustible du RJH de l'évaluation JEFF-3.1.1 et a mis en évidence la cohérence de leurs incertitudes. Ainsi, l'interprétation de la réactivité du cœur AMMON/Référence a été réalisée avec l'évaluation JEFF-3.1.1 (et le code de référence TRIPOLI4). Un écart calcul/expérience de +376 pcm est observé. Une étude fine de détermination des incertitudes sur la réactivité de la configuration de référence aboutit à 340 pcm (1σ) dues aux incertitudes technologiques et à 671 pcm (1σ) dues aux incertitudes sur les données nucléaires. La transposition du biais et des incertitudes de l'expérience AMMON/Référence est réalisable grâce à l'excellente représentativité de cette dernière vis-à-vis du RJH. La réduction d'un facteur 2 sur l'incertitude à appliquer sur la réactivité début de vie du RJH est ainsi obtenue, ce qui équivaut à un gain d'environ deux jours équivalents pleine puissance (1σ) sur la longueur de cycle. Ainsi, le biais et l'incertitude associée à retenir pour un combustible U3Si2Al enrichi à 19.75 % en 235U, et un cœur RJH critique non barré (réflecteur nu) en début de vie sont de +266 ± 352 pcm (1σ). / The neutronics calculation scheme HORUS3D/N is dedicated to the design and safety studies of the Jules Horowitz Reactor (JHR). The control of the whole neutronics parameters of the JHR must be ensured for the safety report. This work focuses in the determination and control of uncertainties on the reactivity of the Jules Horowitz reactor due to nuclear data. A rigorous and consistent method was used. It leads to the identification and quantification of the bias and the uncertainty bias due to nuclear data on the reactivity of the considered case: the Jules Horowitz Reactor. Several steps were followed: - the set-up of a reliable dataset of covariance matrices on nuclear data of the isotopes of interest, - the sensitivity studies to nuclear data of the representative experiment and the reactor, - an accurate determination of the technological uncertainties using an innovative method, - a transposition stage of the experimental bias and the associated uncertainty due to nuclear data using the representativity method applied to the JHR. These steps were performed using the CEA's reference calculation tools (Monte-Carlo calculation code TRIPOLI4, deterministic codes APOLLO2 and CRONOS2, evaluation code CONRAD), the European JEFF-3.1.1 nuclear data evaluation and a suitable set of uncertainty propagation, marginalization and transposition techniques. The propagation of uncertainties on nuclear data contained by the variance-covariance matrices concludes to a prior uncertainty of 637 pcm (1σ) on the JHR reactivity for U3Si2Al fuel enriched to 19.75% in 235U. The interpretation of the oscillations of the VALMONT program allowed the experimental validation of the JEFF-3.1.1 nuclear data concerning the JHR fuel and highlights the good agreement of their uncertainties Thus, the interpretation of the reactivity of the AMMON/Reference core was done with the JEFF-3.1.1 evaluation (and Monte-Carlo code TRIPOLI4) and shows a bias of + 376 pcm. A fine study of the technological uncertainties leads to a value of 340 pcm (1σ) on the reactivity and the propagation of the nuclear data uncertainties on the reactivity amounts to 671 pcm (1σ). Transposition and reduction of the bias and prior nuclear data uncertainty were made using the Representativity method which demonstrates the similarity of the AMMON experiment with JHR. The final impact of JEFF-3.1.1 nuclear data on the Begin of Life JHR reactivity calculated by the HORUS3D/N V4.0 (U3Si2Al fuel enriched to 19.75% in 235U) is a bias of +266 pcm with an associated posterior uncertainty of 352 pcm (1σ).
65

Optimisation de l'approche de représentativité et de transposition pour la conception neutronique de programmes expérimentaux dans les maquettes critiques / Optimization of the representativity and transposition approach, for the neutronic design of experimental programs in critical mock-up

Dos Santos, Nicolas 30 September 2013 (has links)
Le travail mené au cours de cette thèse s’est intéressé à l’étude de la propagation des sources d’incertitudes (données nucléaires, paramètres technologiques, biais de calcul) sur les paramètres intégraux, et à la mise au point d’une méthode d’optimisation multi-critères basée sur l’approche de représentativité et de transposition, permettant de réduire cette incertitude a priori sur une grandeur ciblée (keff , distribution de puissance,...) dès la phase de conception d’un nouveau programme expérimental. La première partie de cette thèse s’est intéressée aux schémas de calcul pour la détermination des profils de sensibilité des paramètres intégraux aux données nucléaires pour différentes échelles de modélisation (cellule, assemblage et cœur), et à leur optimisation multi-filière (REL et RNR). Un schéma de calcul simplifié, basé sur les théories des perturbations standard et généralisée, permet dès à présent la propagation de ces incertitudes sur un large type de grandeur intégrale. Ces travaux ont notamment permis de vérifier la bonne représentativité des réseaux UOX et MOX mis en œuvre dans l’expérience EPICURE par rapport aux REP actuels avec chargement mixte, et de mettre en évidence l’importance de certaines données nucléaires dans l’effet de bascule des nappes de puissance dans les grands cœurs de réacteurs. La seconde partie du travail s’est focalisée sur la mise en place d’outils et de méthodes d’aide à la conception des programmes expérimentaux dans les maquettes critiques. Ces méthodes sont basées sur une approche d’optimisation multi-paramétrée de la représentativité en utilisant simultanément différentes grandeurs d’intérêt. Enfin, une étude originale a été réalisée sur la prise en compte des corrélations entre informations intégrales dans le processus de transposition. La prise en compte de ces corrélations, couplée à la méthode de transposition multi-paramétrée permet l’optimisation de nouvelles configurations expérimentales, répondant au mieux aux besoins de qualification complémentaires des outils de calcul. / The work performed during this thesis focused on uncertainty propagation (nuclear data, technological uncertainties, calculation biases,...) on integral parameters, and the development of a novel approach enabling to reduce this uncertainty a priori directly from the design phase of a new experimental program. This approach is based on a multi-parameter multi-criteria extension of representativity and transposition theories. The first part of this PhD work covers an optimization study of sensitivity and uncertainty calculation schemes to different modeling scales (cell, assembly and whole core) for LWRs and FBRs. A degraded scheme, based on standard and generalized perturbation theories, has been validated for the calculation of uncertainty propagation to various integral quantities of interest. It demonstrated the good a posteriori representativity of the EPICURE experiment for the validation of mixed UOX-MOX loadings, as the importance of some nuclear data in the power tilt phenomenon in large LWR cores. The second part of this work was devoted to methods and tools development for the optimized design of experimental programs in ZPRs. Those methods are based on multi-parameters representativity using simultaneously various quantities of interest. Finally, an original study has been conducted on the rigorous estimation of correlations between experimental programs in the transposition process. The coupling of experimental correlations and multi-parametric representativity approach enables to efficiently design new programs, able to answer additional qualification requirements on calculation tools.
66

Contribution à l'optimisation en conception préliminaire de produit / Contribution to optimization in product's preliminary design

Mazhoud, Issam 07 May 2014 (has links)
L'optimisation en conception de produit constitue une activité à forte valeur ajoutée en entreprise. Ceci est d'autant plus important qu'elle est appliquée dans les premières phases du processus de conception. Les travaux dans cette thèse se placent dans ce contexte et proposent des outils adaptés d'aide à la décision en pré-dimensionnement de produits suivant deux critères: présence ou non de fonctionnelles dans le modèle, prise en compte ou non des incertitudes dans le modèle. Une méthode à base de calcul d'intervalles et de propagation de contraintes qui permet de faire de l'optimisation déterministe est introduite. Cette méthode permet de traiter les modèles d'optimisation sans fonctionnelles et sans prise en compte d'incertitudes. Une reformulation qui permet d'améliorer la convergence de l'algorithme est introduite. Une méthode d'optimisation stochastique à base d'essaims particulaires est présentée pour traiter les modèles de plus grande dimension. Un nouveau mécanisme de gestion de contraintes est introduit. Cet algorithme a aussi été étendu pour traiter les problèmes de conception en présence de contraintes du type équations différentielles. Afin de traiter les incertitudes dans les modèles, une méthode d'optimisation robuste est présentée. Elle combine un algorithme d'optimisation stochastique avec une méthode de propagation d'incertitude (PoV). Cette méthode de propagation d'incertitude est étendu aux modèles incluant des fonctionnelles. / The optimization in product design is a high added-value activity. This is all the more important when it is performed at the early stages of the design process. The work presented in this thesis is placed in this context. It proposes adapted decision making tools in preliminary design following two criteria: whether or not the model contains functionals, and whether it takes into considerations the uncertainties. A method based on interval arithmetic and constraint propagation allowing to perform deterministic global optimization is introduced. This method allows handling optimization models without functionals and without considering uncertainties. A reformulation that permits to improve the algorithm convergence is introduced. A stochastic optimization method based on particular swarms is introduced in order to handle higher dimensional problems. A new constraint handling mechanism is introduced and tested on engineering problems. This algorithm has also been extended to design problems with ordinary differential equations constraints. In order to consider uncertainties, a robust optimization method is introduced. It combines a stochastic optimization method with an uncertainty propagation method called PoV. An extension of PoV to models involving functionals is introduced.
67

Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes / Stochastic methods for uncertainty treatment of functional variables in computer codes : application to safety studies

Nanty, Simon 15 October 2015 (has links)
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés. / This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications.
68

Vers une démarche de garantie des consommations énergétiques dans les bâtiments neufs : Méthodes d'évaluation des incertitudes associées à la simulation thermique dynamique dans le processus de conception et de réalisation. / Energy performance guarantee in new buildings : Uncertainty assessment methods associated to the thermal dynamic simulation in the process of design and construction

Rivalin, Lisa 25 May 2016 (has links)
La garantie de performance énergétique des bâtiments neufs demande d'estimer, avant construction, l'énergie requise pour assurer le confort de ses utilisateurs. Pour cela, il est nécessaire de définir une consommation contractuelle raisonnablement probable et d'identifier les paramètres clés responsables d'un éventuel dépassement afin de les maitriser. Dans les bâtiments neufs, ce calcul est effectué en phase de conception, alors que beaucoup de données sont encore incertaines. Ainsi, la simulation thermique dynamique doit être effectuée avec des données de conception hypothétiques, sans possibilité de calibration sur des mesures.La thèse a pour but de développer une méthode de quantification des incertitudes lors de la conception et la réalisation d'un bâtiment neuf. Ces incertitudes sont classées en trois catégories : celles liées au modèle physique du bâtiment, celles provenant du manque de connaissance des paramètres à renseigner et celles dues aux sollicitations du bâtiment (usage et météo).Dans une première partie, les incertitudes liées aux méthodes de calcul sont abordées, afin de définir des pratiques permettant d'arbitrer entre finesse de modèle et paramètres inconnus à entrer. Puis, on définit une méthodologie permettant de choisir les paramètres incertains critiques qui seront inclus dans l'étude probabiliste et de leur associer une densité de probabilité, selon la connaissance dont on dispose. La partie centrale de la thèse est consacrée à une comparaison exhaustive des méthodes visant la sélection d'une méthode rapide de propagation des incertitudes et d'analyse de sensibilité. Enfin, après avoir illustré la démarche globale d'engagement et discuté de la prise en compte des risques financiers, la méthode est mise en œuvre sur un cas réel, en ajoutant une formule d'ajustement pour prendre en compte les sollicitations. / Before the construction of a building, an energy performance guarantee consists in predicting the energy required for user comfort. To do that, it is necessary to state a contractual consumption and identify the key parameters to pay special attention to. Thus, for new buildings, consumption is calculated under design phase, when several data are uncertain. Thus, the dynamic thermal simulation is carried out with hypothetical data, without having the possibility to calibrate with measures.This PhD thesis aims to develop a method of uncertainty quantification during the design step and construction process of a new building. These uncertainties are classified into three categories: those associated with the calculation methods used for building and system modeling, those related to the lack of knowledge of model parameters and those due to the real use conditions of the building (occupancy and weather).To achieve this goal, uncertainties associated with the calculation methods are addressed, to identify some practices limiting the number of errors and the associated uncertainties. Then, a methodology is defined to choose the critical parameters used for the probabilistic study and to associate them with a distribution according to the available knowledge. The central part of this PhD thesis is dedicated to an exhaustive comparison of methods to select a fast uncertainty propagation and sensitivity analysis method. Finally, after illustrating the overall contracting approach and discussing the inclusion of financial risks, the method is applied on a real case, on which an adjustment formula is added to take into account actual weather and usage.
69

Apport de la mesure en continu pour la gestion de la qualité des effluents de temps de pluie en réseau d'assainissement / Contribution of continuous turbidity measurements to the management of effluent quality in sewer systems during wet weather

Lacour, Céline 03 November 2009 (has links)
L’objectif de ce travail de thèse est de démontrer qu’il est possible d’utiliser des mesures en continu de turbidité pour suivre la pollution particulaire dans les réseaux d’assainissement et d’évaluer l’apport de ces mesures pour la gestion des réseaux en temps réel ou en temps différé. Dans une première partie, la mise en oeuvre de la mesure en continu de turbidité est décrite. Les éléments principaux contribuant à l’incertitude sont identifiés et des méthodes de calcul des incertitudes adaptées sont proposées. Les questions de fiabilité et de représentativité de la mesure de turbidité sont traitées et aboutissent à des solutions d’installation des sondes in situ et à des protocoles de suivi et de maintenance. Enfin, les perturbations affectant le signal sont quantifiées et des méthodes de filtrage sont comparées. La deuxième partie est consacrée à l’analyse du comportement de la turbidité à partir des données acquises sur deux sites du réseau unitaire parisien en 2006. 80 événements pluvieux sont décrits par leurs concentrations moyennes et maximales et par leurs courbes de distribution masse/volume. Ces critères ont été intégrés dans des typologies qui ont ensuite été mises en relation avec des paramètres de débit et de durée de temps sec ayant précédé l’événement. Cette analyse permet de caractériser la variabilité de façon détaillée. La variabilité de la décantabilité des particules a été également étudiée à partir de données provenant de bassins de décantation. Enfin, deux applications sont proposées. La première est une évaluation en temps différé de flux de polluants. Deux modes d’exploitation de prélèvements d’échantillons réalisés sur un nombre fixé d’événements pluvieux sont comparés. L’un n’utilise que les résultats d’analyses des échantillons au laboratoire pour établir une concentration moyenne. L’autre utilise les prélèvements pour établir des relations entre turbidité et paramètres polluants, ensuite appliquées à des mesures en continu de turbidité. Une seconde série d’applications porte sur l’utilisation de la turbidité pour la gestion en temps réel des flux. Deux configurations-types génériques ont été étudiées. Pour chacune, une stratégie utilisant seulement le débit est comparée à une stratégie utilisant turbidité et débit. Les simulations sont effectuées pour de larges gammes de paramétrage des configurations et avec des données réelles de débit et de turbidité en entrée du système. Pour les applications d’évaluation de flux comme de gestion en temps réel, le gain apporté par la turbidité est chiffré et s’avère significatif / The purpose of this thesis is to prove the usefulness of continuous turbidity measurements for the monitoring of particulate pollution in combined sewer systems, and assess the contribution of these measurements to real-time and lagged control of sewer systems. In the first part, the implementation of continuous turbidity measurements is described. The main uncertainties components are identified and appropriate calculation methods for the uncertainties are proposed. The issues of reliability and representativeness of turbidity measurements are treated and lead to solutions for the in situ installation of turbidimeters and the definition of proper monitoring and maintenance protocols. Finally, the noise which disturbs turbidity measurements is quantified, and filtering methods are compared. The second part is devoted to the analysis of turbidity behaviour, drawing from data monitored on two sites in the combined sewer of Paris in 2006. Eighty rain events are described by their mean and maximum concentrations and by their mass/volume distribution curves. These criteria are used to define typologies, which are then linked to flow parameters and to the antecedent dry weather period of the event. This analysis leads to a detailed description of variability. The variability of the settling characteristics of the particles was also studied using data coming from sedimentation tank. Finally two applications are developed. The first is an assessment of lagged pollutant loads. Two methods for exploiting samples taken during a fixed number of rain events are compared. The first method only uses the results of sample analysis to establish an average concentration. The second method uses samples to calibrate relationships between turbidity and pollutant parameters, which are then applied to continuous turbidity measurements. Another group of applications deals with the use of turbidity for real time control of pollutants flows. Two kinds of configuration were studied. For each one, a strategy only using flow data is compared with a strategy using turbidity and flow data. Simulations are performed for a wide range of configuration parameters with real flow and turbidity data at the entrance of the system. For the application of assessment of pollutants flow as well as for real time control applications, the improvement brought by turbidity was assessed and proved to be significant
70

Champs de densité d'énergie pour la vibroacoustique basse et moyenne fréquence des structures complexes utilisant un modèle numérique stochastique : application à la partition structurale des automobiles / Energy-density field for low- and medium- frequency vibroacoustics of complex structures using a stochastic numerical model : application to the structural partitioning of automotive vehicles

Kassem, Morad 10 December 2009 (has links)
Ce travail de recherche s’inscrit dans le cadre de l’analyse vibroacoustique des structures complexes. Il propose une nouvelle approche énergétique utilisant le champ de densité d’énergie afin de simplifier une telle analyse. Cette approche est basée sur un modèle numérique stochastique construit à l’aide de l’approche probabiliste non paramétrique des incertitudes de modélisation et de paramètres. L’approche énergétique stochastique développée correspond à une nouvelle représentation du système vibroacoustique en terme des grandeurs énergétiques aléatoires. Un modèle vibroacoustique énergétique moyen est alors construit en prenant la moyenne statistique des grandeurs énergétiques. On dispose alors d’un modèle énergétique moyen pour analyser la vibroacoustique des systèmes complexes dans la bande des basses et des moyennes fréquences alors que la méthode SEA ne permet pas d’analyser cette bande de fréquence. L’analyse des propriétés des grandeurs énergétiques moyennes utilisées pour la construction du modèle vibroacoustique énergétique permet de construire une version simplifiée conduisant à un modèle énergétique simplifié pour lequel une méthodologie de partition structurale par zone est établie. Une application de cette approche énergétique et de la méthodologie de partition structurale par zone est présentée pour une voiture constituée d’une structure automobile couplée avec sa cavité acoustique interne / This research lies in the domain of the vibroacoustic analysis of complex structures. It proposes a new energy approach using the energy-density field in order to simplify such an analysis. This approach is based on a stochastic computational model constructed using the nonparametric probabilistic approach of modeling and parameters uncertainties. The stochastic energy approach developed corresponds to a new representation of the vibroacoustic system in terms of random energy quantities. A mean vibroacoustic energy model is thus constructed using a statistical averaging of the random energy quantities. This mean energy model provides a tool to perform a vibroacoustic analysis of complex structures in the low and medium frequency range while the SEA is not adapted to this frequency band. The analysis of the properties of the mean energy quantities used for the construction of the vibroacoustic energy model allows the construction of a simplified model to be obtained and yields a simplified energy model for which a structural partitioning methodology is then established. An application of the energy approach ant of the structural partitioning methodology is done on an automotive vehicle structure coupled with its internal acoustic cavity

Page generated in 0.0439 seconds