Spelling suggestions: "subject:"sensibilité"" "subject:"sensibilitat""
11 |
Développements et validation de calculs à énergie continue pondérés par l'importance / Development and validation of continuous energy adjoint-weighted calculationsTruchet, Guillaume 25 September 2015 (has links)
L'un des enjeux actuel de la neutronique concerne la propagation rigoureuse des incertitudes d'entrée (e.g. données nucléaires, tolérances de fabrications, etc.) aux résultats finaux calculés par les codes (e.g. keff, taux de réaction, etc.). Pour propager les incertitudes, il est de coutume de faire l'hypothèse de petites variations autour d'une référence et de calculer, dans un premier temps, des profils de sensibilités. Or, les codes Monte-Carlo, qui se sont imposés comme des références de calcul, ne possèdent pas -- ou n'ont intégré que très récemment -- un moyen direct de calculer des sensibilités et donc de réaliser un calcul précis d'incertitudes. Les approches déterministes, elles, permettent le calcul de ces sensibilités mais introduisent parfois de très fortes hypothèses, notamment sur la géométrie.Le premier objectif de se travail de thèse est d'introduire dans le code Monte Carlo du CEA de transport des neutrons, TRIPOLI-4, des méthodes à même de calculer des profils de sensibilités du keff aux données nucléaires ou à toute autre perturbation. Pour cela, il a d'abord été nécessaire de mettre en place le calcul du flux adjoint d'un milieu critique. Pour la première fois, et grâce aux développements informatiques de ce travail, il a été possible de calculer dans un cas réel, concret, et applicatif, des spectres de flux adjoints en un point quelconque d'un réacteur. Ceci a été réalisé à l'aide de la probabilité itérée de fission (Iterated Fission Probability ou IFP) qui assimile le flux adjoint à l'importance d'un neutron dans un réacteur exactement critique. Ce calcul de flux adjoint a, par la suite, ouvert la porte au premier développement d'une méthode de calcul de « perturbations exacte » en Monte Carlo, théorie qui permet de s'affranchir des hypothèses de petites variations, et qui ouvre la porte à certaines applications jusqu'alors difficiles à analyser.Au delà de l'analyse poussée de la méthode IFP et de son application au calcul de flux adjoint, cette thèse propose également, d'obtenir dans le code TRIPOLI-4, les paramètres cinétiques d'un réacteur pondérés par le flux adjoint ou bien des aires de migration. A cette fin, l'implémentation reprend et améliore un algorithme déjà développé par la communauté scientifique pour estimer des perturbations au premier ordre. / A key issue in nowadays Reactor Physics is to propagate input data uncertainties (e.g. nuclear data, manufacturing tolerances, etc.) to nuclear codes final results (e.g. keff, reaction rate, etc.). In order to propagate uncertainties, one typically assumes small variations around a reference and evaluates at first sensitivity profiles. Problem is that nuclear Monte Carlo codes are not -- or were not until very recently -- able to straightforwardly process such sensitivity profiles, even thought they are considered as reference codes.First goal of this PhD thesis is to implement a method to calculate keff-sensitivity profiles to nuclear data or any perturbations in TRIPOLI-4, the CEA Monte Carlo neutrons transport code. To achieve such a goal, a method has first been developed to calculate the adjoint flux using the Iterated Fission Probability (IFP) principle that states that the adjoint flux at a given phase space point is proportional to the neutron importance in a just critical core after several power iterations. Thanks to our developments, it has been made possible, for the fist time, to calculate the continuous adjoint flux for an actual and complete reactor core configuration. From that new feature, we have elaborated a new method able to forwardly apply the exact perturbation theory in Monte Carlo codes. Exact perturbation theory does not rely on small variations which makes possible to calculate very complex experiments.Finally and after a deep analysis of the IFP method, this PhD thesis also reproduces and improves an already used method to calculate adjoint weighted kinetic parameters as well as reference migrations areas.
|
12 |
Evaluation de la fiabilité des éléments de charpente de grue à tour / Reliability assessment of tower crane structural membersBucas, Simon 09 January 2015 (has links)
Les grues à tour sont des engins de levage utilisés de manière cyclique sur les chantiers de construction. De ce fait, la prise en compte du phénomène de fatigue dans le dimensionnement des charpentes de grue est primordiale. La fatigue est usuellement considérée dans les normes au moyen de règles déterministes ayant pour but de garantir l’intégrité de la structure sous diverses conditions d’utilisation. Bien que cette approche fournisse des résultats satisfaisants dans la plupart des cas, celle-ci ne permet pas d’évaluer le niveau de fiabilité des éléments de charpente en fonction de leur durée d’exploitation. De ce point de vue, les approches probabilistes permettent de pallier cette difficulté en proposant des outils pertinents servant à caractériser et à propager les incertitudes liées à la fatigue au travers d’un modèle mécanique. Une approche probabiliste originale permettant la prise en compte des incertitudes liées à la fatigue dans le dimensionnement des charpentes de grues à tour est proposée dans ce manuscrit. La méthode proposée est basée sur la définition de deux densités de probabilité représentant respectivement les variabilités liées à la résistance des joints soudés d’une part, et les nombreuses dispersions associées à la sollicitation des éléments de charpente d’autre part. La définition de la densité de probabilité de résistance repose sur la capitalisation d’un grand nombre de résultats d’essais d’endurance sur structures soudées, tandis que la définition de la distribution de sollicitation est basée sur une modélisation à deux niveaux tenant compte de divers jeux de données collectés sur chantier. Les résultats de l’analyse de fiabilité présentée dans ce manuscrit démontrent la pertinence des approches probabilistes dans le cadre du dimensionnement en fatigue des éléments de charpente de grue à tour. / Tower cranes are lifting appliances which are cyclically used on construction sites. Thus, the consideration of the fatigue phenomenon in the design of crane structural members is essential. This phenomenon is usually taken into account in standards by means of deterministic rules enabling to ensure structural safety under various operating conditions. Although it provides satisfactory results in most cases, the deterministic approach do not enable to evaluate the reliability of crane structural members according to their operating time. From this point of view, probabilistic approaches allow to overcome this difficulty by proposing relevant tools enabling to characterize and propagate uncertainties related to fatigue through a mechanical model. An original probabilistic approach enabling the consideration of the uncertainties related to crane members fatigue design is proposed in this manuscript. It relies on the definition of two probability density functions related respectively to the strength variability of crane welded joints on one hand, and the dispersion of operating conditions (stress) on this other hand. The definition of the strength distribution stems from the capitalization of various welded joint fatigue test results, while the characterization of the stress distribution relies on the analysis of various data sets coming from crane monitoring performed on different construction sites. The results coming from the reliability analysis presented in this manuscript show the relevance of probabilistic approaches in the frame of tower crane structural members fatigue design.
|
13 |
Pilotage des cycles limites dans les systèmes dynamiques hybrides : application aux alimentations électriques statiques / Limit cycle control in hybrid systems. Application in static power suppliesPatino, Diego 06 February 2009 (has links)
Cette thèse s'intéresse au pilotage des cycles limites pour une classe particulière de systèmes hybrides (SDH): les systèmes commutés cycliques. La thématique des SDH est née du constat d'insuffisance des modèles dynamiques classiques pour décrire les comportements lorsque des aspects évènementiels interviennent. Une classe particulièrement importante de SDH est formée par celle qui présente un régime permanent cyclique. Ces systèmes ont des points de fonctionnement non auto-maintenables: il n'existe pas de commande qui maintienne le système sur ce point. Le maintien n'est assuré qu'en valeur moyenne, en effectuant un cycle dans un voisinage du point par commutation des sous systèmes. L'établissement d'une loi de commutation pour cette classe de systèmes doit répondre aux objectifs de stabilité et de performance dynamique, mais doit également garantir la satisfaction de critères liés à la forme d'onde. A l'heure actuelle, peu de méthodes de commande prennent en compte le caractère cyclique du système. Les travaux de cette thèse ont pour objectif de développer des méthodes génériques et robustes pour piloter cette classe de systèmes. Les algorithmes proposés doivent également pouvoir être implémenté en temps réels. On modélise le système comme un système non - linéaire affine en la commande dont la loi de commande apparait dans le modèle. Ce type de modélisation permet d'envisager deux types de synthèse: l'une à base de commande prédictive et l'autre à base de commande optimale. Ce travail est validé par une partie applicative sur des manipulations dans le CRAN et dans des laboratoires du réseau d'excellence européenne HYCON dans le cadre duquel s'est déroulé cette étude / This work deals with limit cycle control for one particular class of hybrid dynamical systems (HDS): The cyclic switched systems. The HDS were born because the traditional dynamical models were not able to describe complex behaviors and most of all, behaviors with discontinuities. From an application point of view, one important class of HDS depicts a cyclic behavior in steady state. The main characteristic of these systems is that the operation point cannot be maintained: It does not exist a control that maintains the system on a desired operation point. However, this point can be obtained in average by turning into its neighborhood. Thus, a cycle is produced by switching among the system modes. A switched control law must satisfy stability and dynamic performance. Moreover, criteria related to the waveform must be verified. Nowadays, few methods take into account the cyclic behavior of the system. In this research, some generic methods are studied. They show good performance for controlling the cyclic switched systems. The proposed algorithms can be implemented in real-time. The approaches are based on an affine non-linear model of the system whose control explicitly appears. Two control methods are considered: i) A predictive control, ii) An optimal control. Since the predictive control is a good choice for tracking, it will be able to maintain the system in a cycle. The optimal control yields solutions that can be applied to the transients. Some experiments with both control methods applied to the power converters are shown. These tests were carried out not only in our laboratory (CRAN), but also in other laboratories as part of the HYCON excellence network
|
14 |
Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances / Application of reliable methods to the analysis and synthesis of tolerancesBeaucaire, Paul 29 November 2012 (has links)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d’une valeur nominale et d’un intervalle de tolérance, à des dimensions de pièces. En particulier, l’analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l’inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d’estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d’exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s’agit de la probabilité que l’exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s’appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L’objectif de cette thèse est d’explorer le domaine de l’analyse et de la synthèse des tolérances afin d’identifier et d’exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l’analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l’approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l’évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L’analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l’utilisation d’une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d’aider à identifier les cotes ayant le plus d’influence sur le TNC d’un mécanisme. Enfin, l’optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d’Essuyages, concepteurs et fabricants de produits pour l’automobile et l’aéronautique, ont proposé des cas d’études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l’ingénierie des incertitudes, développe et commercialise un outil informatique professionnel. / To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool.
|
15 |
Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method / Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la méthode des probabilités de première collisionSabouri, Pouya 28 October 2013 (has links)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude. / This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms.
|
16 |
Percolation dans le plan : dynamiques, pavages aléatoires et lignes nodales / Percolation in the plane : dynamics, random tilings and nodal linesVanneuville, Hugo 28 November 2018 (has links)
Dans cette thèse, nous étudions trois modèles de percolation planaire : la percolation de Bernoulli, la percolation de Voronoi, et la percolation de lignes nodales. La percolation de Bernoulli est souvent considérée comme le modèle le plus simple à définir admettant une transition de phase. La percolation de Voronoi est quant à elle un modèle de percolation de Bernoulli en environnement aléatoire. La percolation de lignes nodales est un modèle de percolation de lignes de niveaux de champs gaussiens lisses. Deux fils conducteurs principaux ont guidé nos travaux. Le premier est la recherche de similarités entre ces modèles, en ayant à l'esprit que l'on s'attend à ce qu'ils admettent tous la même limite d'échelle. Nous montrons par exemple que le niveau critique de la percolation de lignes nodales est égal au niveau auto-dual (à savoir le niveau zéro) lorsque le champ considéré est le champ de Bargmann-Fock, qui est un champ gaussien analytique naturel. Le deuxième fil conducteur est l'étude de dynamiques sur ces modèles. Nous montrons en particulier que, si on considère un modèle de percolation de Voronoi critique et si on laisse les points se déplacer selon des processus de Lévy stables à très longue portée, alors il existe des temps exceptionnels avec une composante non bornée / We study three models of percolation in the plane: Bernoulli percolation, Voronoi percolation, and nodal lines percolation. Bernoulli percolation is often considered as the simplest model which admits a phase transition. Voronoi percolation is a Bernoulli percolation model in random environment. Nodal lines percolation is a level lines percolation model for smooth planar Gaussian fields. We have followed two main threads. The first one is the resarch of similarities between these models, having in mind that we expect that they admit the same scaling limit. We show for instance that the critical level for nodal lines percolation is the self-dual level (namely the zero level) if the Gaussian field is the Bargmann-Fock field, which is natural analytical field. The second main thread is the study of dynamics on these percolation models. We show in particular that if we sample a critical Voronoi percolation model and if we let each point move according to a long range stable Lévy process, then there exist exceptional times with an unbounded cluster
|
17 |
Conception optimale de centrales solaires à concentration : application aux centrales à tour et aux installations "beam down" / Optimal design of solar thermal power plants : application to solar power tower and "beam down" concentratorsFarges, Olivier 05 June 2014 (has links)
Depuis les années quarante, la consommation énergétique mondiale n'a cessé d'augmenter. Cette énergie étant majoritairement d'origine fossile, il en résulte une augmentation globale de température terrestre. De ce fait, il est devenu urgent de réduire les émissions de gaz à effet de serre pour stopper le changement climatique. Dans ce contexte, le développement de la production d'électricité à partir d'énergie solaire concentrée par voie thermodynamique est une solution prometteuse. Les efforts de recherche visent à rendre cette technologie plus efficace et plus compétitive économiquement. Dans ce but, ce manuscrit présente une méthode de conception optimale pour les centrales solaires à récepteur central. Elle tire parti des méthodes développées depuis de nombreuses années par le groupe de recherche StaRWest, regroupant notamment des chercheurs des laboratoires RAPSODEE (Albi), LAPLACE (Toulouse) et PROMES (Odeillo). Couplant des algorithmes de Monte Carlo à hautes performances et des algorithmes stochastiques d'optimisation, le code de calcul implémentant cette méthode permet la conception et l'optimisation d'installations solaires. Il est utilisé pour mettre en évidence les potentialités d'un type de centrales à récepteur central peu répandu : les centrales à réflecteur secondaire, également appelées centrales de type "beam down". / Since the early 40's, world energy consumption has grown steadly. While this energy mainly came from fossil fuel, its use has included an increase in temperatures. It has become urgent to reduce greenhouse gas emissions to halt climate change. In this context, the development of concentrated solar power (CSP) is a promising solution. The scientific community related to this topic has to focus on efficiency enhancement and economic competitiveness of CSP technologies. To this end, this thesis aims at providing an optimal design method applied to central receiver power plants. It takes advantage of methods developed over many years by the research group StaRWest. Both RAPSODEE (Albi), LAPLACE (Toulouse) and PROMES (Odeillo) researchers take an active part in this group. Coupling high performance Monte Carlo algorithms and stochastic optimization methods, the code we developed allows an optimal design of concentrated solar systems. This code is used to highlight the potential of an uncommon type of central receiver plants: reflective towers, also called "beam down" central receiver systems.
|
Page generated in 0.042 seconds