• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Optimisation pour la configuration robuste de systèmes de production de biens et de services

Aubry, Alexis 16 October 2007 (has links) (PDF)
Les travaux présentés dans ce mémoire apportent une contribution à la configuration des systèmes de production en contexte incertain. Les différents outils permettant d'appréhender l'incertain en optimisation sont d'abord présentés. Nous insistons plus particulièrement sur la notion de robustesse à travers l'approche utilisée dans le cadre de nos travaux. Nous présentons ensuite deux applications : la configuration d'un atelier de machines partiellement multifonctions soumis à des incertitudes sur la demande et la configuration d'un réseau de distribution d'électricité soumis à des incertitudes sur les caractéristiques de puissance. Pour chaque application, nous identifions les perturbations prises en compte ainsi que les performances attendues en présence de ces perturbations. Nous proposons ensuite un critère de robustesse en adéquation avec cette problématique. Enfin des méthodes de résolution sont proposées pour appréhender les différents problèmes mis en évidence par ce critère.
112

Optimisation par ensembles flous de la campagne de caractérisation géotechnique.

Boumezerane, Djamalddine 17 May 2012 (has links) (PDF)
Le sujet de cette recherche est l'optimisation de la densité de sondages par la prise en compte de l'information qualitative dans la caractérisation géotechnique de site. En effet le manque d'information et le caractère vague de celle-ci constitue un problème fondamental pour les ingénieurs géotechniciens, notamment lorsqu'il s'agit de conduire une investigation géotechnique. La quantification du nombre de sondages pour la caractérisation de site ne répond pas à des règles bien définies. L'Eurocode 7 mentionne un minimum de sondages ne dépendant que de la surface du site d'étude. La démarche que l'Ingénieur devrait entreprendre vis-à-vis de ce problème est beaucoup plus liée au jugement. Différents paramètres influencent ce jugement, notamment la géologie du site, la variabilité spatiale des conditions de sol, le type de projet ainsi que les sites avoisinants entre autres. Les ensembles flous sont outil adéquat pour ce genre de problèmes, ils permettent de prendre en considération l'aspect qualitatif et le jugement de l'ingénieur. Un système d'inférence flou a été mis en place en prenant en considération les différents paramètres qui peuvent influencer le nombre de points de reconnaissance sur site. Les ensembles flous ont été construits sur la base de questionnaires et de jugement d'experts ainsi qu'en se basant sur l'information disponible dans la littérature technique. Les applications effectuées sur des sites réels ont montré l'efficacité et la pertinence de la démarche adoptée. Simple et logique dans sa construction, elle peut être utilisée de manière systématique. Il suffit de bien introduire les paramètres d'entrée. La prise en compte des incertitudes liées à l'introduction des données dans le système se fait par l'utilisation d'intervalles de valeurs, simulées par la méthode MonteCarlo. Des résultats sous formes d'histogrammes sont obtenus et permettent de mieux apprécier la situation. Le calage des résultats a été fait en utilisant les minimums du nombre de sondages recommandés par l'Eurocode7. L'utilisation des ensembles aléatoires est une autre approche que nous proposons dans ce travail de recherche. Cette approche repose sur le principe des probabilités subjectives (degré de croyance) que les experts associent à des plages de valeurs du nombre de sondages. La construction de boites de probabilités supérieure et inférieure donne une orientation à l'ingénieur sur la densité de points de reconnaissance à effectuer sur site.
113

Utilisation d'ordres partiels pour la caractérisation de solution robustes en ordonnancement

La, Hoang Trung 24 January 2005 (has links) (PDF)
Ce travail s'intéresse à la caractérisation hors ligne d'ensembles de solutions en ordonnancement destinés à offrir une certaine flexibilité. Il s'inscrit dans le champ de l'ordonnancement robuste pour lequel on désire construire un ensemble d'ordonnancements relativement insensible, du point de vue de ses performances, aux événements imprévus survenant lors de la mise en Suvre en environnement perturbé. L'approche robuste proposée est de type proactif-réactif. Elle s'appuie sur les notions de structures d'intervalles et de conditions de dominance (ou de conditions suffisantes) vis-à-vis de l'admissibilité ou de l'optimalité de solutions en ordonnancement. Ce travail s'est particulièrement focalisé sur la phase proactive où il s'agit d'anticiper la mise en Suvre de l'ordonnancement, en construisant au plus tôt une organisation relativement insensible aux perturbations, tout en disposant d'indicateurs relatifs à la performance temporelle. Dans ce cadre, nous montrons en particulier l'intérêt de certains ordres partiels, établis sur la base de corps d'hypothèses restreints, permettant d'une part la détermination d'une performance au mieux et au pire de l'ensemble de solutions caractérisé, et d'autre part, le calcul d'indicateurs de flexibilité. Dans un premier temps, le problème d'ordonnancement à une machine est étudié. Pour ce problème, un ordre partiel dominant basé sur une analyse de structure d'intervalles est décrit. Cet ordre partiel caractérise un ensemble dominant de solutions de cardinalité calculable, dont la performance au mieux et au pire, en terme de retard algébrique, peut être déterminée en temps de calcul polynomial. Deux approches d'ordonnancement robuste sont ensuite proposées permettant soit de caractériser toutes les séquences optimales contenues dans l'ensemble dominant initial, soit de trouver un compromis flexibilité / performance acceptable. Dans un deuxième temps, les problèmes d'ordonnancement sur plusieurs machines sont considérés. Un ordre partiel suffisant est d'abord proposé pour le problème flow shop de permutation à deux machines. Deux algorithmes, utilisant les résultats obtenus pour le problème à une machine, sont ensuite présentés dans le cadre de problèmes de type job shop.
114

Random fields and associated statistical inverse problems for uncertainty quantification : application to railway track geometries for high-speed trains dynamical responses and risk assessment

Perrin, Guillaume 24 September 2013 (has links) (PDF)
Les nouvelles attentes vis-à-vis des nouveaux trains à grande vitesse sont nombreuses: on les voudrait plus rapides, plus confortables, plus stables, tout en étant moins consommateur d'énergie, moins agressif vis-à-vis des voies, moins bruyants... Afin d'optimiser la conception de ces trains du futur, il est alors nécessaire de pouvoir se baser sur une connaissance précise de l'ensemble des conditions de circulations qu'ils sont susceptibles de rencontrer au cours de leur cycle de vie. Afin de relever ces défis, la simulation a un très grand rôle à jouer. Pour que la simulation puisse être utilisée dans des perspectives de conception, de certification et d'optimisation de la maintenance, elle doit alors être tout à fait représentative de l'ensemble des comportements physiques mis en jeu. Le modèle du train, du contact entre les roues et le rail, doivent ainsi être validés avec attention, et les simulations doivent être lancées sur des ensembles d'excitations qui sont réalistes et représentatifs de ces défauts de géométrie. En ce qui concerne la dynamique, la géométrie de la voie, et plus particulièrement les défauts de géométrie, représentent une des principales sources d'excitation du train, qui est un système mécanique fortement non linéaire. A partir de mesures de la géométrie d'un réseau ferroviaire, un paramétrage complet de la géométrie de la voie et de sa variabilité semblent alors nécessaires, afin d'analyser au mieux le lien entre la réponse dynamique du train et les propriétés physiques et statistiques de la géométrie de la voie. Dans ce contexte, une approche pertinente pour modéliser cette géométrie de la voie, est de la considérer comme un champ aléatoire multivarié, dont les propriétés sont a priori inconnues. En raison des interactions spécifiques entre le train et la voie, il s'avère que ce champ aléatoire n'est ni Gaussien ni stationnaire. Ce travail de thèse s'est alors particulièrement concentré sur le développement de méthodes numériques permettant l'identification en inverse, à partir de mesures expérimentales, de champs aléatoires non Gaussiens et non stationnaires. Le comportement du train étant très non linéaire, ainsi que très sensible vis-à-vis de la géométrie de la voie, la caractérisation du champ aléatoire correspondant aux défauts de géométrie doit être extrêmement fine, tant du point de vue fréquentiel que statistique. La dimension des espaces statistiques considérés est alors très importante. De ce fait, une attention toute particulière a été portée dans ces travaux aux méthodes de réduction statistique, ainsi qu'aux méthodes pouvant être généralisées à la très grande dimension. Une fois la variabilité de la géométrie de la voie caractérisée à partir de données expérimentales, elle doit ensuite être propagée au sein du modèle numérique ferroviaire. A cette fin, les propriétés mécaniques d'un modèle numérique de train à grande vitesse ont été identifiées à partir de mesures expérimentales. La réponse dynamique stochastique de ce train, soumis à un très grand nombre de conditions de circulation réalistes et représentatives générées à partir du modèle stochastique de la voie ferrée, a été ainsi évaluée. Enfin, afin d'illustrer les possibilités apportées par un tel couplage entre la variabilité de la géométrie de la voie et la réponse dynamique du train, ce travail de thèse aborde trois applications
115

Etude des dispersions et incertitudes en optimisation et dans l'analyse des valeurs propres

Croquet, Rémi 22 June 2012 (has links) (PDF)
Après une première présentation des outils de modélisation des incertitudes, la question de leur quantification est abordée. Deux problèmes particuliers seront l'occasion de développer une nouvelle méthodologie : la caractérisation de la dispersion affectant la solution d'un problème d'optimisation comportant des paramètres aléatoires et le calcul des valeurs propres généralisées de matrices à coefficients aléatoires. De nouvelles méthodes basées sur l'adaptation au cadre stochastique d'approches déterministes sont proposées. Par ailleurs, les outils de l'optimisation fiabiliste permettent de trouver un compromis entre un coût minimum et une fiabilité accrue. Pour pallier les temps de calcul prohibitif, nous proposons une stratégie permettant de déterminer une solution approchée du problème. En fonction des contraintes en temps de calcul ou de précision, l'utilisation de différentes mesures de fiabilité est possible.
116

Radiothérapie guidée par l'image du cancer de la prostate : vers l'intégration des déformations anatomiques

Cazoulat, Guillaume 17 December 2013 (has links) (PDF)
Ce travail de thèse porte sur la quantification et la prise en compte des variations anatomiques en cours de radiothérapie guidée par l'image pour le cancer de la prostate. Nous proposons tout d'abord une approche basée population pour quantifier et analyser les incertitudes géométriques, notamment à travers des matrices de probabilité de présence de la cible en cours de traitement. Nous proposons ensuite une méthode d'optimisation des marges suivant des critères de couverture géométrique de la cible tumorale. Cette méthode permet d'obtenir des marges objectives associées aux différents types d'incertitudes géométriques et aux différentes modalités de repositionnement du patient. Dans un second temps, nous proposons une méthode d'estimation de la dose cumulée reçue localement par les tissus pendant un traitement de radiothérapie de la prostate. Cette méthode repose notamment sur une étape de recalage d'images de façon à estimer les déformations des organes entre les séances de traitement et la planification. Différentes méthodes de recalage sont proposées, suivant les informations disponibles (délinéations ou points homologues) pour contraindre la déformation estimée. De façon à évaluer les méthodes proposées au regard de l'objectif de cumul de dose, nous proposons ensuite la génération et l'utilisation d'un fantôme numérique reposant sur un modèle biomécanique des organes considérés. Les résultats de l'approche sont présentés sur ce fantôme numérique et sur données réelles. Nous montrons ainsi que l'apport de contraintes géométriques permet d'améliorer significativement la précision du cumul et que la méthode reposant sur la sélection de contraintes ponctuelles présente un bon compromis entre niveau d'interaction et précision du résultat. Enfin, nous abordons la question de l'analyse de données de populations de patients dans le but de mieux comprendre les relations entre dose délivrée localement et effets cliniques. Grâce au recalage déformable d'une population de patients sur une référence anatomique, les régions dont la dose est significativement liée aux événements de récidive sont identifiées. Il s'agit d'une étude exploratoire visant à terme à mieux exploiter l'information portée par l'intégralité de la distribution de dose, et ce en fonction du profil du cancer.
117

Analyse de sensibilité pour des modèles stochastiques à entrées dépendantes : application en énergétique du bâtiment / Sensitivity analysis for stochastic models for dependent inputs : application in building energy

Grandjacques, Mathilde 09 November 2015 (has links)
Les bâtiments représentent un des principaux leviers d'action pour optimiser l'efficacité énergétique et la réduction des émissions de CO2 dans les villes. Afin d'optimiser les performances énergétiques, différentes études ont été menées sur les performances thermiques aussi bien du de point de vue de la conception, de la calibration de modèle que de l'impact de changement climatique. L'analyse de sensibilité vise à évaluer la part d'incertitude due à chacune des variables ou des paramètres qui peuvent influencer ces performances.La plupart des études en bâtiment menées dans la littérature se placent dans un cadre statique qui ne représente pas l'évolution du système. Il est très vite apparu nécessaire de développer des méthodes qui prennent en compte à la fois la dépendance des entrées et la dimension temporelle qui elle-même comporte toujours de la dépendance. Parmi les différentes méthodes d'analyse de sensibilité, nous avons privilégié la méthode globale, reposant sur le calcul des indices de sensibilité de Sobol. Le calcul effectif des indices de sensibilité permet de hiérarchiser les paramètres d'entrée en fonction de leur influence sur la sortieLes indices de Sobol peuvent se calculer de différentes façons. Nous nous sommes intéressés notamment à la méthode Pick and Freeze basée sur l'échantillonnage. Celle-ci repose sur l'hypothèse fondamentale et dans la pratique le plus souvent non vérifiée d'indépendance des entrées. Cela nous a amené du point de vue statistique à développer des techniques nouvelles pour tenir compte du caractère des entrées de type dynamique et dépendantes entre elles à la fois dans le temps et à chaque instant.Nous avons placé notre travail dans l'optique de méthodes permettant de se ramener au cas d'entrées indépendantes. Notre préoccupation a été de modéliser les entrées de manière souple, aisément transposable à d'autres situations concrètes et permettant des simulations relativement aisées. Afin de rendre compte du lien temporel entre les variables, nous avons choisi de considérer un indice dépendant de l'instant de calcul et de quantifier la variabilité de la sortie non pas seulement à la variabilité de l'entrée à l'instant t mais aussi à cette même variabilité provenant des instants précédents. Cette vision permet d'introduire la notion de mémoire utile pour le calcul de la sensibilité. Nous avons développé une méthode d'estimation des indices de Sobol pour des entrées dépendantes statiques a priori. Elle peut néanmoins être mise en œuvre pour des entrées dynamiques de courte mémoire mais les calculs sont alors très lourds dès que le nombre d'entrées est grand ou les mémoires importantes. Cette méthode permet de séparer des variables dépendantes de loi quelconque en des variables indépendantes de loi uniforme. Facile à mettre en œuvre ces méthodes d'estimation ne s'appuient pas sur des hypothèses d'indépendance des entrées, elles permettent alors un large éventail d'applications.Nous avons appliqué notre méthodologie à un bâtiment existant, apportant ainsi un outil utile à l'analyse du comportement thermique et donc à son optimisation. Nous avons pu montrer différentes situations en analysant l'ordre des variables suivant les sensibilités à partir de mesures. Deux critères ont été étudiés. Un critère de confort : l'étude de la température intérieure et un critère de performance : l'énergie de chauffage. / Buildings represent one of the main levers of action to optimize energy efficiency and reducing emissions of $ CO_2 $. To understand how perform energy consumption of a building, different studies have been conducted on the thermal performance both the point of view of design and model calibration as the climate change impact. Energy performance can be optimized according to these studies by evaluating the degree of uncertainty due to each of the variables or parameters that may influence performance. This stage is called sensitivity analysis.Most building studies in the literature are placed in a static framework that does not represent the evolution of the system. The variables whose sensitivity to be studied are either considered at a given time or the input-output models are not dynamic. It became necessary to develop methods that take into account both the dependence of the inputs and the temporal dimension which itself always involves dependence. Among the different methods of sensitivity analysis, we have focused on the global method, based on the calculation of Sobol sensitivity indices. Sobol index of a parameter (or group of parameters) is a statistical indicator of easy interpretation. It allows to measure the importance of this parameter (or group of parameters) on the variability of a scalar quantity of interest, depending on the model output. Sensitivity indices allow to rank input parameters according to their influence on the output.Sobol indices can be calculated in different ways. We focused on the Pick and Freeze method based on sampling. This is based on a fundamental assumption and in practice often unverified : inputs independence. This led us statistically to develop new techniques to take into account the dynamic characteristic of inputs and dependents both in time and in every moment. Our work focuses on methods that can bring back to the case of independent inputs. Our concern was modelled in a flexible way inputs, easily transferable to other concrete situations and allowing relatively easy simulations. The input-output relationships are not important as the only constraint, of course not trivial, possible simulation.In order to reproduce the temporal relationship between the variables, we chose to consider an index dependent, in the non-stationary case (especially if there are seasonal phenomena), on the time of calculation and quantify the variability of output not not only to the variability of the input at time $ t $, but also to the same variability from previous times. This vision allows to introduce the concept of usable memory for the calculation of the sensitivity.The second method that we have developed is an estimation method of Sobol indices for static dependent inputs a priori. It may nevertheless be implemented for dynamic inputs with short memory but the calculations are then very heavy when the number of inputs are large or own important memories. This method allows to separate dependent variables of any law in independent variables uniformly distributed.Easy to implement these estimation methods developed are not based on assumptions of independence of inputs. It then allows a wide range of applications.This method applied to an existing building can help improve energy management and can be useful in the design from the implementation scenarios. We could show different situations by analysing the variable order according to the sensitivities from measurements on a test building. Two criteria were studied. A criterion of comfort: the study of indoor temperature and performance criteria: the heating energy.
118

Contribution à l’évaluation des incertitudes sur les sections efficaces neutroniques, pour les réacteurs à neutrons rapides / Contribution to uncertainties evaluation for fast reactors neutronic cross sections

Privas, Edwin 28 September 2015 (has links)
La thèse a essentiellement été motivée par la volonté croissante de maîtriser les incertitudes des données nucléaires, pour des raisons de sûreté nucléaire. Elle vise en particulier les sections efficaces indispensables aux calculs neutroniques des réacteurs rapides au sodium de Génération IV (RNR-Na), et les moyens permettant de les évaluer.Le principal objectif de la thèse est de fournir et montrer l’intérêt de nouveaux outils permettant de réaliser des évaluations cohérentes, avec des incertitudes maîtrisées et fiables. Pour répondre aux attentes, différentes méthodes ont été implémentées dans le cadre du code CONRAD, développé au CEA de Cadarache, au Département d’Étude des Réacteurs.Après l’état des lieux et la présentation des différents éléments nécessaires pour effectuer une évaluation, il est présenté des résolutions stochastiques de l’inférence Bayésienne. Elles permettent de fournir d’une part, des informations supplémentaires à l’évaluateur par rapport à la résolution analytique et d’autre part, de valider cette dernière. Les algorithmes ont été testés avec succès à travers plusieurs cas, malgré des temps de calcul plus longs faute aux méthodes de type Monte Carlo.Ensuite, ce travail a rendu possible, dans CONRAD, de prendre en compte des contraintes dites microscopiques. Elles sont définies par l’ajout ou le traitement d’informations additionnelles par rapport à l’évaluation traditionnelle. Il a été développé un algorithme basé sur le formalisme des multiplicateurs de Lagrange pour résoudre les problèmes de continuité entre deux domaines en énergies traitées par deux théories différentes. De plus, d’autres approches sont présentées, avec notamment l’utilisation de la marginalisation, permettant soit de compléter une évaluation existante en ajoutant des matrices de covariance, soit de considérer une incertitude systématique pour une expérience décrite par deux théories. Le bon fonctionnement des différentes méthodes implémentées est illustré par des exemples, dont celui de la section efficace totale de l’238U.Enfin, les dernières parties de la thèse se focalisent sur le retour des expériences intégrales, par méthodes d’assimilation de données intégrales. Cela permet de réduire les incertitudes sur les sections efficaces d’intérêt pour les réacteurs rapides. Ce document se clôt par la présentation de quelques résultats clefs sur les sections efficaces de l’238U et du 239Pu, avec la considération d’expériences comme PROFIL et PROFIL-2 dans Phénix ou encore Jezebel. / The thesis has been motivated by a wish to increase the uncertainty knowledge on nuclear data, for safety criteria. It aims the cross sections required by core calculation for sodium fast reactors (SFR), and new tools to evaluate its.The main objective of this work is to provide new tools in order to create coherent evaluated files, with reliable and mastered uncertainties. To answer those problematic, several methods have been implemented within the CONRAD code, which is developed at CEA of Cadarache.After a summary of all the elements required to understand the evaluation world, stochastic methods are presented in order to solve the Bayesian inference. They give the evaluator more information about probability density and they also can be used as validation tools. The algorithms have been successfully tested, despite long calculation time.Then, microscopic constraints have been implemented in CONRAD. They are defined as new information that should be taken into account during the evaluation process. An algorithm has been developed in order to solve, for example, continuity issues between two energy domains, with the Lagrange multiplier formalism. Another method is given by using a marginalization procedure, in order to either complete an existing evaluation with new covariance or add systematic uncertainty on an experiment described by two theories. The algorithms are well performed along examples, such the 238U total cross section.The last parts focus on the integral data feedback, using methods of integral data assimilation to reduce the uncertainties on cross sections. This work ends with uncertainty reduction on key nuclear reactions, such the capture and fission cross sections of 238U and 239Pu, thanks to PROFIL and PROFIL-2 experiments in Phénix and the Jezebel benchmark.
119

Métrologie Hybride pour le contrôle dimensionnel en lithographie / Hybrid Metrology Applied to dimensional Control in Lithography

Griesbach schuch, Nivea 27 October 2017 (has links)
Afin de respecter sa feuille de route, l’industrie du semi conducteur propose des nouvelles générations de technologies (appelées nœuds technologiques) tous les deux ans. Ces technologies présentent des dimensions de motifs de plus en plus réduites et par conséquent des contrôles des dimensions de plus en plus contraints. Cette réduction des tolérances sur les résultats métrologiques entraine forcément une évolution des outils de métrologie dimensionnelle. Aujourd’hui, pour les nœuds les plus avancés, aucune technique de métrologie ne peut répondre aux contraintes imposées. Les limitations se situent aussi bien sur les principes mêmes des méthodes employées que sur la quantité nécessaire de données permettant une analyse poussée ainsi que le temps de calcul nécessaire au traitement de ces données. Dans un contexte industriel, les aspects de rapidité et de précision des résultats de métrologie ne peuvent pas être négligés, de ce fait, une nouvelle approche fondée sur de la métrologie hybride doit être évaluée. La métrologie hybride consiste à mettre en commun différentes stratégies afin de combiner leurs forces et limiter leurs faiblesses. L’objectif d’une approche hybride est d’obtenir un résultat final présentant de meilleures caractéristiques que celui obtenu par chacune des techniques séparément. Cette problématique de métrologie hybride peut se résoudre par l’utilisation de la fusion de données. Il existe un grand nombre de méthodes de fusion de données couvrant des domaines très variés des sciences et qui utilisent des approches mathématiques différentes pour traiter le problème de fusion de données. L’objectif de ce travail de thèse est de développer cette problématique de métrologie hybride et fusion de données dans le cadre d’une collaboration entre deux laboratoires : LTM/ CNRS ( Laboratoire des Technologies de la Microélectronique) et le LETI/CEA (Laboratoire d’Electronique et de Technologies de l’Information). Le concept de la fusion de données est présenté dans un contexte de métrologie hybride appliquée au domaine de la microélectronique. L’état de l’art au niveau des techniques de métrologie est présenté et discuté. En premier lieu, le CD SEM pour ces caractéristiques associant rapidité et non destructibilité, ensuite l’AFM pour sa vision juste des profils des motifs et enfin la scattérométrie pour ses aspects de précision de mesures et sa rapidité tout en conservant une approche non destructive. Le FIB-STEM, bien que destructif, se positionne sur une approche de technique de référence. Les forces et les faiblesses de ces différentes méthodes sont évaluées afin de pouvoir les introduire dans une approche de métrologie hybride et d’identifier le rôle que chacune d’entre elle peut jouer dans ce contexte. Plusieurs campagnes de mesures ont été réalisées durant cette thèse afin d’apporter des connaissances sur les caractéristiques et les limitations de ces techniques et pouvoir les inclure dans différents scénarii de métrologie hybride. La méthode retenue pour la fusion de données est fondée sur une approche Bayesienne. Cette méthode a été évaluée dans un contexte expérimental cadré par un plan d’expérience permettant la mesure de la hauteur et la largeur de lignes en combinant différentes techniques de métrologie. Les données collectées ont été exploitées pour les étapes de debiaisage mais également pour un déroulement complet de fusion et dans les deux cas, la métrologie hybride montre les avantages de cette approche pour améliorer la justesse et la précision des résultats. Avec la poursuite d’un développement poussé, la technique de métrologie hybride présentée ici semble donc pouvoir s’intégrer dans un processus de fabrication dans l’industrie du semi conducteur. Son application n’est pas seulement destinée à de la métrologie dimensionnelle mais peut fournir également des informations sur la calibration des équipements. / The industry of semiconductors continues to evolve at a fast pace, proposing a new technology node around every two years. Each new technology node presents reduced feature sizes and stricter dimension control. As the features of devices continue to shrink, allowed tolerances for metrology errors must shrink as well, pushing the evolution of the metrology tools.No individual metrology technique alone can answer the tight requirements of the industry today, not to mention in the next technology generations. Besides the limitations of the metrology methods, other constraints such as the amount of metrology data available for higher order analysis and the time required for generating such data are also relevant and impact the usage of metrology in production. For the production of advanced technology nodes, neither speed nor precision may be sacrificed, which calls for cleverer metrology approaches, such as the Hybrid Metrology.Hybrid Metrology consists of employing different metrology strategies together in order to combine their strengths while mitigating their weaknesses. This hybrid approach goal is to improve the measurements in such a way that the final data presents better characteristics that each method separately. One of the techniques than can be used to combine the data coming from different metrology techniques is called Data Fusion. There are a large number of developed methods of Data Fusion, using different mathematical tools, to address the data fusion process.The first goal of this thesis project was to start developing the topics of Data Fusion and Hybrid Metrology within the two laboratories whose cooperation made this work possible: LTM (Laboratoire des Technologies de la Microélectronique) and LETI (Laboratoire d'électronique et de technologie de l'information). This thesis presents the concepts of Data Fusion in the context of Hybrid Metrology applied to dimensional measuring for the semiconductors industry. This concept can be extensively used in many other fields of applications.In this work the basics of state-of-the-art metrology techniques is presented and discussed. The focus is the CD-SEM, for its fast and almost-non-destructive metrology; the AFM, for its accurate profile view of patterns and non-destructive characteristic; the Scatterometry, for its precision, global and fast measurements; and the FIB-STEM, as a reference on accuracy for any type of profile, although destructive. The strengths and weaknesses of these methods were discussed in order to introduce the need of Hybrid Metrology and to identify the role that each of those methods can play in this context.Several experiments were performed during this thesis work in order to provide further knowledge about the characteristics and limitations of each metrology method and to be used as either inputs or reference on the different Hybrid Metrology scenarios proposed.The selected method for fuse the data coming from different metrology methods was the Bayesian approach. This technique was evaluated in different experimental contexts, both for Height and CD metrology combining different metrology methods. Results were evaluated for both the debiasing step alone and for the complete fusion flow. In both cases, it was clear the advantages of using a Hybrid Metrology approach for improving the measurement precision and accuracy.The presented Hybrid Metrology technique may be used by the semiconductor industry in different steps of the fabrication process. This technique can also provide information for machine calibration, such as a CD-SEM tool being calibrated based on Hybrid Metrology results generated using the CD-SEM itself together with Scatterometry data.
120

Analyse et propagation des incertitudes associées à la dépressurisation de l’Hélium 3 sur les transitoires de puissance du réacteur CABRI / Analysis and propagation of uncertainties associated with Helium-3 depressurization on the characteristics of power transients in the CABRI reactor

Clamens, Olivier 26 October 2018 (has links)
CABRI est un réacteur piscine conçu pour tester du combustible irradié dans des conditions accidentelles de type RIA, c'est à dire d'insertion intempestive de réactivité.Un circuit dédié de dépressurisation d'hélium 3, contenu dans les barres transitoires, permet d'injecter jusqu'à 4 $ de réactivité contrée majoritairement par l'effet Doppler quand la puissance atteint en quelques millisecondes jusqu'à 200000 fois la puissance initiale de 100 kW.La thèse présente les améliorations apportées à la prédiction des transitoires et les études d'incertitudes qui en découlent.Le calcul par cinétique ponctuelle couplée à la thermohydraulique 1D et échanges de chaleur des transitoires de puissance CABRI a été renforcé par l'ajout de métamodèles basés sur des analyses expérimentales et des calculs Best-Estimate de la dépressurisation d'hélium 3, des effets en réactivité et des paramètres cinétiques.L'amélioration de la modélisation des transitoires de puissance a eu un impact positif sur la prédiction des essais CABRI.Le code SPARTE, associé à la plate-forme URANIE, ont permis de propager les incertitudes expérimentales et de modélisation.Finalement, l'optimisation des transitoires pour améliorer la conception d'expériences dans CABRI est abordée. / CABRI is a pool type pulsed reactor designed for studying pre-irradiated nuclear fuel behavior under RIA (Reactivity Initiated Accident) conditions.The helium-3 depressurization from the transient rods system allows the insertion of up to 4 $ reactivity mainly countered by the Doppler effect when the power reaches in few milliseconds up to 200,000 times the initial 100~kW power.This thesis presents the improvements added to the power transients prediction and the associated uncertainties studies.The point kinetics calculation coupled with 1D thermal-hydraulics and heat transfer has been improved by the addition of surrogate models based on experimental analysis and Best-Estimate calculations of the helium-3 depressurization and of the reactivity effects and of the kinetics parameters.The power transients modeling improvements have a positiv impact on the CABRI tests prediction.The propagation of the experimental and of the modeling uncertainties was realized with the SPARTE code and the URANIE uncertainty platform.Finally, the power transients characteristics optimization is approached in order to improve the CABRI experiments designing.

Page generated in 0.0667 seconds