• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • 2
  • Tagged with
  • 9
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Etude de l'intégration d'une protection par fusible dans les convertisseurs à IGBT

Duong, Viet-Son 03 July 1997 (has links) (PDF)
Les progrès technologiques réalisés en matière d'interrupteurs semiconducteurs de puissance, ont conduit au début des années 80, à l'apparition du transistor bipolaire à grille isolée, plus couramment désigné sous l'abréviation IGBT. Etant donnés les niveaux de puissance que ces composants sont aujourd'hui aptes à commuter, une protection contre les défauts devient nécessaire. Un fusible rapide associé au composant permet d'éviter l'explosion du boîtier en cas de court-circuit, et ainsi de garantir la sécurité des personnes et des divers composants à proximité. Une étude du comportement de l'IGBT en régime de court-circuit a été entreprise afin d'évaluer une valeur caractéristique de l'explosion, et de dimensionner précisément le calibre du fusible. L'intégration d'un fusible dans un convertisseur à IGBT passe en premier lieu par l'étude des perturbations générées par le convertisseur sur le fusible. Ces perturbations, associées aux effets de proximité, se traduisent par une répartition déséquilibrée des courants entre des fusibles en parallèle ou même entre les éléments fusibles. Ainsi, nous nous sommes attachés à élaborer un modèle électrothermique du fusible permettant de calculer la répartition des courants et la température des éléments fusibles. Ce modèle permet de définir des abaques, en liaison avec un critère thermique de bon fonctionnement des fusibles. En second lieu, nous avons analysé les perturbations engendrées par le fusible sur le convertisseur. Celles-ci se traduisent principalement par l'introduction d'une inductance supplémentaire dans le circuit, laquelle pouvant être néfaste au fonctionnement du convertisseur. Nous avons proposé quelques règles de conception permettant de réduire l'inductance rajoutée.
2

Modélisation des procédés pour la correction des effets de proximity en lithographie électronique / Process modeling for proximity effect correction in electron beam lithography

Figueiro, Thiago Rosa 19 January 2015 (has links)
Depuis l'apparition du premier circuit intégré, le nombre de composants constituant une puce électronique n'a cessé d'augmenter tandis que les dimensions des composants ont continuellement diminué. Pour chaque nouveau nœud technologique, les procédés de fabrication se sont complexifiés pour permettre cette réduction de taille. L'étape de lithographie est une des étapes la plus critique pour permettre la miniaturisation. La technique de lithographie qui permet la production en masse est la lithographie optique par projection. Néanmoins cette technologie approche de ses limites en résolution et l'industrie cherche de nouvelles techniques pour continuer à réduire la taille des composants. Les candidats sont l'écriture en plusieurs passes, la lithographie EUV, l'écriture directe, la nano-impression ou l'auto-organisation dirigée. Même si ces alternatives reposent sur des principes très différents, chacune a en commun l'utilisation de la lithographie électronique à un moment ou à un autre de leur réalisation. La lithographie électronique est sujette à des phénomènes spécifiques qui impactent la résolution finale, tels la diffusion des électrons, le « fogging », la diffusion d'acide, la CMP etc… La solution choisie par l'industrie pour tenir compte de tous ces phénomènes est de les prévoir puis de les compenser. Cette correction nécessite de les prédire à l'aide de modélisation, la précision de ces modèles décrivant les procédés étant primordiale. Dans cette thèse, les concepts de base permettant de développer un modèle sont présentés. L'évaluation de la qualité des données, la méthodologie de choix d'un modèle ainsi que la validation de ce model sont introduites. De plus, les concepts d'analyse de sensibilité locale et globale seront définis. L'état de l'art des stratégies utilisées ou envisagées pour les procédés lithographiques actuels ou futurs sont énoncés, chacune des principales étapes lithographiques étant détaillée. Les modèles tenant compte de la physique et de la chimie impactant sur la résolution après écriture par e-beam sont étudiés. De plus, les modèles compacts permettant de prédire les résultats obtenus par e-beam seront détaillés, pour finalement décrire les limitations des stratégies actuelles. De nouveaux modèles compactes sont proposés en introduisant de nouvelles familles de fonctions telles que les fonctions Gamma ou les fonctions de Voigt. De plus, l'utilisation des fonctions d'interpolations de type Spline sont également proposés. Un modèle résine d'utilisation souple a également été développé pour tenir compte de la plupart des comportements expérimentaux observés en évaluant les dimensions de motifs d'un dessin en utilisant des métriques appropriés. Les résultats obtenus en utilisant de telles méthodes montrent une amélioration de la précision de la modélisation, notamment en ce qui concerne les motifs critiques. D'autres modèles spécifiques permettant de décrire les effets d'extrême longue portée ou permettant de compenser les déviations entre deux procédés sont également décrits dans ce travail. Le choix du jeu de motifs de calibration est critique pour permettre à l'algorithme de calibration d'obtenir des valeurs robustes des paramètres du modèle. Plusieurs stratégies utilisées dans la littérature sont brièvement décrites avant l'introduction d'une technique qui utilise l'analyse de sensibilité globale basée sur la variance afin de sélectionner les types de géométries optimales pour la calibration. Une stratégie permettant la sélection de ces motifs de calibration est détaillée. L'étude de l'impact du procédé et des incertitudes de mesures issue de la métrologie est également abordée, ce qui permet d'énoncer les limites à attendre du modèle sachant que les mesures peuvent être imprécises. Finalement, des techniques permettant de s'assurer de la qualité d'un modèle sont détaillées, telle l'utilisation de la validation croisée. La pertinence de ces techniques est démontrée pour quelques cas réel. / Since the development of the first integrated circuit, the number of components fabricated in a chip continued to grow while the dimensions of each component continued to be reduced. For each new technology node proposed, the fabrication process had to cope with the increasing complexity of its scaling down. The lithography step is one of the most critical for miniaturization due to the tightened requirements in both precision and accuracy of the pattern dimension printed into the wafer. Current mass production lithography technique is optical lithography. This technology is facing its resolution limits and the industry is looking for new approaches, such as Multi-patterning (MP), EUV lithography, Direct Write (DW), Nano-imprint or Direct Self-Assembly (DSA). Although these alternatives present significant differences among each other, they all present something in common: they rely on e-beam writers at some point of their flow. E-beam based lithography is subject to phenomena that impact resolution such as are electron scattering, fogging, acid diffusion, CMP loading, etc. The solution the industry adopted to address these effects is to predict and compensate for them. This correction requires predicting the effects, which is achieved through modeling. Hence the importance of developing accurate models for e-beam process. In this thesis, the basic concepts involving modeling are presented. Topics such as data quality, model selection and model validation are introduced as tools for modeling of e-beam lithography. Moreover, the concepts of local and global sensitivity analysis were also presented. Different strategies of global sensitivity analysis were presented and discussed as well as one of the main aspects in its evaluation, which is the space sampling approach. State-of-the-art strategies for todays and future lithography processes were presented and each of their main steps were described. First Principle models that explain the physics and chemistry of the most influential steps in the process resolution were also discussed. Moreover, general Compact models for predicting the results from e-beam lithography were also presented. Finally, some of the limitations of the current approach were described. New compact models described as Point-Spread-Function (PSF) are proposed based on new distributions, such as Gamma and Voigt. Besides, a technique using Splines for describing a PSF is also proposed. Moreover, a flexible resist model able to integrate most of the observed behavior was also proposed, based on evaluating any pattern on the layout using metrics. Results using such method further improved the any of the PSF distribution approach on the critical features that were limiting the future technology nodes. Other specific models and strategies for describing and compensating for extreme-long-range effects and for matching two different fabrication processes are also proposed and described in this work. The calibration layout is a key factor for providing the calibration algorithm with the experimental data necessary to determine the values of each of the parameters of the model. Several strategies from the literature were briefly described before introducing one of the main propositions of this thesis, which is employing variance-based global sensitivity analysis to determine which patterns are more suitable to be used for calibration. A complete flow for selecting patterns for a calibration layout was presented. A study regarding the impact of process and metrology variability over the calibration result was presented, indicating the limits one may expect from the generated model according to the quality of the data used. Finally, techniques for assuring the quality of a model such as cross-validation were also presented and demonstrated in some real-life situations.
3

Propriétés structurales et magnétiques d'agrégats mixtes CoxPt1-x et CoAg. Effets de proximité et blocage de Coulomb via un agrégat isolé

FAVRE, Luc 16 December 2004 (has links) (PDF)
Ce travail de thèse traite de la synthèse et de l'étude des propriétés d'agrégats mixtes magnétiques. Ils sont produits à l'aide d'une technique de co-dépôt utilisant source à vaporisation laser couplée avec une cellule d'évaporation. Les agrégats Co-Ag ont un diamètre moyen de 3,1 nm. L'argent ségrége pour former une structure coeur(Co)-coquille(Ag). Les agrégats CoPt ont une énergie d'anisotropie magnétique (MAE) supérieure à celle d'agrégats de cobalt pur. Ils possèdent un diamètre moyen de 2 nm et sont nanocristallisés dans une phase cfc chimiquement désordonnée. Des mesures de transport électronique à travers un agrégat CoPt isolé ont permis d'observer les effets du blocage de Coulomb et les niveaux d'énergie électroniques discrets de la particule. Nous avons également mesuré l'influence d'agrégats magnétiques sur la densité d'états locale d'une matrice supraconductrice de niobium. Nous avons pu mettre en évidence l'apparition d'états électroniques à l'intérieure de la bande interdite.
4

Analyse des modèles résine pour la correction des effets de proximité en lithographie optique

Top, Mame Kouna 12 January 2011 (has links) (PDF)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n'a donc été possible qu'en poussant les limites d'impression lithographique. Cependant en réduisant les largeurs des transistors et l'espace entre eux, on augmente la sensibilité du transfert à ce que l'on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor. L'utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s'inscrit dans une démarche d'analyse et d'évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l'analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l'utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l'analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d'analyse et de validation de ces modèles.
5

Analyse des modèles résines pour la correction des effets de proximité en lithographie optique

Top, Mame kouna 12 January 2011 (has links) (PDF)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n'a donc été possible qu'en poussant les limites d'impression lithographique. Cependant en réduisant les largeurs des transistors et l'espace entre eux, on augmente la sensibilité du transfert à ce que l'on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor.L'utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s'inscrit dans une démarche d'analyse et d'évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l'analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l'utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l'analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d'analyse et de validation de ces modèles.
6

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie

Saied, Mazen 30 September 2011 (has links) (PDF)
À l'heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d'effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d'actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d'instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d'évaluer le critèrede la stabilité. L'obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l'approximation de Kirchhoff, méthode qui, jusqu'à présent, est la plus utilisée dans la modélisationdu champ proche d'un masque. D'autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l'approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l'intermédiaire d'un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d'augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d'inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites.
7

Analyse des modèles résines pour la correction des effets de proximité en lithographie optique / Resist modeling analysis for optical proximity correction effect in optical lithography

Top, Mame Kouna 12 January 2011 (has links)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n’a donc été possible qu’en poussant les limites d’impression lithographique. Cependant en réduisant les largeurs des transistors et l’espace entre eux, on augmente la sensibilité du transfert à ce que l’on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor.L’utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s’inscrit dans une démarche d’analyse et d’évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l’analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l’utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l’analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d’analyse et de validation de ces modèles. / The Progress made in microelectronics responds to the matter of production costs reduction and to the search of new markets. These progresses have been possible thanks those made in optical lithography, the printing process principally used in integrated circuit (IC) manufacturing.The miniaturization of integrated circuits has been possible only by pushing the limits of optical resolution. However this miniaturization increases the sensitivity of the transfer, leading to more proximity effects at progressively more advanced technology nodes (45 and 32 nm in transistor gate size). The correction of these optical proximity effects is indispensible in photolithographic processes for advanced technology nodes. Techniques of optical proximity correction (OPC) enable to increase the achievable resolution and the pattern transfer fidelity for advanced lithographic generations. Corrections are made on the mask based on OPC models which connect the image on the resin to the changes made on the mask. The reliability of these OPC models is essential for the improvement of the pattern transfer fidelity.This thesis analyses and evaluates the OPC resist models which simulates the behavior of the resist after the photolithographic process. Data modeling and statistical analysis have been used to study these increasingly empirical resist models. Besides the model calibration data reliability, we worked on the way of using the models calibration platforms generally used in IC manufacturing.This thesis exposed the results of the analysis of OPC resist models and proposes a new methodology for OPC resist models creation, analysis and validation.
8

Caractérisation et modélisation des effets d'empilement des couches minces sous la résine photosensible pendant le procédé de photolithographie optique / Characterization and modeling of wafer stack effect during photolithography process step

Michel, Jean-Christophe 24 October 2014 (has links)
La photolithographie optique assure en partie à la microélectronique la miniaturisation des circuits électroniques. Afin de faire face à la limite de résolution de l'équipement de photolithographie, les industriels ont mis au point des techniques d'amélioration de la résolution dont certaines sont basées sur l'utilisation de la modélisation numérique. Jusqu'au nœud technologique 45 nm, cette modélisation ne prenait pas en compte la présence de plusieurs empilements de matériaux sous la résine photosensible négligeant ainsi les phénomènes de réflexion, de diffraction et d'ondes stationnaires. Pour les nœuds 32 nm et suivants, ces phénomènes rendent difficile le contrôle de la forme et des dimensions des motifs résine notamment pour les niveaux dont l'exposition s'effectue sans couche antireflet. Cette thèse CIFRE entre le laboratoire Hubert Curien de Saint- Etienne et l'industriel STMicroelectronique de Crolles traite de la caractérisation, de la modélisation et de la simulation numérique des effets d'empilement sous la résine photosensible. Le premier chapitre regroupe un ensemble de pensées sur la microélectronique, son histoire et définit les notions essentielles de ce domaine et de la modélisation numérique. Les chapitres deux et trois donnent respectivement l'état de l'art de la photolithographie optique et des techniques de correction des effets de proximité optique. Le chapitre quatre présente l'étude expérimentale, de la conception des structures test à la caractérisation des effets d'empilement en passant par le protocole de création des groupes de données. La prise en compte de ces effets est l'objet du chapitre cinq avec l'état de l'art des techniques existantes suivi de la description de l'algorithme de construction de modèles développé dans cette thèse. Enfin l'application de la méthode des sources généralisées à la photolithographie optique est évaluée dans le chapitre six / In IC manufacturing, optical photolithography is one of key actors of electronic circuit miniaturization. To work around the photolithography resolution limit, manufacturers developed resolution improvement techniques, including some based on numerical modeling. For nodes larger than 45 nm, this modeling didn't take into account several stacks under the photoresist and that caused optical reflection, diffraction, and standing wave phenomena to be neglected. For 32 nm and smaller nodes, these phenomena make it di cult to control the shape and dimensions of resist patterns, especially for layers without an anti-reflecting coating during exposure. The CIFRE thesis from Hubert Curien Laboratories in Saint-Etienne and industrial STMicroelectronics from Crolles deals with wafer stack effect characterization, modeling, and numerical simulation. The first chapter gives my philosophy and history of IC manufacturing, and defines concepts in this field and concepts about numerical modeling. Chapter Two discusses state-of-the-art optical photolithography and Chapter Three discusses state-of-the-art optical proximity correction. Chapter Four emphasizes an experimental study from test pattern conception to wafer stack effect characterization, including data set building protocol. Chapter Five covers wafer stack effect management, first describing the current status of the industry followed by a description of the model building algorithm developed during this thesis. Finally, Chapter Six assesses the generalized source method applied to the photolithography process simulation
9

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie / Study of the impact of different physical parameters during OPC model creation for 65nm and 45nm technologies

Saied, Mazen 30 September 2011 (has links)
À l’heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d’effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d’actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d’instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d’évaluer le critèrede la stabilité. L’obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l’approximation de Kirchhoff, méthode qui, jusqu’à présent, est la plus utilisée dans la modélisationdu champ proche d’un masque. D’autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l’approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l’intermédiaire d’un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d’augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d’inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites. / At present, common resist models utilized in photolithography to correct for optical proximity effects(OPC) became complex and less physical in order to capture the maximum of optical and chemical effectsin shorter times. The question on the stability of such models, purely empirical, become topical. In thisthesis, we study the stability of existing OPC models by examining the origins of model instability towardsprocess parameters. Thus, we have developed a perturbative method in order to evaluate the stabilitycriterion. However, achieving stable and simple models needs a separation between optical and otherchemical effects. Besides, multiple approximations, widely utilized in the modeling of optical systemsoperating at high numerical aperture, lead to residual errors which can degrade OPC model accuracyand stability. Thus, we were interested to study the limits of validity of the Kirchhoff approximation,a method which, so far, is the most commonly used in mask near-field modeling. Other semi-rigorousmethods for mask topography effect modeling were also evaluated. These approximate methods canimprove the accuracy but degrades the run time. We then suggested different techniques to correct formask topography effects, while keeping the Kirchhoff approximation in the modeling of the optical part.Among them, we showed that errors due to mask topography effects can be partially captured by asecond empirical model. However, in order to ensure a good accuracy, it is necessary to increase themodel complexity by using more additional empirical terms. Finally, in order to achieve a numericalstability of the empirical model, we introduced a new hybrid fast and accurate method, the multi-levelmethod, which allows us to correct for mask topography effects through a multi-level decomposition ofthe thin mask and discussed its advantages and drawbacks.

Page generated in 0.1027 seconds