• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 29
  • 3
  • Tagged with
  • 113
  • 113
  • 113
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modélisation et simulation du comportement spatiotemporel des transitions de phase dans les monocristaux moléculaires à transition de spin / Modeling and simulation of spatio-temporal behaviors of phase transitions in spin crossover single crystals

Paez Espejo, Miguel angel 23 June 2016 (has links)
Ce travail est dédié à la modélisation multi-échelle des phénomènes liés à la transition de spin dans des composés du Fe(II). Le développement d'un modèle macroscopique type réaction-diffusion pour la transition de phase à partir de l'Hamiltonien d'Ising a permis l'étude théorique des aspects spatio-temporels de la fraction haut-spin lors de la transition de phase du premier ordre dans des monocristaux commutables. La comparaison à l'expérience a conduit à de très bons accords pour le comportement du front de transition, ce qui a permis de mieux comprendre les mesures de microscopie optique. Ce travail a été étendu à l'étude des effets photo-thermiques qui causent l'échauffement du cristal par la lumière du microscope conduisant à un système d'équations différentielles couplées tenant compte du couplage thermique avec le bain.Ces équations prédisent des comportements non-linéaires du cristal dans son domaine bistable, tels que l’existence d’effets autocatalytiques, dont les conditions d'émergence ont été précisées. La dernière partie de la thèse est consacrée à une extension du modèle électro-élastique. Ici on démontre que la frustration élastique est à l'origine de la transition de spin en deux étapes et des transitions incomplètes. Ceci nous a amené aussi à prédire l'organisation de structures complexes de la fraction haut-spin dans les phases intermédiaires. Plusieurs types d'auto-organisation ont été révélés dont des structures modulées de la fraction haut-spin. Ce type de comportements a été observé expérimentalement très récemment dans les composés à transition de spin. / This work is devoted to the multiscale modeling of the spin transition phenomena in Fe(II) spin crossover compounds. The development of a macroscopic reaction-diffusion-like model for the phase transition from the Ising-like Hamiltonian allowed the theoretical study of the spatio-temporal behavior of the high-spin fraction accompanying the first-order phase transition in switchable spin crossover single crystals. The comparison to experiments led to an excellent agreement for the dynamics of the high-spin/low-spin interface which improved the understanding of the optical microscopy measurements. Next, this work was extended to the study of photothermic effects due to the crystal heating by the light of the microscope leading to a coupled system of differential equations accounting for the thermal coupling with the bath temperature. These equations predict nonlinear behaviors for crystals in the bistable region, such as the autocatalytic effects, for which we established the conditions of their emergence. The last part of this thesis is devoted to an extension of the electro-elastic model. Here we prove that the elastic frustration is at the origin of the existence of two-step and of incomplete spin crossover transitions. Furthermore, this model allowed us to predict structures of complex patterns in high-spin fractions for intermediate phases. Several types of self-organisation were revealed such as the spatially-modulated structures of the high-spin fractions. Some of these behaviors have been experimentally observed, very recently, in spin crossover compounds.
72

Qu'est-il arrivé au taux d'intérêt neutre canadien après la crise financière de 2008?

Rocheleau, William 09 November 2022 (has links)
Selon Dorich et al. (2017), la Banque du Canada estime que le taux d'intérêt neutre nominal, qui se situait autour de 5% dans les années 1990, a chuté pour atteindre un peu moins de 4% vers le milieu des années 2000. Ce travail a comme objectif de confirmer ou d'infirmer la conjecture selon laquelle la baisse du taux d'intérêt neutre au Canada se serait poursuivie après la crise financière de 2008. Cette conjecture a été avancée par certains économistes en raison de la faible inflation observée après la crise financière de 2008 malgré un taux directeur extrêmement bas (proche de 0%). Plusieurs économistes de la Banque du Canada se sont déjà attardés à cette problématique, notamment Mendes (2014) et Dorich et al. (2017). Afin de confirmer ou d'infirmer cette conjecture, le taux d'intérêt neutre au Canada après la crise financière de 2008 est estimé dans ce travail en utilisant une analyse économétrique rigoureuse. Plus précisément, un modèle de bris structurel couplé à une approche bayésienne avec Monte-Carlo par chaînes de Markov est employé. Ce travail s'inspire de certaines spécifications postulées dans Laubach et Williams (2003) ainsi que de la méthodologie énoncée dans Gordon et Bélanger (1996). Les données trimestrielles utilisées dans ce travail couvrent la période allant du premier trimestre de 1993 jusqu'au quatrième trimestre de 2019. À la lumière des résultats obtenus, il est possible de confirmer la conjecture selon laquelle il y aurait eu une baisse du taux d'intérêt neutre au Canada après la crise économique de 2008. En effet, la simulation effectuée semble placer le taux d'intérêt neutre nominal dans une fourchette de 4.00% à 4.25% pour la période allant du premier trimestre de 1993 jusqu'au deuxième et troisième trimestre de 2008, alors qu'il semble plutôt se situer dans une fourchette de 0.65% à 1.00% pour la période allant du deuxième et troisième trimestre de 2008 jusqu'au quatrième trimestre de 2019. / According to Dorich et al. (2017), Bank of Canada's estimates of the nominal neutral rate of interest, which were around 5% in the 1990's, fell to just under 4% in the early beginning of the 2000's. This paper aims to confirm or invalidate the conjecture that the decline in the neutral rate of interest in Canada has continued after the financial crisis of 2008. This conjecture was put forward by some economists because of the low inflation observed after the financial crisis of 2008 despite an extremely low policy rate (close to 0%). Several Bank of Canada economists have already worked on this issue, including Mendes (2014) and Dorich et al. (2017). In order to confirm or refute this conjecture, the neutral rate of interest in Canada after the financial crisis of 2008 is estimated in this work using a rigorous econometric analysis. More precisely, a structural break model coupled with a Bayesian approach with Markov Chain Monte Carlo is used. This paper uses certain specifications postulated in Laubach et Williams (2003) as well as the methodology stated in Gordon et Bélanger (1996). The quarterly data used in this work covers the period from the first quarter of 1993 to the fourth quarter of 2019. In light of the results obtained, it is possible to confirm the conjecture stating that there has been a drop in the neutral rate of interest in Canada after the economic crisis of 2008. Indeed, the simulation carried out seems to place the nominal neutral rate of interest in a range of 4.00% to 4.25% for the period going from the first quarter of 1993 to the second and third quarters of 2008, while it seems to be in a range of 0.65% to 1.00% for the period going from the second and third quarters of 2008 to the fourth quarter of 2019.
73

L'utilisation des méthodes Monte Carlo pour la caractérisation des hétérogénéités et de leurs conséquences radiobiologiques en curiethérapie

Afsharpour, Hossein 18 April 2018 (has links)
Les algorithmes cliniques de dosimétrie en curiethérapie se basent principalement sur les recommandations du « Task Groupe 43 » de l'association américaine des physiciens en médecine. Ces algorithmes sont des méthodes approximatives de calcul de dose et négligent des phénomènes physiques importants qui affectent les distributions de dose. Tout d'abord, l'hétérogénéité des tissus est systématiquement négligée en remplaçant les tissus humains par de l'eau. Ainsi l'effet de la composition chimique et de la densité des tissus ne peut pas être pris en compte pour les calculs dosimétriques. Les méthodes de dosimétrie clinique négligent aussi l'impact de la présence des sources ou des applicateurs sur les distributions de dose. Le but de ce projet est d'étudier l'origine des hétérogénéités et de quantifier leurs impacts sur la dosimétrie et sur l'évaluation radiobiologique des traitements de curiethérapie par implant permanent. Pour cela, une plateforme de calcul dosimétrique est conçue en utilisant les méthodes Monte Carlo. Cette plateforme est capable de considérer et de reproduire la géométrie des implants en détails, sur la base du protocole DICOM-RT. Ainsi, la première partie de cette thèse sera entamée par une étude de l'atténuation intersource et son lien avec la conception des sources de curiethérapie. Nous allons ensuite étudier l'effet de l'hétérogénéité des tissus sur les distributions de dose et démontrerons la grande sensibilité de la curiethérapie du sein à la composition des tissus. La première partie de cette thèse sera complétée par une proposition de différents protocoles de segmentation des tissus du sein qui pourraient être utilisés en curiethérapie à basse énergie. Dans la deuxième partie de ce projet nous étudierons l'effet des hétérogénéités du milieu et de la dose sur l'évaluation radiobiologique en curiethérapie. Nous verrons comment l'efficacité radiobiologique est sous- ou sur-estimée quand la distribution de dose n'est pas considérée de façon appropriée. Finalement nous allons tenter d'apporter un élément de réponse au débat sur la valeur du paramètre de la radiosensibilité pour le cancer de la prostate. Nous démontrerons que l'estimation de a/ft pour le cancer de la prostate change dépendamment du niveau d'hétérogénéité considéré dans les calculs dosimétriques.
74

Forecasting quantiles of cryptocurrency returns using MCMC algorithms

Chaparro Sepulveda, Carlos Alberto 21 December 2021 (has links)
Ce travail résume les étapes et les technologies nécessaires pour construire une application web dynamique permettant de faire l'analyse de données financières en temps réel à l'aide des langages de programmation R et C++. R est utilisé pour la collecte et traitement des données entrantes ainsi que pour générer tout output. C++ est utilisé pour accélérer les simulations Monte-Carlo. L'output de ce travail consiste en l'application web elle-même et les fonctions permettant d'estimer les paramètres des modèles de régression quantile de la famille CAViaR. Le code pour reproduire ce travail est organisé de la façon suivante : Un paquetage R pour l'application shiny, disponible à l'adresse https://gitlab.com/cacsfre/simulr. Un paquetage R pour estimer les paramètres des modèles de la famille CAViaR, disponible à l'adresse https://gitlab.com/cacsfre/caviarma. Le code R pour générer le présent document avec bookdown, disponible à l'adresse https://gitlab.com/cacsfre/msc. La famille de modèles CAViaR a été utilisée pour obtenir une estimation du quantile q[indice α] au niveau α. Ces modèles s'adressent directement au quantile d'intérêt au lieu de le calculer indirectement comme dans d'autres cas, par exemple les modèles de type GARCH où l'on s'intéresse plutôt à la volatilité σ² . Les résultats obtenus ici sont comparables à ceux se trouvant dans la littérature tel qu'illustré dans les chapitres 3 et 4.
75

Qu'est-il arrivé au taux d'intérêt neutre canadien après la crise financière de 2008?

Rocheleau, William 09 November 2022 (has links)
Selon Dorich et al. (2017), la Banque du Canada estime que le taux d'intérêt neutre nominal, qui se situait autour de 5% dans les années 1990, a chuté pour atteindre un peu moins de 4% vers le milieu des années 2000. Ce travail a comme objectif de confirmer ou d'infirmer la conjecture selon laquelle la baisse du taux d'intérêt neutre au Canada se serait poursuivie après la crise financière de 2008. Cette conjecture a été avancée par certains économistes en raison de la faible inflation observée après la crise financière de 2008 malgré un taux directeur extrêmement bas (proche de 0%). Plusieurs économistes de la Banque du Canada se sont déjà attardés à cette problématique, notamment Mendes (2014) et Dorich et al. (2017). Afin de confirmer ou d'infirmer cette conjecture, le taux d'intérêt neutre au Canada après la crise financière de 2008 est estimé dans ce travail en utilisant une analyse économétrique rigoureuse. Plus précisément, un modèle de bris structurel couplé à une approche bayésienne avec Monte-Carlo par chaînes de Markov est employé. Ce travail s'inspire de certaines spécifications postulées dans Laubach et Williams (2003) ainsi que de la méthodologie énoncée dans Gordon et Bélanger (1996). Les données trimestrielles utilisées dans ce travail couvrent la période allant du premier trimestre de 1993 jusqu'au quatrième trimestre de 2019. À la lumière des résultats obtenus, il est possible de confirmer la conjecture selon laquelle il y aurait eu une baisse du taux d'intérêt neutre au Canada après la crise économique de 2008. En effet, la simulation effectuée semble placer le taux d'intérêt neutre nominal dans une fourchette de 4.00% à 4.25% pour la période allant du premier trimestre de 1993 jusqu'au deuxième et troisième trimestre de 2008, alors qu'il semble plutôt se situer dans une fourchette de 0.65% à 1.00% pour la période allant du deuxième et troisième trimestre de 2008 jusqu'au quatrième trimestre de 2019. / According to Dorich et al. (2017), Bank of Canada's estimates of the nominal neutral rate of interest, which were around 5% in the 1990's, fell to just under 4% in the early beginning of the 2000's. This paper aims to confirm or invalidate the conjecture that the decline in the neutral rate of interest in Canada has continued after the financial crisis of 2008. This conjecture was put forward by some economists because of the low inflation observed after the financial crisis of 2008 despite an extremely low policy rate (close to 0%). Several Bank of Canada economists have already worked on this issue, including Mendes (2014) and Dorich et al. (2017). In order to confirm or refute this conjecture, the neutral rate of interest in Canada after the financial crisis of 2008 is estimated in this work using a rigorous econometric analysis. More precisely, a structural break model coupled with a Bayesian approach with Markov Chain Monte Carlo is used. This paper uses certain specifications postulated in Laubach et Williams (2003) as well as the methodology stated in Gordon et Bélanger (1996). The quarterly data used in this work covers the period from the first quarter of 1993 to the fourth quarter of 2019. In light of the results obtained, it is possible to confirm the conjecture stating that there has been a drop in the neutral rate of interest in Canada after the economic crisis of 2008. Indeed, the simulation carried out seems to place the nominal neutral rate of interest in a range of 4.00% to 4.25% for the period going from the first quarter of 1993 to the second and third quarters of 2008, while it seems to be in a range of 0.65% to 1.00% for the period going from the second and third quarters of 2008 to the fourth quarter of 2019.
76

Analyse numérique d’équations aux dérivées aléatoires, applications à l’hydrogéologie / Numerical analysis of partial differential equations with random coefficients, applications to hydrogeology

Charrier, Julia 12 July 2011 (has links)
Ce travail présente quelques résultats concernant des méthodes numériques déterministes et probabilistes pour des équations aux dérivées partielles à coefficients aléatoires, avec des applications à l'hydrogéologie. On s'intéresse tout d'abord à l'équation d'écoulement dans un milieu poreux en régime stationnaire avec un coefficient de perméabilité lognormal homogène, incluant le cas d'une fonction de covariance peu régulière. On établit des estimations aux sens fort et faible de l'erreur commise sur la solution en tronquant le développement de Karhunen-Loève du coefficient. Puis on établit des estimations d'erreurs éléments finis dont on déduit une extension de l'estimation d'erreur existante pour la méthode de collocation stochastique, ainsi qu'une estimation d'erreur pour une méthode de Monte-Carlo multi-niveaux. On s'intéresse enfin au couplage de l'équation d'écoulement considérée précédemment avec une équation d'advection-diffusion, dans le cas d'incertitudes importantes et d'une faible longueur de corrélation. On propose l'analyse numérique d'une méthode numérique pour calculer la vitesse moyenne à laquelle la zone contaminée par un polluant s'étend. Il s'agit d'une méthode de Monte-Carlo combinant une méthode d'élements finis pour l'équation d'écoulement et un schéma d'Euler pour l'équation différentielle stochastique associée à l'équation d'advection-diffusion, vue comme une équation de Fokker-Planck. / This work presents some results about probabilistic and deterministic numerical methods for partial differential equations with stochastic coefficients, with applications to hydrogeology. We first consider the steady flow equation in porous media with a homogeneous lognormal permeability coefficient, including the case of a low regularity covariance function. We establish error estimates, both in strong and weak senses, of the error in the solution resulting from the truncature of the Karhunen-Loève expansion of the coefficient. Then we establish finite element error estimates, from which we deduce an extension of the existing error estimate for the stochastic collocation method along with an error estimate for a multilevel Monte-Carlo method. We finally consider the coupling of the previous flow equation with an advection-diffusion equation, in the case when the uncertainty is important and the correlation length is small. We propose the numerical analysis of a numerical method, which aims at computing the mean velocity of the expansion of a pollutant. The method consists in a Monte-Carlo method, combining a finite element method for the flow equation and an Euler scheme for the stochastic differential equation associated to the advection-diffusion equation, seen as a Fokker-Planck equation.
77

Conception de récepteurs solaires à lit fluidisé sous flux radiatif concentré / Design of fluidized bed solar receivers under concentrated radiative flux

Baud, Germain 08 November 2011 (has links)
L'objectif de ce travail est d’évaluer le positionnement et le potentiel des récepteurs à lit fluidisé à changement de section par rapport aux autres méthodes de chauffage de gaz à haute température par voie solaire. A cette fin, une connaissance approfondie des phénomènes thermiques et hydrodynamiques du récepteur est nécessaire. Pour acquérir cette connaissance, nous avons modélisé les transferts thermiques dans le récepteur en portant une attention particulière sur les transferts radiatifs en prenant en compte les diffusions multiples de la lumière dans le milieu particulaire, les effets de parois sur les transferts radiatifs et la directionnalité du rayonnement solaire concentré. La détermination précise de la distribution de particules dans le ciel du lit fluidisé s'est avérée un paramètre critique pour le calcul des transferts thermiques. Ces modèles, plus tard affinés par une confrontation avec des références expérimentales, nous ont permis d'explorer l'effet de la géométrie sur les transferts thermiques dans le récepteur. Il ont permis entre autres de mettre en évidence l'intérêt d'utiliser une colonne de fluidisation à changement de section et l'importance de l'optimisation du couple concentrateur solaire / récepteur afin d'éviter d'éventuelles surchauffes au niveau des parois du récepteur. De même, il semble que l'homogénéisation de la température dans le lit fluidisé contenu dans le récepteur soit favorable à son rendement. / The aim of this work is to evaluate the position and the potential of solar fluidized bed receivers compared to other methods for the solar heating of gases at high temperature. To this end, a thorough knowledge of the heat transfer and hydrodynamic of the receiver is necessary. To acquire this knowledge, we modeled the heat transfer in the receiver with a focus on the radiative transfer by taking into account the multiple scattering of light in the particle medium, the effect of walls on radiative heat transfer and the directionality of the concentrated solar radiation. The accurate determination of the distribution of particles within the fluidized bed has been a critical parameter for the calculation of heat transfer. With these models, later refined by a confrontation with experimental references, we have studied the effect of geometry on heat transfer in the receiver. This study highlighted the necessity to use a switching section fluidization column and the importance to optimize the pair : solar concentrator / receiver to avoid any overheating at the walls of the receiver. Moreover, it appears that the homogenization of the temperature in the fluidized bed of the receiver increase its performance.
78

Estimation de la vitesse des courants marins à partir de séquences d'images satellitaires / Oceanic currents estimation from satellite image sequences

Beyou, Sébastien 12 July 2013 (has links)
Cette thèse étudie des méthodes d'assimilation de données par filtrage particulaire à l'estimation d'écoulements fluides observés au travers de séquences d'images. Nous nous appuyons sur un filtre particulaire spécifique dont la distribution de proposition est donnée par un filtre de Kalman d'ensemble, nommé filtre de Kalman d'ensemble pondéré. Deux variations à celui-ci sont introduites et étudiées. La première consiste à utiliser un bruit dynamique (permettant de modéliser l'incertitude du modèle et de séparer les particules entre elles) dont la forme spatiale suit une loi de puissance, cohérente avec la théorie phénoménologique de la turbulence. La deuxième variation repose sur un schéma d'assimilation multi-échelles introduisant un mécanisme de raffinements successifs à partir d'observations à des échelles de plus en plus petites. Ces deux méthodes ont été testées sur des séquences synthétiques et expérimentales d'écoulements 2D incompressibles. Ces résultats montrent un gain important sur l'erreur quadratique moyenne. Elles ont ensuite été testées sur des séquences d'images satellite réelles. Sur les images réelles, une bonne cohérence temporelle est observée, ainsi qu'un bon suivi des structures de vortex. L'assimilation multi-échelles montre un gain visible sur le nombre d'échelles reconstruites. Quelques variations additionnelles sont aussi présentées et testées afin de s'affranchir de problèmes importants rencontrés dans un contexte satellitaire réel. Il s'agit notamment de la prise en compte de données manquantes sur les images de température de surface de l'océan. En dernier lieu, une expérience d'un filtre de Kalman d'ensemble pondéré avec un modèle océanique complet est présentée pour une assimilation de champs de courants de surface en mer d'Iroise, à l'embouchure de la Manche. Quelques autres pistes d'amélioration sont également esquissées et testées. / This thesis studies fluid flows estimation with particle filtering-based assimilation methods imaged using digital cameras. We rely on a specific particle filter, of which the proposal distribution is given by an Ensemble Kalman Filter, namely the Weighted Ensemble Kalman Filter. Two variations of this method are introduced and tested. The first consists in using a dynamical noise (which modelizes the model uncertainty and separates the particles from each others); its spatial form obeys to a power law stemming from the phenomenological theory of the turbulence. The second variation relies on a multiscale assimilation scheme introduicing successive refinements from observations at smaller and smaller scales. These two methods are tested on synthetic and experimental sequences of 2D incompressible flows. Results show an important gain on the Root Mean Square Error. They are then tested on real satellite images. A good temporal coherence and a good tracking of vortex structures are observed on the real images. The multiscale assimilation shows a visible gain on the number of reconstructed scales. Some additional variations are also presented and tested in order to take into account important problems in a real satellite context. The main contribution is the management of missing data areas in the Sea Surface Temperature sequence. Lastly an experiment involving a Weighted Ensemble Kalman Filter with a complete oceanic model is presented for a surface currents fields assimilation in Iroise Sea near the English Channel mouth. Some other improvements are also drawn and tested.
79

Influence des fautes transitoires sur la fiabilité d'un système contrôlé en réseau / Impact of transient faults on the reliability evaluation of a networked control system

Ghostine, Rony 12 June 2008 (has links)
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau (SCR). La capacité des systèmes de commandes à compenser les effets de certaines défaillances de composants amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement. Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation d'autre part. Après, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. La méthode de Monte Carlo est utilisée pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance / Achieved work in this thesis deals with dependability evaluation of networked controlled system (NCS). The ability of control system to offset the effects of some components’ failure leads to redefine the concept of system failure. Consequently the reliability evaluation is dependent on functional parameters and becomes impossible with traditional dependability methods. This work aims at bringing a contribution relative to this aspect. To overcome these difficulties, an approach based on both modelling and simulation is proposed. We choose to work with stochastic activity network (SAN) widely used in modelling communication protocols as well as in dependability studies. First we sought to identify the incidence of two types of transient faults: loss of samples and delay within the control loop. Next we simulate the behaviour in the presence of two types of disturbances at the same time highlighting the cumulative effects. In fact the origin of the loss or delay information inside the control loop is due to the presence of the network, this aspect must be taken into account, that is why we introduce a new model representing the Controller Area Network (CAN) and injection of possible perturbations. Monte-Carlo method is used to estimate dependability parameters showing the influence of some factors such as network load for example. We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing systems to meet requirements on certain performance parameters
80

Méthodes statistiques pour l’estimation du rendement paramétrique des circuits intégrés analogiques et RF / Statistical methods for the parametric yield estimation of analog/RF integratedcircuits

Desrumaux, Pierre-François 08 November 2013 (has links)
De nombreuses sources de variabilité impactent la fabrication des circuits intégrés analogiques et RF et peuvent conduire à une dégradation du rendement. Il est donc nécessaire de mesurer leur influence le plus tôt possible dans le processus de fabrications. Les méthodes de simulation statistiques permettent ainsi d'estimer le rendement paramétrique des circuits durant la phase de conception. Cependant, les méthodes traditionnelles telles que la méthode de Monte Carlo ne sont pas assez précises lorsqu'un faible nombre de circuits est simulé. Par conséquent, il est nécessaire de créer un estimateur précis du rendement paramétrique basé sur un faible nombre de simulations. Dans cette thèse, les méthodes statistiques existantes provenant à la fois de publications en électroniques et non-Électroniques sont d'abord décrites et leurs limites sont mises en avant. Ensuite, trois nouveaux estimateurs de rendement sont proposés: une méthode de type quasi-Monte Carlo avec tri automatique des dimensions, une méthode des variables de contrôle basée sur l'estimation par noyau, et une méthode par tirage d'importance. Les trois méthodes reposent sur un modèle mathématique de la métrique de performance du circuit qui est construit à partir d'un développement de Taylor à l'ordre un. Les résultats théoriques et expérimentaux obtenus démontrent la supériorité des méthodes proposées par rapport aux méthodes existantes, à la fois en terme de précision de l'estimateur et en terme de réduction du nombre de simulations de circuits. / Semiconductor device fabrication is a complex process which is subject to various sources of variability. These variations can impact the functionality and performance of analog integrated circuits, which leads to yield loss, potential chip modifications, delayed time to market and reduced profit. Statistical circuit simulation methods enable to estimate the parametric yield of the circuit early in the design stage so that corrections can be done before manufacturing. However, traditional methods such as Monte Carlo method and corner simulation have limitations. Therefore an accurate analog yield estimate based on a small number of circuit simulations is needed. In this thesis, existing statistical methods from electronics and non-Electronics publications are first described. However, these methods suffer from sever drawbacks such as the need of initial time-Consuming circuit simulations, or a poor scaling with the number of random variables. Second, three novel statistical methods are proposed to accurately estimate the parametric yield of analog/RF integrated circuits based on a moderate number of circuit simulations: An automatically sorted quasi-Monte Carlo method, a kernel-Based control variates method and an importance sampling method. The three methods rely on a mathematical model of the circuit performance metric which is constructed based on a truncated first-Order Taylor expansion. This modeling technique is selected as it requires a minimal number of SPICE-Like circuit simulations. Both theoretical and simulation results show that the proposed methods lead to significant speedup or improvement in accuracy compared to other existing methods.

Page generated in 0.0919 seconds