• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 35
  • 3
  • 1
  • Tagged with
  • 515
  • 187
  • 142
  • 103
  • 84
  • 80
  • 67
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Contribution à la commande d’un moteur asynchrone destiné à la traction électrique / Contribution to induction motor control for electric traction

Mehazzem, Fateh 06 December 2010 (has links)
Le travail présenté dans cette thèse a pour objectif d'apporter une contribution aux méthodes de commande et d'observation des machines asynchrones destinées à la traction électrique. Dans ce contexte, plusieurs algorithmes ont été développés et implémentés. Après une présentation rapide de la commande vectorielle classique, de nouvelles approches de commande non linéaire sont proposées : il s'agit plus précisément de la commande backstepping classique et sa variante avec action intégrale. Une deuxième partie est consacrée à l'observation et à l'estimation des paramètres et des états de la machine, basée sur des structures MRAS-modes glissants d'une part et sur des structures de filtrage synchrone d'autre part. Une analyse détaillée du problème de fonctionnement à basse vitesse nous a conduit à proposer une solution originale dans le cadre d'une commande sans capteur mécanique. Le problème de la dégradation du couple en survitesse a été traité par un algorithme de défluxage basé sur la conception d'un contrôleur de tension. Enfin, nous avons proposé un algorithme d'optimisation afin de minimiser les pertes dans l'ensemble Onduleur-Machine / The work presented in this thesis aims to contribute to the control and observation of the induction machines for electric traction. Several algorithms have been developed and implemented. After a fast presentation of the classical vector control, new approaches of non-linear control are proposed : the classical backstepping and integral backstepping. A second part deals with the observation and the estimation of parameters and states of the machine, based on MRAS-Sliding Mode structures on one hand and on synchronous filtering structures on the other hand. A detailed analysis of the operation at low speed led us to propose an original solution for a Sensorless control. The torque degradation in field weakening zone was treated by a voltage regulation controller. Finally, we proposed losses minimization algorithm for the Inverter-Machine set
422

Système de mesure d'impédance électrique embarqué, application aux batteries Li-ion / Study of a battery monitoring system for electric vehicle, application for Li-ion batteries

Nazer, Rouba Al 24 January 2014 (has links)
La mesure d'impédance électrique en embarqué sur véhicule est un sujet clé pour améliorer les fonctions de diagnostic d'un pack batterie. On cherche en particulier à fournir ainsi des mesures supplémentaires à celles du courant pack et des tensions cellules, afin d'enrichir les indicateurs de vieillissement dans un premier temps, et d'état de santé et de charge dans un second temps. Une méthode classique de laboratoire pour obtenir des mesures d'impédance d'une batterie est la spectroscopie d'impédance électrochimique (ou EIS). Elle consiste à envoyer un signal sinusoïdal en courant (ou tension) de fréquence variable balayant une gamme de fréquences d'intérêt et mesurer ensuite la réponse en tension (ou courant) pour chaque fréquence. Une technique d'identification active basée sur l'utilisation des signaux large bande à motifs carrés est proposée. En particulier, des simulations ont permis de comparer les performances d'identification de différents signaux d'excitation fréquemment utilisés dans le domaine de l'identification et de vérifier les conditions correspondant à un comportement linéaire et invariant dans le temps de l'élément électrochimique. L'évaluation de la qualité d'estimation est effectuée en utilisant une grandeur spécifique : la cohérence. Cette grandeur statistique permet de déterminer un intervalle de confiance sur le module et la phase de l'impédance estimée. Elle permet de sélectionner la gamme de fréquence où la batterie respecte les hypothèses imposées par la méthode d'identification large bande. Afin de valider les résultats, une électronique de test a été conçue. Les résultats expérimentaux permettent de mettre en valeur l'intérêt de cette approche par motifs carrés. Un circuit de référence est utilisé afin d'évaluer les performances en métrologie des méthodes. L'étude expérimentale est ensuite poursuivie sur une batterie Li-ion soumise à un courant de polarisation et à différents états de charge. Des essais comparatifs avec l'EIS sont réalisés. Le cahier de charge établi à l'aide d'un simulateur de batterie Li-ion a permis d'évaluer les performances de la technique large bande proposée et de structurer son utilité pour l'estimation des états de vieillissement et de charge. / Embedded electrical impedance measurement is a key issue to enhance battery monitoring and diagnostic in a vehicle. It provides additional measures to those of the pack's current and cell's voltage to enrich the aging's indicators in a first time, and the battery states in a second time. A classical method for battery impedance measurements is the electrochemical impedance spectroscopy (EIS). At each frequency, a sinusoidal signal current (or voltage) of a variable frequency sweeping a range of frequencies of interest is at the input of the battery and the output is the measured voltage response (or current). An active identification technique based on the use of wideband signals composed of square patterns is proposed. Particularly, simulations were used to compare the performance of different excitation signals commonly used for system identification in several domains and to verify the linear and time invariant behavior for the electrochemical element. The evaluation of the estimation performance is performed using a specific quantity: the spectral coherence. This statistical value is used to give a confidence interval for the module and the phase of the estimated impedance. It allows the selection of the frequency range where the battery respects the assumptions imposed by the non-parametric identification method. To experimentally validate the previous results, an electronic test bench was designed. Experimental results are used to evaluate the wideband frequency impedance identification. A reference circuit is first used to evaluate the performance of the used methodology. Experimentations are then done on a Li–ion battery. Comparative tests with EIS are realized. The specifications are established using a simulator of Li-ion battery. They are used to evaluate the performance of the proposed wide band identification method and fix its usefulness for the battery states estimation: the state of charge and the state of health.
423

Modélisation graphique et simulation en traitement d'information quantique / Graph modeling and simulation in quantum information processing

Cattaneo, David 04 December 2017 (has links)
Le formalisme des états graphes consiste à modéliser des états quantiques par des graphes. Ce formalisme permet l'utilisation des notions et des outils de théorie des graphes (e.g. flot, domination, méthodes probabilistes) dans le domaine du traitement de l'information quantique. Ces dernières années, cette modélisation combinatoire a permis plusieurs avancées décisives, notamment (i) dans la compréhension des propriétés de l'intrication quantique (ii) dans l'étude des modèles de calcul particulièrement prometteurs en terme d'implémentation physique, et (iii) dans l'analyse et la construction de protocoles de cryptographie quantique. L'objectif de cette thèse est d'étudier les propriétés graphiques émergeant des problématiques d'informatique quantique, notamment pour la simulation quantique. En particulier, l'étude des propriétés de causalité et de localité des états graphes, en étendant par exemple la notion existante de flot de causalité à une notion intégrant des contraintes de localité, permettrait d'ouvrir de nouvelles perspectives pour la simulation de systèmes quantiques à l'aide d'états graphes. Des connections formelles avec les automates cellulaires quantiques bruités pourront également émerger de cette étude. / Graph States formalism consist in using graphs to model quantum states. This formalism allows us to use notion and tools of graph theory (e.g. flow, domination, probabilistic methods) in quantum information processing. Last years, this combinatorial modelisation had lead to many decisiv breakthroughs, in particular (i) in the comprehension of the quantum entranglement properties (ii) in very promising in term of physical implementation quantum calculus model, and (iii) in the analysis and construction of quantum cryptography protocols. The goal of this thesis is to study the graphic properties emerging of those quantum information processing problematics, especially for quantum simulation. In particular, the properties of causality and locality in graph states, by extanding for exemple the existing notion of causality flows to a notion integring the locality constraints, would allow new perspectives for the quantum system simulation using graphs states. Formal connections with noisy quantum cellular automata would emerge from this study.
424

Reconstruction adaptative des signaux par optimisation convexe / Adaptive signals recovery by convex optimization

Ostrovskii, Dmitrii 11 January 2018 (has links)
Nous considérons le problème de débruitage d'un signal ou d'une image observés dans le bruit gaussien. Dans ce problème les estimateurs linéaires classiques sont quasi-optimaux quand l'ensemble des signaux, qui doit être convexe et compact, est connu a priori. Si cet ensemble n'est pas spécifié, la conception d'un estimateur adaptatif qui ``ne connait pas'' la structure cachée du signal reste un problème difficile. Dans cette thèse, nous étudions une nouvelle famille d'estimateurs des signaux satisfaisant certains propriétés d'invariance dans le temps. De tels signaux sont caractérisés par leur structure harmonique, qui est généralement inconnu dans la pratique.Nous proposons des nouveaux estimateurs capables d'exploiter la structure harmonique inconnue du signal è reconstruire. Nous démontrons que ces estimateurs obéissent aux divers "inégalités d'oracle," et nous proposons une implémentation algorithmique numériquement efficace de ces estimateurs basée sur des algorithmes d'optimisation de "premier ordre." Nous évaluons ces estimateurs sur des données synthétiques et sur des signaux et images réelles. / We consider the problem of denoising a signal observed in Gaussian noise.In this problem, classical linear estimators are quasi-optimal provided that the set of possible signals is convex, compact, and known a priori. However, when the set is unspecified, designing an estimator which does not ``know'' the underlying structure of a signal yet has favorable theoretical guarantees of statistical performance remains a challenging problem. In this thesis, we study a new family of estimators for statistical recovery of signals satisfying certain time-invariance properties. Such signals are characterized by their harmonic structure, which is usually unknown in practice. We propose new estimators which are capable to exploit the unknown harmonic structure of a signal to reconstruct. We demonstrate that these estimators admit theoretical performance guarantees, in the form of oracle inequalities, in a variety of settings.We provide efficient algorithmic implementations of these estimators via first-order optimization algorithm with non-Euclidean geometry, and evaluate them on synthetic data, as well as some real-world signals and images.
425

Analyse du cycle économique. Datation et prévision / Business Cycle Analysis. Dating and Forecasting

Majetti, Reynald 07 November 2013 (has links)
La « Grande Récession » de 2008-2009 ou encore l'aggravation de la crise des dettes souveraines et de la dette publique dans la zone euro à l'été 2011, constituent de récents événements qui ont cristallisé les enjeux de l'analyse conjoncturelle, ceux relatifs notamment à la datation et à la prévision des inflexions cycliques de l'activité réelle. L'objet de cette thèse s'inscrit fondamentalement au sein de ces deux approches complémentaires du cycle économique.Le chapitre 1 dresse un portrait du cycle autour de trois conceptions distinctes de ses points de retournement : le cycle classique, le cycle de croissance et le cycle d'accélération. Nous discutons également de sa mesure eu égard aux diverses représentations possibles de l'activité agrégée d'un pays, ainsi qu'aux deux traditions existantes dans lesquelles s'inscrivent les modèles de datation. Nous mettons par ailleurs en lumière l'influence grandissante de l'environnement financier sur la dynamique cyclique des économies. Le chapitre 2 nous amène à développer deux algorithmes non-paramétriques dans le but de repérer les inflexions propres à chacun des cycles auparavant conceptualisés, mais aussipour en mesurer leurs principales caractéristiques. Le premier (resp. le second) algorithme repose sur une représentation univariée (resp. multivariée) de l'activité économique globale ; in fine, nous les appliquons aux données de la conjoncture française entre 1970 et 2010. Le chapitre 3 tire parti de nos résultats en matière de datation conjoncturelle afin de prévoir les récessions françaises depuis 1974. Au moyen de modèles probits, nous illustrons le rôle de variables financières et monétaires en tant qu'indicateurs avancés des fluctuations du cycle des affaires français. Nous montrons de plus que nos modèles prédictifs assurent uneparfaite détection des récessions pour un horizon égal à deux trimestres.Le chapitre 4 prolonge l'ensemble de l'analyse à plusieurs États membres de la zoneeuro, ces derniers étant observés depuis 1979. Nous construisons d'abord une chronologie de leurs cycles classiques respectifs puis, nous proposons un examen de leurs caractéristiques moyennes et de leur degré de synchronisation. Enfin, en s'appuyant sur des indicateurs financiers et monétaires dans le cadre d'un probit dynamique à effets fixes, nous parvenons à anticiper - jusqu'à un horizon de deux trimestres - les épisodes récessifs survenus dans les économies considérées. / The « Great Recession » of 2008-2009 and the sovereign and public debt crises which strengthened in the euro area in the summer of 2011 are recent events that have crystallized the challenges facing economic analysis, especially those related to dating and predicting cyclical inflections of real activity. The purpose of this thesis is to study these two complementary approaches to the economic cycle. Chapter 1 provides a portrait of the cycle using three distinct conceptions of its turning points: the classical cycle, the growth cycle and the acceleration cycle. We also discuss the measurement of the cycle with respect to various possible representations of aggregate activity of a country, as well as to two existing traditions which encompass dating models. Moreover, we highlight the growing influence of the financial environment over business cycle fluctuations.In chapter 2, we develop two non-parametric algorithms in order to identify theinflections that are particular to each of the previously conceptualized cycles, but also to measure their main characteristics. The first algorithm is based on a univariate representation of overall economic activity, the second on its ultivariate representation; ultimately, we apply the algorithms to the data of the French economy between 1970 and 2010. Chapter 3 builds on our results for cyclical dating to predict French recessions since 1974. Using probit models, we illustrate the role of monetary and financial variables as leading indicators of French business cycle fluctuations. In addition, we show that our models accurately detect recessions for a forecasting lag of two-quarters. Chapter 4 extends the entire analysis to several member states of the euro zone, with observations beginning in 1979. We first construct a chronology of their classical cycles, and then we propose an analysis of their main characteristics and their degree of synchronization.Finally, based on financial and monetary indicators in the context of a dynamic probit with fixed effects, we can anticipate the recessionary episodes which occurred in these economies with a horizon of two quarters.
426

Etudes sur le cycle économique. Une approche par les modèles à changements de régime / Studies in Business Cycles Using Markov-switching Models

Rabah-Romdhane, Zohra 12 December 2013 (has links)
L'ampleur de la Grande Récession a suscité un regain d'intérêt pour l'analyse conjoncturelle, plus particulièrement du cycle économique. Notre thèse participe de ce renouveau d'attention pour l'étude des fluctuations économiques.Après une présentation générale des modèles à changements de régime dans le chapitre 1, le chapitre suivant propose une chronologie du cycle des affaires de l'économie française sur la période 1970-2009. Trois méthodes de datation sont utilisées à cette fin : la règle des deux trimestres consécutifs de croissance négative, l'approche non paramétrique de Bry et Boschan (1971) et le modèle markovien à changements de régime de Hamilton (1989). Les résultats montrent que l'existence de ruptures structurelles peut empêcher ce dernier modèle d'identifier correctement les points de retournement cycliques. Cependant, quandces ruptures sont prises en considération, le calendrier des récessions françaises obtenu à l'aide du modèle d'Hamilton coïncide largement avec celui obtenu par les deux autres méthodes. Le chapitre 3 développe une analyse de la non-linéarité dans le modèle à changements de régime en utilisant un ensemble de tests non-standards. Une étude par simulation Monte Carlo révèle qu'un test récemment proposé par Carrasco, Hu et Ploberger (2013) présente une faible puissance pour des processus générateurs des données empiriquement pertinents et ce, lorsqu'on tient compte de l'autocorrélation sous l'hypothèse nulle. En revanche, untest "bootstrap" paramétrique basé sur le rapport des vraisemblances a, pour sa part une puissance plus élevée, ce qui traduit l'existence probable de non-linéarités significatives dans le PIB réel trimestriel de la France et des Etats-Unis. Quand il s'agit de tester un changement de régime en moyenne ou en constante, il est important de tenir compte de l'autocorrélation sous l'hypothèse nulle de linéarité. En effet, dans le cas contraire, un rejet de la linéarité pourrait simplement refléter une mauvaise spécification de la persistance des données, plutôt que d'une non-linéarité inhérente.Le chapitre 4 examine une question importante : la considération de ruptures structurelles dans les séries améliore-t-elle la performance prédictive du modèle markovien relativement à son homologue linéaire ? La démarche adoptée pour y répondre consiste à combiner les prévisions obtenues pour différentes périodes d'estimation. Voici le principal résultat dû à l'application de cette démarche : la prise en compte des données provenant des intervalles de temps précédant les ruptures structurelles et la "Grande Modération" améliore les prévisions basées sur des données tirées exclusivement de ces épisodes. De la sorte, les modèles à changements de régime s'avèrent capables de prédire la probabilité d'événements tels que la Grande Récession, avec plus de précision que ses homologues linéaires.Les conclusions générales synthétisent les principaux acquis de la thèse et évoqueplusieurs perspectives de recherche future. / The severity of the Great Recession has renewed interest in the analysis of business cycles. Our thesis pertains to this revival of attention for the study of cyclical fluctuations. After reviewing the regime-switching models in Chapter one, the following chapter suggests a chronology of the classical business cycle in French economy for the 1970-2009 period. To that end, three dating methodologies are used: the rule of thumb of two consecutive quarters of negative growth, the non-parametric approach of Bry and Boschan (1971), and the Markov-switching approach of Hamilton (1989). The results show that,omitted structural breaks may hinder the Markov-switching approach to capture business-cycle fluctuations. However, when such breaks are allowed for, the timing of the French recessions provided by the Markov-switching model closely matches those derived by the rule-based approaches.Chapter 3 performs a nonlinearity analysis inMarkov-switching modelling using a set of non-standard tests. Monte Carlo analysis reveals that a recently test proposed by Carrasco, Hu, and Ploberger (2013) for Markov switching has low power for empirically-relevant data generating processes when allowing for serial correlation under the null. By contrast, a parametric bootstrap likelihood ratio (LR) test of Markov switching has higher power in the same setting, providing stronger support for nonlinearity in quarterly French and U.S. real GDP. When testing for Markov switching in mean or intercept of an autoregressive process, it is important to allow for serial correlation under the null hypothesis of linearity.Otherwise, a rejection of linearity could merely reflect misspecification of the persistence properties of the data, rather than any inherent nonlinearity.Chapter 4 examines whether controlling for structural breaks improves the forecasting performance of the Markov-switching models, as compared to their linear counterparts.The approach considered to answer this issue is to combined forecasts across different estimation windows. The outcome of applying such an approach shows that, including data from periods preceding structural breaks and particularly the "Great Moderation" improves upon forecasts based on data drawn exclusively from these episodes. Accordingly, Markov-switching models forecast the probability of events such as the Great Recession more accurately than their linear counterparts.The general conclusions summarize the main results of the thesis and, suggest several directions for future research.
427

Sources laser non linéaires accordables dans l'infrarouge et l'ultraviolet pour la métrologie des rayonnements optiques / infrared and ultraviolet synchronization of non-linear laser sources aimed at optical radiation metrology

Rihan, Abdallah 19 December 2011 (has links)
L'objet de cette thèse porte sur la conception et la réalisation de deux sources laser non linéaires accordables dans les domaines IR et UV, pour le raccordement de la sensibilité spectrale des détecteurs au moyen du radiomètre cryogénique du laboratoire commun de métrologie (LCM). La source IR est un oscillateur paramétrique optique (OPO) résonant sur les ondes pompe et signal (PRSRO), utilisant un cristal de niobate de lithium à inversion de domaines de polarisation dopé par 5% d'oxyde de magnésium (ppMgCLN). Pompé par un laser Ti:Al2O3 en anneau mono-fréquence et accordable, délivrant 500 mW de puissance utile autour de 795 nm, l'OPO possède un seuil d'oscillation de 110 mW. Une couverture spectrale continue entre 1 µm et 3.5 µm a été obtenue, avec des puissances de l'ordre du mW pour l'onde signal (1 µm à 1.5 µm) et des puissances comprises entre $20$ à $50$ mW pour l'onde complémentaire couvrant un octave de longueur d'onde IR entre 1.7 µm et 3.5 µm. La source UV est obtenue par doublage de fréquence en cavité externe du laser Ti:Al2O3, dans un cristal de triborate de lithium (LiB3O5). Un accord de phase en température à angle d'accord de phase fixé permet l'obtention d'une couverture spectrale comprise entre 390 nm et 405 nm. L'asservissement de la cavité de doublage sur la fréquence du laser Ti:Al2O3 par la méthode de Pound-Drever-Hall, ainsi qu'une adaptation de mode optimale, permet d'obtenir une puissance de 5.64 mW à 400 nm à partir de 480 mW de puissance fondamentale. / The work presented in this PhD dissertation details the strategy adopted to build two non-linear laser sources that are widely in the mid-infrared and blue-UV spectral ranges. These laser sources are needed for the traceability to SI units of coherent light irradiance measurements using a cryogenic radiometer of the using cryogenic radiometer of the Laboratoire commun de métrologie (LCM) .The infrared laser source is an optical parametric oscillator (OPO) resonating on the pump and signal wavelengths (PRSRO) and employing a periodically poled Lithium Niobate non-linear crystal doped with 5% magnesium oxide (ppMgCLN). The PRSRO is pumped by a single-frequency tunable bow-tie ring cavity Titanium-Sapphire laser (Ti:Al2O3) delivering 500 mW output power at 795 nm wavelength, , resulting in a power oscillation threshold of 110 mW. The PRSRO emission could continuously cover the spectral range from 1 µm to 3.5 µm. The level of output power achieved is of the order of 1 mW for the signal wave (1 µm to 1.5 µm) and between 20 mW and 50 mW for idler wave spanning an octave wavelength range (1.7 µm to 3.5 µm).The UV source based on the second harmonic generation on the Titanium-Sapphire tunable laser using an external enhancement cavity containing a critically phase-matched LBO non linear crystal (LiB3O5). Temperature-tuning of the phase-matching condition at a fixed crystal orientation leads to a wide tunability from 390 nm to 405 nm wavelength. The external cavity optical pathlength was actively locked to the laser frequency using a¨Pound-Drever-Hall servo, allowing to extract up to 6 mW power at 400 nm wavelength with a 480 mW pump power. Despite a perfect mode-matching efficiency, the power performance was limited by the poor nonlinear impedance matching of the resonator, due to both the weak nonlinearity of the crystal and the low incoming laser power.
428

Comportement mécanique haute température du superalliage monocristallin AM1 : étude in situ par une nouvelle technique de diffraction en rayonnement synchrotron / High-temperature creep behaviour of a Ni-based single-crystal superalloy : in situ experiment by a new technique using far field synchrotron X-rays diffraction

Tréhorel, Roxane 19 February 2018 (has links)
Les superalliages monocristallins base nickel sont largement utilisés dans les parties chaudes (aux alentours de 1000°C) des turbines aéronautiques au vu de leur bonne résistance thermomécanique. Pendant le stade II du fluage leur microstructure est formée d’une matrice/couloirs γ (CFC) et de précipités en radeaux γ’ (L12). Le but de cette étude est de mieux comprendre la plasticité de ces matériaux, en particulier celle de l’alliage de 1ère génération AM1. Afin de suivre son comportement mécanique durant des transitions rapides, une nouvelle technique expérimentale par diffraction en transmission des rayons X (synchrotron) a été développée. L’utilisation d’une caméra en champ lointain permet d’enregistrer (une acquisition prend 7 secondes) la tache de diffraction (200) de chacune des deux phases, et donc l’évolution en temps réel du désaccord paramétrique entre les deux phases. En utilisant un modèle mécanique simplifié, il est possible d’en déduire les contraintes internes et la déformation plastique de chaque phase. Une campagne d’essai sur la ligne ID11 de l’ESRF a été réalisée avec cette technique. Deux types d’échantillons présentant une microstructure initiale différente, obtenues par des traitements thermiques adaptés, ont été testés. Ils ont été soumis in situ à des essais de fluage à température constante avec des sauts de contrainte. Après essai, les échantillons ont été caractérisés par MET et MEB afin de déterminer leur microstructure, vérifier les désorientations des échantillons, cartographier la concentration de certains éléments et évaluer la densité de dislocations au sein des radeaux γ’. Dans les couloirs γ, la propagation des dislocations nécessite une contrainte de Von Mises supérieure à la contrainte d’Orowan, et la densité de dislocations mobiles augmente avec la déformation plastique. Le mécanisme limitant la déformation plastique par montée de la phase γ’ est vraisemblablement l’entrée des dislocations dans les radeaux. Les conséquences déduites de cette hypothèse sont détaillées ainsi que le comportement mécanique du matériau résultant / Nickel-based single crystal superalloys are extensively used for turbines blades (above 1000°C) of aeronautical engines because of their good thermomechanical properties. During stage II of creep, their microstructure consists of a γ matrix (fcc) and raft precipitates γ’ (L12). The aim of this work is to improve the understanding of plasticity of this type of alloy, especially the first generation AM1 superalloy. To follow his mechanical behaviour during fast transients, a new experimental setup using synchrotron radiation diffraction in transmission geometry was developed. A far field camera allows the recording of the (200) diffraction spot of each phase, i.e. the evolution of the lattice misfit in real time (one acquisition takes 7 seconds). By using a simple mechanical model, it is possible to determine the internal stresses and the plastic strains for both phases. An experimental campaign was performed at ID11 beamline of ESRF using this new technique. Two sample types with different initial microstructure (obtained with adapted heat treatments) were tested in situ. They underwent load jumps under high-temperature creep conditions. Further post mortem investigations by SEM and TEM were performed to determine their microstructure, to check on misorientations, map some elements composition and estimate the dislocation density within the γ’ rafts. In the γ channels, dislocation propagation occurred when the Von Mises stress was larger than the Orowan stress. The mobile dislocations density increases with γ plastic strain. The limiting mechanism for γ’ plastic strain is presumably the entry of dislocation within the γ’ rafts. Under this assumption we deduce the mechanisms of interactions between dislocations, vacancies, and pores within the material, and the mechanical behaviour of the γ’ rafts
429

Contributions à l'estimation de quantiles extrêmes. Applications à des données environnementales / Some contributions to the estimation of extreme quantiles. Applications to environmental data.

Methni, Jonathan El 07 October 2013 (has links)
Cette thèse s'inscrit dans le contexte de la statistique des valeurs extrêmes. Elle y apporte deux contributions principales. Dans la littérature récente en statistique des valeurs extrêmes, un modèle de queues de distributions a été introduit afin d'englober aussi bien les lois de type Pareto que les lois à queue de type Weibull. Les deux principaux types de décroissance de la fonction de survie sont ainsi modélisés. Un estimateur des quantiles extrêmes a été déduit de ce modèle mais il dépend de deux paramètres inconnus, le rendant inutile dans des situations pratiques. La première contribution de cette thèse est de proposer des estimateurs de ces paramètres. Insérer nos estimateurs dans l'estimateur des quantiles extrêmes précédent permet alors d'estimer des quantiles extrêmes pour des lois de type Pareto aussi bien que pour des lois à queue de type Weibull d'une façon unifiée. Les lois asymptotiques de nos trois nouveaux estimateurs sont établies et leur efficacité est illustrée sur des données simulées et sur un jeu de données réelles de débits de la rivière Nidd se situant dans le Yorkshire en Angleterre. La seconde contribution de cette thèse consiste à introduire et estimer une nouvelle mesure de risque appelé Conditional Tail Moment. Elle est définie comme le moment d'ordre a>0 de la loi des pertes au-delà du quantile d'ordre p appartenant à ]0,1[ de la fonction de survie. Estimer le Conditional Tail Moment permet d'estimer toutes les mesures de risque basées sur les moments conditionnels telles que la Value-at-Risk, la Conditional Tail Expectation, la Conditional Value-at-Risk, la Conditional Tail Variance ou la Conditional Tail Skewness. Ici, on s'intéresse à l'estimation de ces mesures de risque dans le cas de pertes extrêmes c'est-à-dire lorsque p tend vers 0 lorsque la taille de l'échantillon augmente. On suppose également que la loi des pertes est à queue lourde et qu'elle dépend d'une covariable. Les estimateurs proposés combinent des méthodes d'estimation non-paramétrique à noyau avec des méthodes issues de la statistique des valeurs extrêmes. Le comportement asymptotique de nos estimateurs est établi et illustré aussi bien sur des données simulées que sur des données réelles de pluviométrie provenant de la région Cévennes-Vivarais. / This thesis can be viewed within the context of extreme value statistics. It provides two main contributions to this subject area. In the recent literature on extreme value statistics, a model on tail distributions which encompasses Pareto-type distributions as well as Weibull tail-distributions has been introduced. The two main types of decreasing of the survival function are thus modeled. An estimator of extreme quantiles has been deduced from this model, but it depends on two unknown parameters, making it useless in practical situations. The first contribution of this thesis is to propose estimators of these parameters. Plugging our estimators in the previous extreme quantiles estimator allows us to estimate extreme quantiles from Pareto-type and Weibull tail-distributions in an unified way. The asymptotic distributions of our three new estimators are established and their efficiency is illustrated on a simulation study and on a real data set of exceedances of the Nidd river in the Yorkshire (England). The second contribution of this thesis is the introduction and the estimation of a new risk measure, the so-called Conditional Tail Moment. It is defined as the moment of order a>0 of the loss distribution above the quantile of order p in (0,1) of the survival function. Estimating the Conditional Tail Moment permits to estimate all risk measures based on conditional moments such as the Value-at-Risk, the Conditional Tail Expectation, the Conditional Value-at-Risk, the Conditional Tail Variance or the Conditional Tail Skewness. Here, we focus on the estimation of these risk measures in case of extreme losses i.e. when p converges to 0 when the size of the sample increases. It is moreover assumed that the loss distribution is heavy-tailed and depends on a covariate. The estimation method thus combines nonparametric kernel methods with extreme-value statistics. The asymptotic distribution of the estimators is established and their finite sample behavior is illustrated both on simulated data and on a real data set of daily rainfalls in the Cévennes-Vivarais region (France).
430

Détection multidimensionnelle au test paramétrique avec recherche automatique des causes / Multivariate detection at parametric test with automatic diagnosis

Hajj Hassan, Ali 28 November 2014 (has links)
Aujourd'hui, le contrôle des procédés de fabrication est une tâche essentielle pour assurer une production de haute qualité. A la fin du processus de fabrication du semi-conducteur, un test électrique, appelé test paramétrique (PT), est effectuée. PT vise à détecter les plaques dont le comportement électrique est anormal, en se basant sur un ensemble de paramètres électriques statiques mesurées sur plusieurs sites de chaque plaque. Le but de ce travail est de mettre en place un système de détection dynamique au niveau de PT, pour détecter les plaques anormales à partir d'un historique récent de mesures électriques. Pour cela, nous développons un système de détection en temps réel basé sur une technique de réapprentissage optimisée, où les données d'apprentissage et le modèle de détection sont mis à jour à travers une fenêtre temporelle glissante. Le modèle de détection est basé sur les machines à vecteurs supports à une classe (1-SVM), une variante de l'algorithme d'apprentissage statistique SVM largement utilisé pour la classification binaire. 1-SVM a été introduit dans le cadre des problèmes de classification à une classe pour la détection des anomalies. Pour améliorer la performance prédictive de l'algorithme de classification 1-SVM, deux méthodes de sélection de variables ont été développées. La première méthode de type filtrage est basé sur un score calculé avec le filtre MADe,une approche robuste pour la détection univariée des valeurs aberrantes. La deuxième méthode de type wrapper est une adaptation à l'algorithme 1-SVM de la méthode d'élimination récursive des variables avec SVM (SVM-RFE). Pour les plaques anormales détectées, nous proposons une méthode permettant de déterminer leurs signatures multidimensionnelles afin d'identifier les paramètres électriques responsables de l'anomalie. Finalement, nous évaluons notre système proposé sur des jeux de données réels de STMicroelecronics, et nous le comparons au système de détection basé sur le test de T2 de Hotelling, un des systèmes de détection les plus connus dans la littérature. Les résultats obtenus montrent que notre système est performant et peut fournir un moyen efficient pour la détection en temps réel. / Nowadays, control of manufacturing process is an essential task to ensure production of high quality. At the end of the semiconductor manufacturing process, an electric test, called Parametric Test (PT), is performed. The PT aims at detecting wafers whose electrical behavior is abnormal, based on a set of static electrical parameters measured on multiple sites of each wafer. The purpose of this thesis is to develop a dynamic detection system at PT level to detect abnormal wafers from a recent history of electrical measurements. For this, we develop a real time detection system based on an optimized learning technique, where training data and detection model are updated through a moving temporal window. The detection scheme is based on one class Support Vector Machines (1-SVM), a variant of the statistical learning algorithm SVM widely used for binary classification. 1-SVM was introduced in the context of one class classification problems for anomaly detection. In order to improve the predictive performance of the 1-SVM classification algorithm, two variable selection methods are developed. The first one is a filter method based on a calculated score with MADe filter, a robust approach for univariate outlier detection. The second one is of wrapper type that adapts the SVM Recursive Feature Elimination method (SVM-RFE) to the 1-SVM algorithm. For detected abnormal wafers, we propose a method to determine their multidimensional signatures to identify the electrical parameters responsible for the anomaly. Finally, we evaluate our proposed system on real datasets of STMicroelecronics and compare it to the detection system based on Hotelling's T2 test, one of the most known detection systems in the literature. The results show that our system yields very good performance and can provide an efficient way for real-time detection.

Page generated in 0.065 seconds