• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 106
  • 40
  • 6
  • Tagged with
  • 153
  • 46
  • 46
  • 35
  • 35
  • 34
  • 34
  • 34
  • 33
  • 33
  • 32
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Adaptation de maillages pour des schémas numériques d'ordre très élevé

Mbinky, Estelle 20 December 2013 (has links) (PDF)
L'adaptation de maillages est un processus itératif qui consiste à changer localement la taille et l'orientation du maillage en fonction du comportement de la solution physique étudiée. Les méthodes d'adaptation de maillages ont prouvé qu'elles pouvaient être extrêmement efficaces en réduisant significativement la taille des maillages pour une précision donnée et en atteignant rapidement une convergence asymptotique d'ordre 2 pour des problèmes contenant des singularités lorsqu'elles sont couplées à des méthodes numériques d'ordre élevé. Dans les techniques d'adaptation de maillages basées sur les métriques, deux approches ont été proposées: les méthodes multi-échelles basées sur un contrôle de l'erreur d'interpolation en norme Lp et les méthodes ciblées à une fonctionnelle qui contrôle l'erreur d'approximation sur une fonctionnelle d'intérêt via l'utilisation de l'état adjoint. Cependant, avec l'émergence de méthodes numériques d'ordre très élevé telles que la méthode de Galerkin discontinue, il devient nécessaire de prendre en compte l'ordre du schéma numérique dans le processus d'adaptation de maillages. Il est à noter que l'adaptation de maillages devient encore plus cruciale pour de tels schémas car ils ne convergent qu'à l'ordre 1 dans les singularités de l'écoulement. Par conséquent, le raffinement du maillage au niveau des singularités de la solution doit être d'autant plus important que l'ordre de la méthode est élevé. L'objectif de cette thèse sera d'étendre les résultats numériques et théoriques obtenus dans le cas de l'adaptation pour des solutions linéaires par morceaux à l'adaptation pour des solutions d'ordre élevé polynomiales par morceaux. Ces solutions sont représentées sur le maillage par des éléments finis de Lagrange d'ordre k ≥ 2. Cette thèse portera sur la modélisation de l'erreur d'interpolation locale, polynôme homogène de degré k ≥ 3 dans le formalisme du maillage continu. Or, les méthodes d'adaptation de maillages basées sur les métriques nécessitent que le modèle d'erreur soit une forme quadratique, laquelle fait apparaître intrinsèquement un espace métrique. Pour pouvoir exhiber un tel espace, il est nécessaire de décomposer le polynôme homogène et de l'approcher par une forme quadratique à la puissance k/2. Cette modélisation permet ainsi de révéler un champ de métriques indispensable pour communiquer avec le générateur de maillages. En deux et trois dimensions, des méthodes de décomposition de tenseurs telles que la décomposition de Sylvester nous permettront de décomposer la fonction exacte d'erreur puis d'en déduire le modèle d'erreur quadratique. Ce modèle d'erreur local est ensuite utilisé pour contrôler globalement l'erreur en norme Lp et le maillage optimal est obtenu en minimisant cette erreur. Dans cette thèse, on s'attachera à démontrer la convergence à l'ordre k de la méthode d'adaptation de maillages pour des fonctions analytiques et pour des simulations numériques utilisant des solveurs d'ordre k ≥ 3.
122

Approche par éléments finis de structures électroniques

Fau, Amélie 10 December 2012 (has links) (PDF)
Grâce à l'amélioration des performances des outils expérimentaux et numériques, la mécanique des matériaux peut explorer des échelles de plus en plus fines. Une meilleure compréhension, voire une prédiction, des phénomènes locaux mis en jeu est alors espérée. Cette thèse s'intéresse à la plus petite échelle impliquée dans le comportement mécanique des matériaux, c.-à-d. les interactions entre noyaux dues au comportement des électrons, et notamment des électrons de valence. L'originalité de ce travail est dans la mise en place des éléments finis comme outil numérique de résolution de ce problème. Cette approche largement utilisée dans le domaine de la mécanique des structures fournit de puissants outils numériques permettant de résoudre le problème électronique. Des modèles de Hartree-Fock et post-Hatree-Fock sont implémentés, et les caractéristiques mécaniques des structures électroniques sont estimées. Ces résultats reposent sur de nombreuses approximations dues aussi bien à la modélisation qu'aux approximations numériques. Des estimateurs d'erreur sont développés pour analyser les résultats.
123

Applications de la théorie des erreurs par formes de Dirichlet

Scotti, Simone 16 October 2008 (has links) (PDF)
Cette thèse est consacrée à l'étude des applications de la théorie des erreurs par formes de Dirichlet. Notre travail se divise en trois parties. La première analyse les modèles gouvernés par une équation différentielle stochastique. Après un court chapitre technique, un modèle innovant pour les carnets d'ordres est proposé. Nous considérons que le spread bid-ask n'est pas un défaut, mais plutôt une propriété intrinsèque du marché. L'incertitude est porté par le mouvement Brownien qui conduit l'actif. Nous montrons que l'évolution des spread peut être évalué grâce à des formules fermés et nous étudions l'impact de l'incertitude du sous-jacent sur les produits dérivés. En suite, nous introduisons le modèle PBS pour le pricing des options européennes. L'idée novatrice est de distinguer la volatilité du marché par rapport au paramètre utilisé par les traders pour se couvrir. Nous assumons la première constante, alors que le deuxième devient une estimation subjective et erronée de la première. Nous prouvons que ce modèle prévoit un spread bid-ask et un smile de volatilité. Les propriétés plus intéressantes de ce modèle sont l'existence de formules fermés pour le pricing, l'impact de la dérive du sous-jacent et une efficace stratégie de calibration. La seconde partie s'intéresse aux modèles décrit par une équation aux dérivées partielles. Les cas linéaire et non-linéaire sont analysés séparément. Dans le premier nous montrons des relations intéressantes entre la théorie des erreurs et celui des ondelettes. Dans le cas non-linéaire nous étudions la sensibilité des solutions à l'aide de la théorie des erreurs. Sauf dans le cas d'une solution exacte, il y a deux approches possibles: On peut d'abord discrétiser l'EDP et étudier la sensibilité du problème discrétisé, soit démontrer que les sensibilités théoriques vérifient des EDP. Les deux cas sont étudiés, et nous prouvons que les sharp et le biais sont solutions d'EDP linéaires dépendantes de la solution de l'EDP originaire et nous proposons des algorithmes pour évaluer numériquement les sensibilités. Enfin, la troisième partie est dédiée aux équations stochastiques aux dérivées partielles. Notre analyse se divise en deux chapitres. D'abord nous étudions la transmission de l'incertitude, présente dans la condition initiale, à la solution de l'EDPS. En suite, nous analysons l'impact d'une perturbation dans les termes fonctionnelles de l'EDPS et dans le coefficient de la fonction de Green associée. Dans le deux cas, nous prouvons que le sharp et le biais sont solutions de deux EDPS linéaires dépendantes de la solution de l'EDPS originaire.
124

Contribution to error analysis of algorithms in floating-point arithmetic / Contribution à l'analyse d'algorithmes en arithmétique à virgule flottante

Plet, Antoine 07 July 2017 (has links)
L’arithmétique virgule flottante est une approximation de l’arithmétique réelle dans laquelle chaque opération peut introduire une erreur. La norme IEEE 754 requiert que les opérations élémentaires soient aussi précises que possible, mais au cours d’un calcul, les erreurs d’arrondi s’accumulent et peuvent conduire à des résultats totalement faussés. Cela arrive avec une expression aussi simple que ab + cd, pour laquelle l’algorithme naïf retourne parfois un résultat aberrant, avec une erreur relative largement supérieure à 1. Il est donc important d’analyser les algorithmes utilisés pour contrôler l’erreur commise. Je m’intéresse à l’analyse de briques élémentaires du calcul en cherchant des bornes fines sur l’erreur relative. Pour des algorithmes suffisamment précis, en arithmétique de base β et de précision p, on arrive en général à prouver une borne sur l'erreur de la forme α·u + o(u²) où α > 0 et u = 1/2·β1-p est l'unité d'arrondi. Comme indication de la finesse d'une telle borne, on peut fournir des exemples numériques pour les précisions standards qui approchent cette borne, ou bien un exemple paramétré par la précision qui génère une erreur de la forme α·u + o(u²), prouvant ainsi l'optimalité asymptotique de la borne. J’ai travaillé sur la formalisation d’une arithmétique à virgule flottante symbolique, sur des nombres paramétrés par la précision, et à son implantation dans le logiciel de calcul formel Maple. J’ai aussi obtenu une borne d'erreur très fine pour un algorithme d’inversion complexe en arithmétique flottante. Ce résultat suggère le calcul d'une division décrit par la formule x/y = (1/y)·x, par opposition à x/y = (x·y)/|y|². Quel que soit l'algorithme utilisé pour effectuer la multiplication, nous avons une borne d'erreur plus petite pour les algorithmes décrits par la première formule. Ces travaux sont réalisés avec mes directeurs de thèse, en collaboration avec Claude-Pierre Jeannerod (CR Inria dans AriC, au LIP). / Floating-point arithmetic is an approximation of real arithmetic in which each operation may introduce a rounding error. The IEEE 754 standard requires elementary operations to be as accurate as possible. However, through a computation, rounding errors may accumulate and lead to totally wrong results. It happens for example with an expression as simple as ab + cd for which the naive algorithm sometimes returns a result with a relative error larger than 1. Thus, it is important to analyze algorithms in floating-point arithmetic to understand as thoroughly as possible the generated error. In this thesis, we are interested in the analysis of small building blocks of numerical computing, for which we look for sharp error bounds on the relative error. For this kind of building blocks, in base and precision p, we often successfully prove error bounds of the form α·u + o(u²) where α > 0 and u = 1/2·β1-p is the unit roundoff. To characterize the sharpness of such a bound, one can provide numerical examples for the standard precisions that are close to the bound, or examples that are parametrized by the precision and generate an error of the same form α·u + o(u²), thus proving the asymptotic optimality of the bound. However, the paper and pencil checking of such parametrized examples is a tedious and error-prone task. We worked on the formalization of a symbolicfloating-point arithmetic, over numbers that are parametrized by the precision, and implemented it as a library in the Maple computer algebra system. We also worked on the error analysis of the basic operations for complex numbers in floating-point arithmetic. We proved a very sharp error bound for an algorithm for the inversion of a complex number in floating-point arithmetic. This result suggests that the computation of a complex division according to x/y = (1/y)·x may be preferred, instead of the more classical formula x/y = (x·y)/|y|². Indeed, for any complex multiplication algorithm, the error bound is smaller with the algorithms described by the “inverse and multiply” approach.This is a joint work with my PhD advisors, with the collaboration of Claude-Pierre Jeannerod (CR Inria in AriC, at LIP).
125

Simulation multi-moteurs multi-niveaux pour la validation des spécifications système et optimisation de la consommation / Multi-engine multi-level simulation for system specification validation and power consumption optimization

Li, Fangyan 29 March 2016 (has links)
Ce travail vise la modélisation au niveau système, en langage SystemC-AMS, et la simulation d'un émetteur-récepteur au standard Bluetooth Low Energy (BLE). L'objectif est d'analyser la relation entre les performances, en termes de BER et la consommation d'énergie du transceiver. Le temps de simulation d’un tel système, à partir de cas d’étude (use case) réaliste, est un facteur clé pour le développement d’une telle plateforme. De plus, afin d’obtenir des résultats de simulation le plus précis possible, les modèles « haut niveau » doivent être raffinés à partir de modèles plus bas niveau où de mesure. L'approche dite Meet-in-the-Middle, associée à la méthode de modélisation équivalente en Bande Base (BBE, BaseBand Equivalent), a été choisie pour atteindre les deux conditions requises, à savoir temps de simulation « faible » et précision des résultats. Une simulation globale d'un système de BLE est obtenue en intégrant le modèle de l'émetteur-récepteur dans une plateforme existante développée en SystemC-TLM. La simulation est basée sur un système de communication de deux dispositifs BLE, en utilisant différents scénarios (différents cas d'utilisation de BLE). Dans un premier temps nous avons modélisé et validé chaque bloc d’un transceiver BT. Devant le temps de simulation prohibitif, les blocs RF sont réécrits en utilisant la méthodologie BB, puis raffinés afin de prendre en compte les non-linéarités qui vont impacter le couple consommation, BER. Chaque circuit (chaque modèle) est vérifié séparément, puis une première simulation système (point à point entre un émetteur et un récepteur) est effectuée / This work aims at system-level modelling a defined transceiver for Bluetooth Low energy (BLE) system using SystemC-AMS. The goal is to analyze the relationship between the transceiver performance and the accurate energy consumption. This requires the transceiver model contains system-level simulation speed and the low-level design block power consumption and other RF specifications. The Meet-in-the-Middle approach and the Baseband Equivalent method are chosen to achieve the two requirements above. A global simulation of a complete BLE system is achieved by integrating the transceiver model into a SystemC-TLM described BLE system model which contains the higher-than-PHY levels. The simulation is based on a two BLE devices communication system and is run with different BLE use cases. The transceiver Bit-Error-Rate and the energy estimation are obtained at the end of the simulation. First, we modelled and validated each block of a BT transceiver. In front of the prohibitive simulation time, the RF blocks are rewritten by using the BBE methodology, and then refined in order to take into account the non-linearities, which are going to impact the couple consumption, BER. Each circuit (each model) is separately verified, and then a first BLE system simulation (point-to-point between a transmitter and a receiver) has been executed. Finally, the BER is finally estimated. This platform fulfills our expectations, the simulation time is suitable and the results have been validated with the circuit measurement offered by Riviera Waves Company. Finally, two versions of the same transceiver architecture are modelled, simulated and compared
126

Analyse numérique pour les équations de Hamilton-Jacobi sur réseaux et contrôlabilité / stabilité indirecte d'un système d'équations des ondes 1D / Numerical analysis for Hamilton-Jacobi equations on networks and indirect controllability/stability of a 1D system of wave equations

Koumaiha, Marwa 19 July 2017 (has links)
Cette thèse est composée de deux parties dans lesquelles nous étudions d'une part des estimations d'erreurs pour des schémas numériques associés à des équations de Hamilton-Jacobi du premier ordre. D'autre part, nous nous intéressons a l'étude de la stabilité et de la contrôlabilité exacte frontière indirecte des équations d'onde couplées.Dans un premier temps, en utilisant la technique de Crandall-Lions, nous établissons une estimation d'erreur d'un schéma numérique monotone aux différences finies pour des conditions de jonction dites a flux limité, pour une équation de Hamilton-Jacobi du premier ordre. Ensuite, nous montrons que ce schéma numérique peut être généralisé à des conditions de jonction générales. Nous établissons alors la convergence de la solution discrétisée vers la solution de viscosité du problème continu. Enfin, nous proposons une nouvelle approche, à la Crandall-Lions, pour améliorer les estimations d'erreur déjà obtenues, pour une classe des Hamiltoniens bien choisis. Cette approche repose sur l'interprétation du type contrôle optimal de l'équation de Hamilton-Jacobi considérée.Dans un second temps, nous étudions la stabilisation et la contrôlabilité exacte frontière indirecte d'un système monodimensionnel d’équations d'ondes couplées. D'abord, nous considérons le cas d'un couplage avec termes de vitesses, et par une méthode spectrale, nous montrons que le système est exactement contrôlable moyennant un seul contrôle à la frontière. Les résultats dépendent de la nature arithmétique du quotient des vitesses de propagation et de la nature algébrique du terme de couplage. De plus, ils sont optimaux. Ensuite, nous considérons le cas d'un couplage d'ordre zéro et nous établissons un taux polynômial optimal de la décroissance de l'énergie. Enfin, nous montrons que le système est exactement contrôlable moyennant un seul contrôle à la frontière / The aim of this work is mainly to study on the one hand a numerical approximation of a first order Hamilton-Jacobi equation posed on a junction. On the other hand, we are concerned with the stability and the exact indirect boundary controllability of coupled wave equations in a one-dimensional setting.Firstly, using the Crandall-Lions technique, we establish an error estimate of a finite difference scheme for flux-limited junction conditions, associated to a first order Hamilton-Jacobi equation. We prove afterwards that the scheme can generally be extended to general junction conditions. We prove then the convergence of the numerical solution towards the viscosity solution of the continuous problem. We adopt afterwards a new approach, using the Crandall-Lions technique, in order to improve the error estimates for the finite difference scheme already introduced, for a class of well chosen Hamiltonians. This approach relies on the optimal control interpretation of the Hamilton-Jacobi equation under consideration.Secondly, we study the stabilization and the indirect exact boundary controllability of a system of weakly coupled wave equations in a one-dimensional setting. First, we consider the case of coupling by terms of velocities, and by a spectral method, we show that the system is exactly controllable through one single boundary control. The results depend on the arithmetic property of the ratio of the propagating speeds and on the algebraic property of the coupling parameter. Furthermore, we consider the case of zero coupling parameter and we establish an optimal polynomial energy decay rate. Finally, we prove that the system is exactly controllable through one single boundary control
127

Les voies de recours spéciales en contentieux administratif français / Special remedies in French administrative law

Constant, Anne-Laure 13 December 2016 (has links)
Pour contester les décisions juridictionnelles du juge administratif français, un éventail de voies de recours est mis à la disposition des justiciables. Si l'appel et la cassation sont les plus connues et les plus usitées, il existe six autres voies d'action que l'on peut qualifier de « spéciales » dès lors qu'elles remettent en cause un manquement précis à l'office du juge. A la différence des voies de recours habituelles qui constituent une critique globale, les voies de recours spéciales correspondent chacune à une hypothèse d'erreur judiciaire spécifique. Ainsi, le requérant exerçant une telle voie de droit attaque la décision de justice non pas dans sa totalité mais sur un aspect particulier, de forme ou de fond. Cette argumentation étroite ne préjuge cependant pas l'objectif recherché : une modification voire une rétractation de la décision initiale.Présentées généralement sous la forme d'une simple énumération de voies de recours exceptionnelles, leur étude révèle qu'elles suivent une logique d'ensemble propre à leur reconnaître la qualité de catégorie juridique. Cette cohérence de groupe complémentaire de l'appel et de la cassation permet de mettre en évidence une théorie générale des voies de recours en contentieux administratif français. / In France, all defendants have several remedies to contest an administrative judge's decision. If appeal and cassation complaints are the best known and the most used, there are six other remedies which can be qualified as « special » as they demonstrate a specific failure of the judicial function. Unlike common remedies which are a general criticism of the judgment, each special remedy relates to a particular error of the judge. Thefore, a defendant who applies one of these remedies is challenging not the whole judgment but its specific aspect, whether form or substance. However, by applying one of these remedies, the defendant is targeting the modification or revocation of the judgment.Frequently presented as a list of unusual remedies, the research shows that they actually follow a general pattern that allows one to consider them as a legal category of their own. Complementary to appeal and cassation complaints, this group system serves to highlight the existence of a general theory of remedies in French administrative law.
128

Analyse numérique d'une approximation élément fini pour un modèle d'intrusion saline dans les aquifères côtiers / Numerical analysis of finite element approximation for a modele of saltwater intrusion into coastal aquifers

Abudawia, Amel 15 December 2015 (has links)
Dans ce travail, nous étudions un schéma élément fini que nous appliquons à un modèle décrivant l'intrusion saline dans les aquifères côtiers confinés et libres. Le modèle est basé sur l'approche hydraulique qui consiste à moyenner verticalement le problème initial 3D, cette approximation repose sur une hypothèse d'écoulement quasi-hydrostatique qui, loin des épontes et des sources, est vérifiée. Pour modéliser les interfaces entre l'eau douce et l'eau salée (respectivement entre la zone saturée et la zone sèche), nous combinons l'approche 'interface nette' à l'approche avec 'interface diffuse' ; cette approche est déduite de la théorie de champ de phase, introduite par Allen-Cahn, pour décrire les phénomènes de transition entre deux zones. Compte tenu de ces approximations, le problème consiste en un système fortement couplé d'edps quasi-linéaires de type parabolique dans le cas des aquifères libres décrivant l'évolution des profondeurs des 2 surfaces libres et de type elliptique-prabolique dans le cas des aquifères confinés, les inconnues étant alors la profondeur de l'interface eau salée/eau douce et la charge hydraulique de l'eau douce. Dans la première partie de la thèse, nous donnons dans le cas d'un aquifère confiné, des résultats d'estimation d'erreur d'un schéma semi-implicite en temps combiné à une discrétisation en espace de type élément fini Pk Lagrange. Ce résultat utilise entre autre un résultat de régularité du gradient de la solution exacte dans l'espace Lr(ΩT), r > 2, ce qui permet de traiter la non-linéarité et d'établir l'estimation d'erreur sous des hypothèses de régularité raisonnables de la solution exacte. Dans la seconde partie de la thèse, nous généralisons l'étude précédente au cas de l'aquifère libre. La difficulté principale est liée à la complexité du système d'edps paraboliques mais à nouveau, grâce au résultat de régularité Lr(ΩT), r > 2 établi pour les gradients des surfaces libres, nous montrons que le schéma est d'ordre 1 en temps et k en espace pour des solutions suffisamment régulières. Nous concluons ce travail par des simulations numériques dans différents contextes (impact de la porosité et de la conductivité hydraulique sur l'évolution de l'interface, pompage et injection d'eau douce, effet des marées) validant ainsi le modèle et le schéma. Puis nous comparons les résultats à ceux obtenus avec un schéma volume fini construit à partir d'un maillage structuré. / In this work, we study a finite element scheme we apply to a model describing saltwater intrusion into coastal aquifers confined and free. The model is based on the hydraulic approach of vertically averaging the 3D original problem, this approximation is based on a quasi-hydrostatic flow hypothesis which, instead of the walls and springs, is checked. To model the interface between freshwater and salt water (respectively between the saturated zone and dry zone), we combine the approach net interface (approach with the diffuse interface) ; This approach is derived from the phase field theory introduced by Allen-Cahn, to describe the phenomena of transition between two zones. Given these approximations, the problem consists of a strongly couple to edps parabolic quasi-linear system in the case of unconfined aquifers describing the evolution of the depths of two free surfaces and elliptical-parabolic type in the case confined aquifer, the unknowns being then the depth of salt water / fresh water and the hydraulic load of fresh water. In the first part of the thesis, we give in the case of a confined aquifer, error estimation results of a semi-implicit scheme in a combined time discretization space finite element type Pk Lagrange. This result among other uses a regularity result of the gradient of the exact solution in the space Lr(ΩT), r > 2, which can handle the non-linearity and to establish the error estimate under assumptions reasonable regularity of the exact solution. In the second part of the thesis, we generalize the previous study to the case of the free aquifer. The main difficulty is related to the complexity of the system of parabolic edps but again, thanks to regularity result Lr(ΩT), r > 2 gradients established for the free surfaces, we show that the scheme is of order 1 time and space k for sufficiently regular solutions. We conclude this work by numerical simulations in different contexts (impact of porosity and hydraulic conductivity of the evolution of the interface, and pumping fresh water injection, tidal effects) thus validating the model and diagram. The we compare the results with those obtained using a finite volume scheme constructed from a structured mesh.
129

Prix des matières premières dans le domaine automobile : une analyse économétrique de la dynamique du prix des plastiques / Feedstock prices in the automotive industry : an econometric analysis of plastic price dynamics

Cremaschi, Damien 20 November 2012
Le secteur automobile est de plus en plus dépendant aux matières plastiques dont le niveau et la volatilité des prix ont fortement augmenté au cours des dix dernières années, sous l’effet supposé des variations du prix du pétrole qui est le principal input nécessaire à leur fabrication. La thèse vise à fournir des outils économétriques permettant d’analyser et gérer le risque de variations des prix des principales matières plastiques utilisées dans l’industrie automobile. À l’aide des méthodologies de cointégration, nous montrons que les relations d’équilibre de long terme et les dynamiques de court terme mettent en évidence un mécanisme de transmission des variations des coûts de production sur le prix des plastiques situés en aval du processus productif. L’existence de relations de cointégration significatives entre les prix pétrochimiques et pétroliers justifie l’élaboration de stratégies de couverture contre les variations des coûts de production et l’estimation de modèles à correction d’erreur qui permettent d’affiner les prévisions des prix. / The automotive industry is increasingly dependent on plastic materials whose price level and volatility have risen sharply over the past decade due to the assumed effect of fluctuations in crude oil prices, which is the key feedstock in the production of final products such as plastics. This thesis aims to provide econometric tools to analyze, understand, and manage the risk of price volatility of major plastics materials consumed in the automotive industry. Using the cointegration methodology, we show that long-term equilibrium relationship and short-term dynamics reveal the transmission mechanism of input prices changes from the upstream market to the prices of plastics materials on the downstream market. The significant cointegration relationships between petrochemical and crude oil prices justify the development of hedging strategies against inputs prices fluctuation and the estimation of error correction models that should produce better prices forecast.
130

Algorithmes de poursuite stochastiques et inégalités de concentration empiriques pour l'apprentissage statistique / Stochastic pursuit algorithms and empirical concentration inequalities for machine learning

Peel, Thomas 29 November 2013 (has links)
La première partie de cette thèse introduit de nouveaux algorithmes de décomposition parcimonieuse de signaux. Basés sur Matching Pursuit (MP) ils répondent au problème suivant : comment réduire le temps de calcul de l'étape de sélection de MP, souvent très coûteuse. En réponse, nous sous-échantillonnons le dictionnaire à chaque itération, en lignes et en colonnes. Nous montrons que cette approche fondée théoriquement affiche de bons résultats en pratique. Nous proposons ensuite un algorithme itératif de descente de gradient par blocs de coordonnées pour sélectionner des caractéristiques en classification multi-classes. Celui-ci s'appuie sur l'utilisation de codes correcteurs d'erreurs transformant le problème en un problème de représentation parcimonieuse simultanée de signaux. La deuxième partie expose de nouvelles inégalités de concentration empiriques de type Bernstein. En premier, elles concernent la théorie des U-statistiques et sont utilisées pour élaborer des bornes en généralisation dans le cadre d'algorithmes de ranking. Ces bornes tirent parti d'un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous présentons une version empirique de l'inégalité de type Bernstein proposée par Freedman [1975] pour les martingales. Ici encore, la force de notre borne réside dans l'introduction d'un estimateur de variance calculable à partir des données. Cela nous permet de proposer des bornes en généralisation pour l'ensemble des algorithmes d'apprentissage en ligne améliorant l'état de l'art et ouvrant la porte à une nouvelle famille d'algorithmes d'apprentissage tirant parti de cette information empirique. / The first part of this thesis introduces new algorithms for the sparse encoding of signals. Based on Matching Pursuit (MP) they focus on the following problem : how to reduce the computation time of the selection step of MP. As an answer, we sub-sample the dictionary in line and column at each iteration. We show that this theoretically grounded approach has good empirical performances. We then propose a bloc coordinate gradient descent algorithm for feature selection problems in the multiclass classification setting. Thanks to the use of error-correcting output codes, this task can be seen as a simultaneous sparse encoding of signals problem. The second part exposes new empirical Bernstein inequalities. Firstly, they concern the theory of the U-Statistics and are applied in order to design generalization bounds for ranking algorithms. These bounds take advantage of a variance estimator and we propose an efficient algorithm to compute it. Then, we present an empirical version of the Bernstein type inequality for martingales by Freedman [1975]. Again, the strength of our result lies in the variance estimator computable from the data. This allows us to propose generalization bounds for online learning algorithms which improve the state of the art and pave the way to a new family of learning algorithms taking advantage of this empirical information.

Page generated in 0.189 seconds