• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 173
  • 28
  • 1
  • 1
  • 1
  • Tagged with
  • 477
  • 182
  • 176
  • 106
  • 76
  • 73
  • 71
  • 69
  • 67
  • 63
  • 58
  • 53
  • 52
  • 51
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Tests d'ajustement pour des processus stochastiques dans le cas de l'hypothèse nulle paramétrique / On goodness-of-fit tests with parametric hypotheses for some stochastic processes

Ben Abdeddaiem, Maroua 11 May 2016 (has links)
Ce travail est consacré au problème de construction des tests d'ajustement dans le cas des processus stochastiques observés en temps continu. Comme modèles d'observations, nous considérons les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. Sous l'hypothèse nulle, nous traitons le cas où chaque modèle dépend d'un paramètre inconnu unidimensionnel et nous proposons l'estimateur de distance minimale pour ce paramètre. Notre but est la construction des tests d'ajustement « asymptotically distribution free » (ADF) de niveau asymtotique α ϵ (0,1) dans le cas de cette hypothèse paramétrique pour les modèles traités. Nous montrons alors que la limite de chaque statistique étudiée ne dépend ni du modèle ni du paramètre inconnu. Les tests d'ajustement basés sur ces statistiques sont donc ADF. L'objectif principal de ce travail est la construction d'une transformation linéaire spéciale. En particulier, nous résolvons l'équation de Fredholm du second type avec le noyau dégénéré. Sa solution nous permet de construire la transformation linéaire désirée. Ensuite, nous montrons que l'application de cette transformation aux statistiques de base étudiées dans chaque modèle nous aide à introduire des statistiques ayant la même limite (l'intégrale du carrée du processus de Wiener). Cette dernière est « distribution free » vu qu'elle ne dépend ni du modèle ni du paramètre inconnu. Par conséquent, nous proposons des tests d'ajustement ADF en se basant sur cette transformation linéaire pour les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. / This work is devoted to the problem of the construction of several goodness of-fit (GoF) tests in the case of somestochastic processes observed in continuous time. As models of observations, we take "small noise" and ergodic diffusionprocesses and an inhomogeneous Poisson process. Under the null hypothesis, we treat the case where each model depends on an unknown one-dimensional parameter and we consider the minimum distance estimator for this parameter. Our goal is to propose "asymptotically distribution free" (ADF) GoF tests of asymptotic size α ϵ (0,1) in the case of the parametric null hypotheses for the considered models. Indeed, we show that the limit of each studied statistic does not depend on the model and the unknown parameter. Therefore, the tests based on these statistics are ADF.The main purpose of this work is to construct a special linear transformation. In particular, we solve Fredholm equation ofthe second kind with degenerated kernel. Its solution gives us the desired linear transformation. Next, we show that theapplication of this transformation to the basic statistics allows us to introduce statistics with the same limit (the integral of the square of the Wiener process). The latter is "distribution free" because it does not depend on the models and the unknown parameter. Therefore, we construct the ADF GoF tests which are based on this linear transformation for the diffusion ("small noise" and ergodic) and inhomogeneous Poisson processes.
422

Quantification of the model risk in finance and related problems / Quantification du risque de modèle en finance et problèmes reliés

Laachir, Ismail 02 July 2015 (has links)
L’objectif central de la thèse est d’étudier diverses mesures du risque de modèle, exprimées en terme monétaire, qui puissent être appliquées de façon cohérente à une collection hétérogène de produits financiers. Les deux premiers chapitres traitent cette problématique, premièrement d’un point de vue théorique, ensuite en menant un étude empirique centrée sur le marché du gaz naturel. Le troisième chapitre se concentre sur une étude théorique du risque dit de base (en anglais basis risk). Dans le premier chapitre, nous nous sommes intéressés à l’évaluation de produits financiers complexes, qui prend en compte le risque de modèle et la disponibilité dans le marché de produits dérivés basiques, appelés aussi vanille. Nous avons en particulier poursuivi l’approche du transport optimal (connue dans la littérature) pour le calcul des bornes de prix et des stratégies de sur (sous)-couverture robustes au risque de modèle. Nous reprenons en particulier une construction de probabilités martingales sous lesquelles le prix d’une option exotique atteint les dites bornes de prix, en se concentrant sur le cas des martingales positives. Nous mettons aussi en évidence des propriétés significatives de symétrie dans l’étude de ce problème. Dans le deuxième chapitre, nous approchons le problème du risque de modèle d’un point de vue empirique, en étudiant la gestion optimale d’une unité de gaz naturel et en quantifiant l’effet de ce risque sur sa valeur optimale. Lors de cette étude, l’évaluation de l’unité de stockage est basée sur le prix spot, alors que sa couverture est réalisée avec des contrats à termes. Comme mentionné auparavant, le troisième chapitre met l’accent sur le risque de base, qui intervient lorsque l’on veut couvrir un actif conditionnel basé sur un actif non traité (par exemple la température) en se servant d’un portefeuille constitué d’actifs traités sur le marché. Un critère de couverture dans ce contexte est celui de la minimisation de la variance qui est étroitement lié à la décomposition dite de Föllmer-Schweizer. Cette décomposition peut être déduite de la résolution d’une certaine équation différentielle stochastique rétrograde (EDSR) dirigée par une martingale éventuellement à sauts. Lorsque cette martingale est un mouvement brownien standard, les EDSR sont fortement associées aux EDP paraboliques semi linéaires. Dans le cas général nous formulons un problème déterministe qui étend les EDPs mentionnées. Nous appliquons cette démarche à l’important cas particulier de la décomposition de Föllmer-Schweizer, dont nous donnons des expressions explicites de la décomposition du payoff d’une option lorsque les sous-jacents sont exponentielles de processus additifs. / The main objective of this thesis is the study of the model risk and its quantification through monetary measures. On the other hand we expect it to fit a large set of complex (exotic) financial products. The first two chapters treat the model risk problem both from the empirical and the theoretical point of view, while the third chapter concentrates on a theoretical study of another financial risk called basis risk. In the first chapter of this thesis, we are interested in the model-independent pricing and hedging of complex financial products, when a set of standard (vanilla) products are available in the market. We follow the optimal transport approach for the computation of the option bounds and the super (sub)-hedging strategies. We characterize the optimal martingale probability measures, under which the exotic option price attains the model-free bounds; we devote special interest to the case when the martingales are positive. We stress in particular on the symmetry relations that arise when studying the option bounds. In the second chapter, we approach the model risk problem from an empirical point of view. We study the optimal management of a natural gas storage and we quantify the impact of that risk on the gas storage value. As already mentioned, the last chapter concentrates on the basis risk, which is the risk that arises when one hedges a contingent claim written on a non-tradable but observable asset (e.g. the temperature) using a portfolio of correlated tradable assets. One hedging criterion is the mean-variance minimization, which is closely related to the celebrated Föllmer-Schweizer decomposition. That decomposition can be deduced from the resolution of a special Backward Stochastic Differential Equations (BSDEs) driven by a càdlàg martingale. When this martingale is a standard Brownian motion, the related BSDEs are strongly related to semi-linear parabolic PDEs. In that chapter, we formulate a deterministic problem generalizing those PDEs to the general context of martingales and we apply this methodology to discuss some properties of the Föllmer-Schweizer decomposition. We also give an explicit expression of such decomposition of the option payoff when the underlying prices are exponential of additives processes.
423

Prédiction des mouvements du sol dus à un séisme : différences de décroissance entre petits et gros séismes et simulations large bande par fonctions de Green empiriques / Prediction of ground motion generated by an earthquake : differences of decay between small and large earthquakes and broadband simulations using empirical Green’s functions

Dujardin, Alain 16 October 2015 (has links)
La prédiction des mouvements du sol générés par un séisme est un enjeu majeur pour la prise en compte du risque sismique. C’est l’un des objectifs du projet SIGMA dans le cadre duquel j’ai réalisé ma thèse. Celle-ci se compose de deux parties. La première se concentre sur la dépendance à la magnitude de la décroissance des paramètres des mouvements du sol avec la distance. Celle-ci est un sujet de préoccupation aussi bien pour l’utilisation des relations d’atténuation (GMPEs), que pour les méthodes basées sur l’utilisation de petits évènements en tant que fonctions de Green empiriques. Nous avons démontré qu’aux distances les plus faibles (inférieures à la longueur de la faille), l'effet de saturation dû aux dimensions de la faille est prépondérant. Aux distances plus importantes, l'effet de l’atténuation anélastique devient prépondérant. Nous avons donc montré qu’il pouvait être délicat de mélanger des données de différentes régions dans les GMPEs, et validé l’utilisation des fonctions de Green empiriques à toutes les distances. Dans la deuxième partie sont testées 3 différentes méthodes de simulations dans un contexte complexe : un code combinant une source étendue en k2 et des EGFs, un code point-source EGFs et un code stochastique. Nous avons choisi de travailler sur le séisme de magnitude Mw 5.9 (29 mai 2012) situé dans un bassin sédimentaire profond (la plaine du Po), et qui a engendré des sismogrammes souvent dominés par les ondes de surface. On y démontre que sans connaissance à priori du milieu de propagation, les méthodes basées sur des EGF permettent de reproduire les ondes de surface, les valeurs de PGA, de PGV, ainsi que les durées des signaux générés. / The prediction of ground motion generated by an earthquake is a major issue for the consideration of seismic risk. This is one of the objectives of SIGMA project in which I realized my thesis. It consists of two parts. The first focuses on the magnitude dependence of the ground motion parameters decay with distance. This is a concern both for the use of relation of attenuation (GMPEs) than methods based on the use of small events as empirical Green functions. We have shown that as the shorter distances (less than the length of the fault), the saturation effect due to the fault size is preponderant. For larger distances, it’s the eanelastic attenuation effect which becomes predominant. So we have shown that it can be tricky to mix data from different regions in GMPEs and we validated the use of empirical Green functions at every distance. In the second part are tested three different simulation methods in a complex context: a code combining finite fault source in k2 and EGFs, a point-source code with EGFs and a stochastic code. We chose to work on the Mw 5.9 earthquake (May 29, 2012) which occurs in a deep sedimentary basin (the Po plain), and which has generated seismograms often dominated by surface waves. We show that without a priori knowledge of the propagation medium, methods based on EGFs can reproduce surface waves, the values of PGA, PGV, and the durations of the signals generated.
424

Méthodes de Monte-Carlo pour les diffusions discontinues : application à la tomographie par impédance électrique / Monte Carlo methods for discontinuous diffusions : application to electrical impedance tomography

Nguyen, Thi Quynh Giang 19 October 2015 (has links)
Cette thèse porte sur le développement de méthodes de Monte-Carlo pour calculer des représentations Feynman-Kac impliquant des opérateurs sous forme divergence avec un coefficient de diffusion constant par morceaux. Les méthodes proposées sont des variantes de la marche sur les sphères à l'intérieur des zones avec un coefficient de diffusion constant et des techniques de différences finies stochastiques pour traiter les conditions aux interfaces aussi bien que les conditions aux limites de différents types. En combinant ces deux techniques, on obtient des marches aléatoires dont le score calculé le long du chemin fourni un estimateur biaisé de la solution de l'équation aux dérivées partielles considérée. On montre que le biais global de notre algorithme est en général d'ordre deux par rapport au pas de différences finies. Ces méthodes sont ensuite appliquées au problème direct lié à la tomographie par impédance électrique pour la détection de tumeurs. Une technique de réduction de variance est également proposée dans ce cadre. On traite finalement du problème inverse de la détection de tumeurs à partir de mesures de surfaces à l'aide de deux algorithmes stochastiques basés sur une représentation paramétrique de la tumeur ou des tumeurs sous forme d'une ou plusieurs sphères. De nombreux essais numériques sont proposés et montrent des résultats probants dans la localisation des tumeurs. / This thesis deals with the development of Monte-Carlo methods to compute Feynman-Kac representations involving divergence form operators with a piecewise constant diffusion coefficient. The proposed methods are variations around the walk on spheres method inside the regions with a constant diffusion coefficient and stochastic finite differences techniques to treat the interface conditions as well as the different kinds of boundary conditions. By combining these two techniques, we build random walks which score computed along the walk gives us a biased estimator of the solution of the partial differential equation we consider. We prove that the global bias is in general of order two with respect to the finite difference step. These methods are then applied for tumour detection to the forward problem in electrical impedance tomography. A variance reduction technique is also proposed in this case. Finally, we treat the inverse problem of tumours detection from surface measurements using two stochastics algorithms based on a spherical parametric representation of the tumours. Many numerical tests are proposed and show convincing results in the localization of the tumours.
425

Two-Player Stochastic Games with Perfect and Zero Information / Jeux Stochastiques à Deux Joueurs à Information Parfaite et Zéro

Kelmendi, Edon 02 December 2016 (has links)
On considère des jeux stochastiques joués sur un graphe fini. La première partie s’intéresse aux jeux stochastiques à deux joueurs et information parfaite. Dans de tels jeux, les joueurs choisissent des actions dans ensemble fini, tour à tour, pour une durée infinie, produisant une histoire infinie. Le but du jeu est donné par une fonction d’utilité qui associe un réel à chaque histoire, la fonction est bornée et Borel-mesurable. Le premier joueur veut maximiser l’utilité espérée, et le deuxième joueur veut la minimiser. On démontre que si la fonction d’utilité est à la fois shift-invariant et submixing alors le jeu est semi-positionnel. C’est-à-dire le premier joueur a une stratégie optimale qui est déterministe et sans mémoire. Les deux joueurs ont information parfaite: ils choisissent leurs actions en ayant une connaissance parfaite de toute l’histoire. Dans la deuxième partie, on étudie des jeux de durée fini où le joueur protagoniste a zéro information. C’est-à-dire qu’il ne reçoit aucune information sur le déroulement du jeu, par conséquent sa stratégie est un mot fini sur l’ensemble des actions. Un automates probabiliste peut être considéré comme un tel jeu qui a un seul joueur. Tout d’abord, on compare deux classes d’automates probabilistes pour lesquelles le problème de valeur 1 est décidable: les automates leaktight et les automates simples. On prouve que la classe des automates simples est un sous-ensemble strict de la classe des automates leaktight. Puis, on considère des jeux semi-aveugles, qui sont des jeux à deux joueurs où le maximiseur a zéro information, et le minimiseur est parfaitement informé. On définit la classe des jeux semi-aveugles leaktight et on montre que le problème d’accessibilité maxmin est décidable sur cette classe. / We consider stochastic games that are played on finite graphs. The subject of the first part are two-player stochastic games with perfect information. In such games the two players take turns choosing actions from a finite set, for an infinite duration, resulting in an infinite play. The objective of the game is given by a Borel-measurable and bounded payoff function that maps infinite plays to real numbers. The first player wants to maximize the expected payoff, and the second player has the opposite objective, that of minimizing the expected payoff. We prove that if the payoff function is both shift-invariant and submixing then the game is half-positional. This means that the first player has an optimal strategy that is at the same time pure and memoryless. Both players have perfect information, so the actions are chosen based on the whole history. In the second part we study finite-duration games where the protagonist player has zero information. That is, he gets no feedback from the game and consequently his strategy is a finite word over the set of actions. Probabilistic finite automata can be seen as an example of such a game that has only a single player. First we compare two classes of probabilistic automata: leaktight automata and simple automata, for which the value 1 problem is known to be decidable. We prove that simple automata are a strict subset of leaktight automata. Then we consider half-blind games, which are two player games where the maximizer has zero information and the minimizer is perfectly informed. We define the class of leaktight half-blind games and prove that it has a decidable maxmin reachability problem.
426

Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques / Calculation of probabilities of rare events related to the finite-horizon maxima of stochastic processes

Shao, Jun 12 December 2016 (has links)
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel. / Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context.
427

Maîtrise des systèmes industriels : optimisation de la conception des lignes de production / Mathematical modeling, analysis and optimization of production lines design

Ouazène, Yassine 29 November 2013 (has links)
Lors de la phase de conception d'un système de production, toutes les alternatives fonctionnelles et technologiques doivent être étudiées afin de proposer la ou les meilleures solutions possibles. Ceci se traduit souvent par une conjugaison de plusieurs sous-problèmes tels que: la sélection de pièces d'équipements à partir d'un ensemble de solutions candidates pour chaque opération de fabrication; l'équilibrage et le dimensionnement des postes de travail; le dimensionnement des zones de stockage; le dimensionnement des systèmes de transport et l'aménagement des emplacements.Dans ce contexte, nous nous sommes intéressés à l’évaluation des performances ainsi qu’à l’optimisation de la conception d’un système de production très répandus dans l'industrie manufacturière à gros volume à savoir les lignes de production en série.Nous avons proposé une nouvelle méthode analytique d’évaluation de performances dite « Méthodes par Machines Equivalentes ». Cette méthode présente les avantages d'être plus précise et plus rapide que les approches existantes dans la littérature. Nous avons aussi montré la pertinence de cette méthode pour l’évaluation du taux de production des systèmes en configuration séries-parallèles ainsi que les lignes avec des machines ayant plusieurs modes de défaillance. Nous avons aussi développé un nouvel algorithme de programmation non linéaire afin d’optimiser le dimensionnement des stocks intermédiaires / During the design phase of a production system, all functional and technological alternatives should be explored in order to propose the best possible solutions. This often results in a combination of several sub-problems such as: selection of pieces of equipments from a set of candidate solutions for each manufacturing operation, dimensioning and allocation of buffers and storage areas, balancing workload among the different workstations, the specification of the type and capacity of the material handling system and the layout of equipments which consists of determining which workstations should be adjacent to each other and how they should be connected.In this context, we were interested in performance evaluation and optimization of serial production lines which are very common in high volume production systems.We have proposed a new analytical method, known as « Equivalent Machines Method» to evaluate the production line throughput. This method has the advantages to be more accurate and faster than the existing approaches in the literature.We have also established the relevance of this method for evaluating the production rate of series-parallel systems and other serial lines with machines having multiple failure modes.We have also developed a new algorithm based on nonlinear programming approach to solve the buffer allocation problem
428

Maintenance of monitored systems with multiple deterioration mechanisms in dynamic environments : application to wind turbines / Modèles de maintenance des systèmes à détériorations multiples en environnement dynamique : application aux éoliennes

Zhu, Wenjin 17 February 2014 (has links)
Les travaux présentés contribuent à la modélisation stochastique de la maintenance de systèmes mono- ou multi-composants à détériorations et à modes de défaillances multiples en environnement dynamique. Dans ce cadre, les contributions portent d'une part sur la modélisation des processus de défaillance, et d'autre part sur la proposition de structures de décision de maintenance intégrant les différents types d'information de surveillance en ligne disponible sur le système (état de détérioration mesuré ou reconstruit, état de l'environnement, ...) et le développement des modèles mathématiques d'évaluation associés. Les modèles de détérioration et de défaillances proposés pour les systèmes mono-composants permettent de rendre compte de sources de détérioration multiples (chocs et détérioration graduelle) et d'intégrer les effets de l'environnement sur la dégradation. Pour les systèmes multi-composants, on insiste sur les risques concurrents, indépendants ou dépendants et sur l'intégration de l'environnement. Les modèles de maintenance développés sont adaptés aux modèles de détérioration proposés et permettent de prendre en compte la contribution de chaque source de détérioration dans la décision de maintenance, ou d'intégrer de l'information de surveillance indirecte dans la décision, ou encore de combiner plusieurs types d'actions de maintenance. Dans chaque cas, on montre comment les modèles développés répondent aux problématiques de la maintenance de turbines et de parcs éoliens / The thesis contributes to stochastic maintenance modeling of single or multi-components deteriorating systems with several failure modes evolving in a dynamic environment. In one hand, the failure process modeling is addressed and in the other hand, the thesis proposes maintenance decision rules taking into account available on-line monitoring information (system state, deterioration level, environmental conditions …) and develops mathematical models to measure the performances of the latter decision rules.In the framework of single component systems, the proposed deterioration and failure models take into account several deterioration causes (chocks and wear) and also the impact of environmental conditions on the deterioration. For multi-components systems, the competing risk models are considered and the dependencies and the impact of the environmental conditions are also studied. The proposed maintenance models are suitable for deterioration models and permit to consider different deterioration causes and to analyze the impact of the monitoring on the performances of the maintenance policies. For each case, the interest and applicability of models are analyzed through the example of wind turbine and wind turbine farm maintenance
429

Evaluation de la sûreté de systèmes dynamiques hybrides complexes : application aux systèmes hydrauliques / Safety assessment of complex hybrid dynamic systems : application to hydraulic systems

Broy, Perrine 12 March 2014 (has links)
Ces travaux s'intéressent à l'estimation de la fiabilité des évacuateurs de crues vannés. Le comportement fiabilistes de ces systèmes hydrauliques dépend à la fois d'événements aléatoires discrets, mais aussi de l'évolution d'une variable déterministe continue : ce sont des systèmes dynamiques hybrides. Pour ces systèmes, l'événement redouté est réalisé lorsque le niveau de la retenue atteint un seuil de sûreté. La démarche de fiabilité dynamique proposée dans cette thèse vise à prendre en compte l’information temporelle de la modélisation à la synthèse d'indicateurs fiabilistes pour l'aide à la décision et développe deux contributions :1) L'élaboration d'une base de connaissances dédiée à la description des évacuateurs de crue en termes de fiabilité dynamique. Chaque classe de composants est décrite par un automate stochastique hybride dont les états sont les différentes phases de son fonctionnement. 2) Le suivi de la simulation de Monte Carlo et le traitement et l'analyse des "histoires" (séquence de tous les états activés et des dates d'activation) obtenues en simulation pour construire des indicateurs de fiabilité classique (probabilité d'occurrence de l'évènement redouté, identification des coupes équivalentes prépondérantes, ...). Des indicateurs de fiabilité dynamique basés sur la classification des histoires en fonction des dates de défaillance des composants concernés et sur l'estimation de l'importance dynamique sont aussi proposés / Hydraulic systems are hybrid dynamic systems whose evolution is a combination between discrete stochastic events on the one hand and continuous deterministic phenomena on the other hand. The undesired event is achieved when the dam level reaches a security threshold. In the frame of gated spillways dynamic reliability, the proposed methodology takes into account the temporal information during modeling and synthesis of reliability indicators for decision support.The first contribution of this work is the development of a knowledge base to describe a class of systems. Each component is described by a stochastic hybrid automaton whose states are the different working modes.The second contribution is Monte Carlo simulation monitoring and treatment results. A story is the sequence of all activated states and activation dates during the algorithm passage for a simulation. The analysis of results provides classical reliability indicators, such as the time evolution of the undesired event probability or the identification of predominant equivalent cuts. Our predictive approach is based on stories classification depending on components failure dates, then dynamic importance is assessed
430

Algorithmes de poursuite stochastiques et inégalités de concentration empiriques pour l'apprentissage statistique / Stochastic pursuit algorithms and empirical concentration inequalities for machine learning

Peel, Thomas 29 November 2013 (has links)
La première partie de cette thèse introduit de nouveaux algorithmes de décomposition parcimonieuse de signaux. Basés sur Matching Pursuit (MP) ils répondent au problème suivant : comment réduire le temps de calcul de l'étape de sélection de MP, souvent très coûteuse. En réponse, nous sous-échantillonnons le dictionnaire à chaque itération, en lignes et en colonnes. Nous montrons que cette approche fondée théoriquement affiche de bons résultats en pratique. Nous proposons ensuite un algorithme itératif de descente de gradient par blocs de coordonnées pour sélectionner des caractéristiques en classification multi-classes. Celui-ci s'appuie sur l'utilisation de codes correcteurs d'erreurs transformant le problème en un problème de représentation parcimonieuse simultanée de signaux. La deuxième partie expose de nouvelles inégalités de concentration empiriques de type Bernstein. En premier, elles concernent la théorie des U-statistiques et sont utilisées pour élaborer des bornes en généralisation dans le cadre d'algorithmes de ranking. Ces bornes tirent parti d'un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous présentons une version empirique de l'inégalité de type Bernstein proposée par Freedman [1975] pour les martingales. Ici encore, la force de notre borne réside dans l'introduction d'un estimateur de variance calculable à partir des données. Cela nous permet de proposer des bornes en généralisation pour l'ensemble des algorithmes d'apprentissage en ligne améliorant l'état de l'art et ouvrant la porte à une nouvelle famille d'algorithmes d'apprentissage tirant parti de cette information empirique. / The first part of this thesis introduces new algorithms for the sparse encoding of signals. Based on Matching Pursuit (MP) they focus on the following problem : how to reduce the computation time of the selection step of MP. As an answer, we sub-sample the dictionary in line and column at each iteration. We show that this theoretically grounded approach has good empirical performances. We then propose a bloc coordinate gradient descent algorithm for feature selection problems in the multiclass classification setting. Thanks to the use of error-correcting output codes, this task can be seen as a simultaneous sparse encoding of signals problem. The second part exposes new empirical Bernstein inequalities. Firstly, they concern the theory of the U-Statistics and are applied in order to design generalization bounds for ranking algorithms. These bounds take advantage of a variance estimator and we propose an efficient algorithm to compute it. Then, we present an empirical version of the Bernstein type inequality for martingales by Freedman [1975]. Again, the strength of our result lies in the variance estimator computable from the data. This allows us to propose generalization bounds for online learning algorithms which improve the state of the art and pave the way to a new family of learning algorithms taking advantage of this empirical information.

Page generated in 0.042 seconds