• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • Tagged with
  • 13
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

LASERS MONOMODES A FAIBLE SENSIBILITE A LA RETROACTION OPTIQUE POUR LES TRANSMISSIONS A 2,5GBit/s SANS ISOLATEUR

GRILLOT, Frédéric 22 April 2003 (has links) (PDF)
Alors que les télécommunications optiques se sont imposées dans les liaisons point à point de très haut débit, leur extension au réseau métropolitain, caractérisé par une grande densité de connexions, est aujourd'hui freinée par le prix élevé des composants. Un des principaux facteurs de coût dans la fabrication des modules optique est lié au besoin de coupler le laser à un isolateur afin de le protéger des réflexions externes. Le but de cette thèse a consisté à développer des lasers monomodes faiblement sensibles à la réalimentation optique afin de pouvoir réaliser des transmissions à 2,5 GBit/s sans isolateur optique. L'étude de structures DFB (Distributed Feedback Lasers) conventionnelles a permis de relier les effets physiques induits sur les composants par la contre-réaction optique aux dégradations observées dans les courbes de taux d'erreurs. Bien qu'un tri de ces composants soit nécessaire à l'échelle industrielle, des transmissions à 2,5 GBit/s et à 85°C ont été réalisées sans plancher et avec de faibles pénalités après optimisation de la structure laser. Afin de s'affranchir de l'opération de tri, de nouvelles structures DFB à pas variable et fondées sur l'utilisation d'un réseau de Bragg asymétrique (chirped grating) ont ensuite été réalisées. Les résultats montrent des performances statiques et dynamiques homogènes sur plaque et au-delà de l'état de l'art. Outre la réduction du prix lié à l'absence d'isolateur, de telles performances permettent surtout de s'affranchir de l'opération de tri et sont donc particulièrement prometteuses pour le développement futur des réseaux de télécommunications tout optique.
2

Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique / Calibration of Lasso-type algorithms & statistical analysis of metallurgical data in aeronautics

Connault, Pierre 06 April 2011 (has links)
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité. / Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes.
3

Captage du CO2 en post combustion par procédé de perméation gazeuse / Gas permeation process for post combustion CO2 capture

Pfister, Marc 05 April 2017 (has links)
La technologie de Captage et Stockage du CO2 (CSC) est considérée comme une des principales solutions pour limiter les rejets de gaz à effet de serre (CO2) et lutter contre le réchauffement climatique. L’étape de captage fait appel à un procédé de séparation des fumées de post combustion qui a pour fonction l’extraction sélective du CO2 des autres composés. Les principales performances visées sont un taux de capture et une pureté du CO2 supérieurs à 90%, ainsi qu’une consommation énergétique minimale afin de ne pas générer un niveau trop élevé d’émissions secondaires de CO2. La perméation gazeuse par membrane dense est une technologie de séparation potentiellement applicable au captage du CO2 en post combustion. Sur la base de différents types de matériaux et mécanisme de transport associés (processus physique ou chimique) une large plage de valeurs de perméabilité et de sélectivité peut être atteinte. Une des dernières familles de membrane ayant démontrée des performances de séparation pouvant être intéressantes pour le captage du CO2 sont les membranes à transport facilité dites ‘’réactives ‘’. Une analyse systématique des performances de séparation de modules membranaires basés sur des membranes physiques (polymères denses) et sur des membranes réactives (transport facilité) pour le traitement de fumées de post combustion a été réalisée. La simulation d’un procédé de captage complet, incluant un ou deux étages de séparation membranaire, une étape de séchage et une étape de compression a ensuite été effectuée. L’ensemble des résultats, en particulier la pénalité énergétique globale du système et l’estimation des surfaces membranaires nécessaires, permet de positionner la technologie de perméation gazeuse comparativement aux autres procédés de captage / CO2 Capture and Storage (CCS) is a promising solution to separate CO2 from flue gas, to reduce the CO2 emissions in the atmosphere, and hence to reduce global warming. In CCS, one important constraint is the high additional energy requirement of the different capture processes. That statement is partly explained by the low CO2 fraction in the inlet flue gas and the high output targets in terms of CO2 capture and purity (>90%).Gas permeation across dense membrane can be used in post combustion CO2 capture. Gas permeation in a dense membrane is ruled by a mass transfer mechanism and separation performance in a dense membrane are characterized by component’s effective permeability and selectivity. One of the newest and encouraging type of membrane in terms of separation performance is the facilitated transport membrane. Each particular type of membrane is defined by a specific mass transfer law. The most important difference to the mass transfer behavior in a dense membrane is related to the facilitated transport mechanism and the solution diffusion mechanism and its restrictions and limitations.Permeation flux modelling across a dense membrane is required to perform a post combustion CO2 capture process simulation. A CO2 gas permeation separation process is composed of a two-steps membrane process, one drying step and a compression unit. Simulation on the energy requirement and surface area of the different membrane modules in the global system are useful to determine the benefits of using dense membranes in a post combustion CO2 capture technology
4

Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA

Tlili, Brahim 29 July 2008 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés à l'identification et la commande prédictive des systèmes non linéaires monovariables et multivariables en exploitant les modèles NARMA. Pour l'identification des modèles de type NARMA, nous avons proposé deux nouvelles méthodes heuristiques. La première méthode est basée sur les algorithmes génétiques binaires et la deuxième méthode constitue une combinaison entre le réseau de neurones artificiels à fonction d'activation polynomiale et l'algorithme génétique sous sa représentation réelle. Cette dernière méthode a été également développée pour la modélisation des systèmes multivariables. Les résultats trouvés, pratiques ou en simulations, ont confirmé l'efficacité et la robustesse des méthodes proposées. En effet, les modèles NARMA déterminés caractérisent avec une précision acceptable et avec une complexité raisonnable le comportement des systèmes étudiés. Par la suite nous avons proposé un contrôleur prédictif des systèmes non linéaires sous contraintes, qui exploite les modèles de type NARMA. La loi de commande est obtenue en minimisant un critère quadratique non convexe. Le problème d'optimisation est résolu par deux méthodes utilisant les algorithmes de Nelder-Mead et de Rosenbrock qui ne nécessitent pas le calcul de la dérivée du critère. Ces méthodes, combinées avec la fonction de pénalité, l'approche CFON ainsi que l'utilisation de la notion de multi initialisation, permettent une meilleure convergence vers le minimum global.
5

Analyse micro-économique du coût du chômage en Belgique : Réflexions en matière de perspectives sur le marché du travail et de pauvreté

Gangji, Amynah 09 September 2008 (has links)
L’objectif général de la thèse consistait à mieux comprendre les difficultés vécues par les chômeurs et les locataires en Belgique ainsi qu’à déterminer les moyens à mettre en œuvre pour les aider à les surmonter. Pour pouvoir répondre de manière adéquate à cette problématique relativement vaste, la thèse a été scindée en deux parties. La première partie avait pour objectif d’analyser les entraves rencontrées par les chômeurs en Belgique lors de leur réinsertion, qu’elle soit professionnelle et sociale. A partir du Panel Démographie Familiale, on peut observer qu’il n’y a pas réellement de rotation dans le phénomène du chômage en Belgique. Au contraire, ce sont souvent les mêmes individus qui y retournent régulièrement. Le premier chapitre de cette thèse a donc eu pour objectif d’étudier les causes de cette récurrence du chômage. A partir d’un modèle probit à effets aléatoires, on a montré que le phénomène est expliqué à hauteur de 57-82% par les caractéristiques des individus (observables ou non). La différence serait issue de la présence d’une dépendance d’état. Ainsi, par rapport à une personne identique en emploi, un individu qui aurait connu une expérience de chômage fera face à un risque accru (compris entre 11 et 33 points de pourcentage) de revivre cette expérience un an plus tard. Ces résultats montrent l’importance qu’il y a à concentrer les efforts sur la prévention du chômage. Le deuxième chapitre a, quant à lui, plutôt étudié les conditions salariales auxquelles était confrontés le chômeur une fois réemployé. Pour ce faire, on a estimé une équation de salaires sur laquelle on a appliqué un modèle à effets fixes. Cette analyse s’est faite sur base du PSBH pour une période courant de 1994 à 2002. Les résultats démontrent qu’une expérience de chômage engendre une pénalité salariale de l’ordre de 6%. En outre, cette dernière s’accroît de manière linéaire à mesure que la période de chômage s’allonge dans le temps. Enfin, on a démontré que le chômeur peut recouvrir partiellement le différentiel de salaire si tant est qu’il reste suffisamment longtemps dans son nouvel emploi. Néanmoins, la présence de dépendance d’état dans le chômage implique qu’il y a un risque que certains individus n’arrivent jamais à créer une relation d’emploi durable dans le temps. Dans ce cas, la pénalité perdurera. Si une expérience de chômage mène effectivement à des emplois moins bien payés ou plus instables, cela aura des implications en termes de conditions de vie. L'objectif du troisième chapitre a donc consisté à mesurer l’impact d’évènements dit « déclencheurs » (transitions sur le marché du travail des différents membres du ménage, bouleversement dans la structure familiale) sur les probabilités d’entrée dans et de sortie de la pauvreté en Belgique. La notion de pauvreté est approchée à l’aide de trois concepts recouvrant des réalités différentes : la pauvreté monétaire, la pauvreté subjective et la pauvreté des conditions de vie. L’étude montre qu’il n’y a pas de trajectoire unique qui mène ou qui permet de sortir de la pauvreté, tous les évènements déclencheurs ayant un rôle à jouer. Cependant l’ampleur et le sens des effets peuvent varier en fonction de l’approche considérée. Ainsi, les flux d’entrée et de sortie à partir des indicateurs subjectif et d’existence sont influencés plus fortement par les changements dans la situation conjugale des individus. Les pauvretés monétaires sont, quant à elles, plutôt affectées par l’arrivée ou le départ de personnes à charge. Enfin, les transitions sur le marché du travail affecteront de manière plus importante les flux d’entrée et de sortie de la pauvreté lorsque celle-ci est approchée par l’indicateur de privation relative. Dès lors, l’utilisation de l’approche subjective et de l’indicateur des conditions de vie nous ont apporté un éclairage nouveau quant à l’impact de certains évènements déclencheurs sur la situation de précarité vécue par les individus. La deuxième partie s’est concentrée sur les solutions existantes qui permettraient d’améliorer les conditions de vie des locataires aux revenus les plus bas pour la Région spécifique que constitue Bruxelles. Plus spécifiquement, le quatrième chapitre de la thèse a analysé les effets de la mise en place du Plan pour l’avenir du logement (construction de 5000 logements publics endéans les cinq ans) sur le cycle immobilier à Bruxelles. Pour ce faire, un modèle économétrique déterminant l’investissement privé et l’indice du prix immobilier pour les appartements et les maisons individuelles a été estimé. A partir des résultats obtenus, nous avons été à même d’effectuer des simulations de l’effet attendu de la construction de 5.000 à 10.000 logements publics sur les prix immobiliers ainsi que sur l’investissement privé sur une période courant de 20 à 30 ans. Les résultats indiquent que l’investissement public dans la construction de logements sociaux a des effets positifs en termes d’encouragement de l’investissement résidentiel privé (9.000 logements supplémentaires dans l’hypothèse de 5.000 logements publics construits) et de baisse du prix immobilier (de l’ordre de 1 à 2% après une dizaine d’années). A Bruxelles, l’explication résiderait dans un assainissement de la concurrence dans le « bas de gamme » du marché immobilier et un ralentissement du « filtering down ». A très long terme, le différentiel de prix se résorberait (dissipation du choc) mais l’effet multiplicateur de l’investissement public initial sur l’investissement résidentiel privé cumulé serait de l’ordre de 1,8. Le reproche fait au Plan pour l’avenir du logement est que la construction de 5.000 logements sociaux ne suffira pas à aider la totalité des ménages en difficulté à accéder à un logement décent. Or, à côté de cette politique d’offre, il existe, à disposition du gouvernement, un deuxième outil pour améliorer les conditions d’habitation des ménages devant se loger sur le marché locatif privé, qui cette fois agit du côté de la demande: l’attribution d’allocations-loyers, qui existe actuellement dans une grande majorité de pays européens. Le cinquième chapitre de la thèse a donc étudié la faisabilité de l’implémentation d’un programme d’allocation en RBC et les conséquences qu’il engendrerait sur le marché immobilier bruxellois. Face au double constat d’un déficit excessif de l’offre de logements décents dans le segment « faibles revenus » à Bruxelles et de danger d’inflation des loyers, nous ne recommandons pas la mise en œuvre d’un programme d’allocations-loyers dans cette ville. Avant d’y envisager une telle politique de stimulation de la demande, il faudrait d’abord accroître l’offre de logements sociaux et/ou subventionner la construction en général. L’idée est d’assainir d’abord la concurrence dans ce segment de marché pour y stabiliser les prix.
6

Résolution d’un problème quadratique non convexe avec contraintes mixtes par les techniques de l’optimisation D.C. / Solving a binary quadratic problem with mixed constraints by D.C. optimization techniques

Al Kharboutly, Mira 04 April 2018 (has links)
Notre objectif dans cette thèse est de résoudre un problème quadratique binaire sous contraintes mixtes par les techniques d'optimisation DC. Puisque l'optimisation DC a prouvé son efficacité pour résoudre des problèmes de grandes tailles dans différents domaines, nous avons décidé d'appliquer cette approche d'optimisation pour résoudre ce problème. La partie la plus importante de l'optimisation DC est le choix d'une décomposition adéquate qui facilite la détermination et accélère la convergence de deux suites construites. La première suite converge vers la solution optimale du problème primal et la seconde converge vers la solution optimale du problème dual. Dans cette thèse, nous proposons deux décompositions DC efficaces et simples à manipuler. L'application de l'algorithme DC (DCA) nous conduit à résoudre à chaque itération un problème quadratique convexe avec des contraintes mixtes, linéaires et quadratiques. Pour cela, il faut trouver une méthode efficace et rapide pour résoudre ce dernier problème à chaque itération. Pour cela, nous appliquons trois méthodes différentes: la méthode de Newton, la programmation semi-définie positive et la méthode de points intérieurs. Nous présentons les résultats numériques comparatifs sur les mêmes repères de ces trois approches pour justifier notre choix de la méthode la plus rapide pour résoudre efficacement ce problème. / Our objective in this work is to solve a binary quadratic problem under mixed constraints by the techniques of DC optimization. As DC optimization has proved its efficiency to solve large-scale problems in different domains, we decided to apply this optimization approach to solve this problem. The most important part of D.C. optimization is the choice of an adequate decomposition that facilitates determination and speeds convergence of two constructed suites where the first converges to the optimal solution of the primal problem and the second converges to the optimal solution of the dual problem. In this work, we propose two efficient decompositions and simple to manipulate. The application of the DC Algorithm (DCA) leads us to solve at each iteration a convex quadratic problem with mixed, linear and quadratic constraints. For it, we must find an efficient and fast method to solve this last problem at each iteration. To do this, we apply three different methods: the Newton method, the semidefinite programing and interior point method. We present the comparative numerical results on the same benchmarks of these three approaches to justify our choice of the fastest method to effectively solve this problem.
7

Une modélisation du contact par l'approche mortier : application à la mise en forme / Mortar approach contact modeling : application formatting

Kallel, Achraf 10 December 2014 (has links)
Cette thèse est située dans le cadre du projet FUI OASIS ayant comme objectif la modélisation d'un processus d'emboutissage optimisé. Le travail consiste essentiellement au développement des algorithmes de contact plus appropriés à ce type de mise en forme. Dans la littérature et pour plusieurs codes de calcul industriels, l'approche NTS (nœud à segment) demeure la plus utilisée pour la résolution d'un problème de contact. Dans certaine configuration, cette méthode présente des insuffisances et un manque de précision. On la remplaçant par l'approche mortier, on arrive à résoudre une gamme assez large de problèmes de contact. La méthode mortier, utilisée au initialement pour un calcul avec décomposition de domaine, a été le centre d'intérêt de plusieurs travaux de recherche pour la modélisation du contact. Dans ce travail, on va regrouper plusieurs méthodes de gestion du contact en les combinant avec l'approche mortier. L'algorithme de résolution, les éléments d'implémentation ainsi quelques exemples de validation présentant une critique des avantages et les limites de chaque techniques sont détaillés dans ce travail afin d'obtenir un support technique pour tous travail ultérieurs avec la méthode mortier. Le principal avantage de la méthode mortier se manifeste dans l'application des conditions de contact sous forme d'intégrale dans l'interface. Bien que cette méthode permette de réduire la différence des contraintes dans l'interface de contact d'un élément à un autre pour obtenir une meilleure continuité de la pression de contact, elle demeure insuffisante dans certaines applications en particulier pour les problèmes en grande déformation. Le lissage des surfaces de contact, qu'on peut appliquer par différentes techniques, présente une solution classique à ce genre de problème en mécanique de contact. L'originalité de ce travail, c'est la combinaison de l'utilisation des courbes B-Spline cubiques pour la description presque exacte de la surface de contact d'un côté avec une formulation avec l'approche mortier pour l'application des conditions de contact d'un autre côté. Cette combinaison forme un duo gagnant permettant de résoudre un problème de contact en grandes déformation. Les termes permettant l'implémentation des différentes techniques de lissage pour la résolution d'un problème de contact sont détaillés. Une attention particulière est accordée au lissage avec les B-Spline Cubiques.Tous les algorithmes détaillés dans ce travail sont implémentés dans un code maison FiEStA. C'est un code de calcul par éléments finis libre en langage C++. Certains développements concernant la loi de comportement hyper-élastique et l'intégralité du module du contact sont développés dans ce travail de thèse. / This thesis is situated in the FUI OASIS project which the objective is the modeling of an optimized stamping process. The work mainly involves the development of the most appropriate contact algorithms such formatting. In the literature and several industrial computing codes, the NTS approach (node to segment) remains the most used for the resolution of a contact problem. In certain configuration, this method has shortcomings and a lack of precision. We replacing it with mortar approach, we manage to solve a broad range of contact problems. The mortar method, used for the initial for calculation using domain decomposition, was the focus of several research projects for the modeling of the contact. In this work, we will consolidate multiple contact formulation methods in combination with mortar approach. The resolution algorithm, the elements of implementation and some examples of validation with a review of the advantages and limitations of each technique are detailed in this work in order to get technical support for subsequent work with the mortar method. The main advantage of the mortar method is in the application of the contact conditions in integral form in the interface. Although this method reduces the difference of the stresses in the contact interface of a component to another to obtain a better continuity of the contact pressure, it is still insufficient in some applications, particularly for large deformation problems. The smoothing of contact surfaces, which can be applied by various techniques, presents a classic solution to this problem in mechanical contact. The originality of this work is the combination of using cubic B-Spline curves for the almost exact description of the contact surface on one side with the use of the mortar approach to the application of the contact conditions on the other hand. This combination forms a winning combination for solving a contact problem in large deformation. The terms allowing the implementation of the different smoothing techniques for solving a problem of contact are detailed. Particular attention is paid to smoothing with Cu bic B-Spline. All algorithms detailed in this work are implemented in a house code 'Fiesta'. This is a free finite elements computer code in C ++. Some developments in the law of hyper-elastic behavior and completeness of the contact module are developed in this thesis.
8

Étude empirique de distributions associées à la Fonction de Pénalité Escomptée

Ibrahim, Rabï 03 1900 (has links)
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature. / We discuss a simulation approach for the joint density function of the surplus prior to ruin and deficit at ruin for risk models driven by Lévy subordinators. This approach is inspired by the Ladder Height decomposition for the probability of ruin of such models. The Classical Risk Model driven by a Compound Poisson process is a particular case of this more generalized one. The Expected Discounted Penalty Function, also referred to as the Gerber-Shiu Function (GS Function), was introduced as a unifying approach to deal with different quantities related to the event of ruin. The probability of ruin and the joint density function of surplus prior to ruin and deficit at ruin are particular cases of this function. Expressions for those two quantities have been derived from the GS Function, but those are not easily evaluated nor handled as they are infinite series of convolutions with no analytical closed form. However they share a similar structure, thus allowing to use the Ladder Height decomposition of the Probability of Ruin as a guiding method to generate simulated values for this joint density function. We present an introduction to risk models driven by subordinators, and describe those models for which it is possible to process the simulation. To motivate this work, we also present an application for this distribution, in order to calculate different risk measures for those risk models. An brief introduction to the vast field of Risk Measures is conducted where we present selected measures calculated in this empirical study. This work contributes to better understanding the behavior of subordinators driven risk models, as it offers a numerical point of view, which is absent in the literature.
9

Contribution à l'étude mathématique et numérique des structures piézoélectriques en contact

Ouafik, Youssef 22 October 2007 (has links) (PDF)
Le sujet de cette thèse se situe à la frontière entre les mathématiques appliquées et la mécanique. Il s'agit d'étudier, sous un angle mathématique, des problèmes piézoélectriques, c'est à dire des problèmes couplant action mécanique et action électrique, en présence de contact et de frottement. On s'intéresse notamment à l'analyse variationnelle et numérique de ces problèmes. La thèse comporte quatre parties. La première partie contient l'ensemble des outils mathématiques, numériques et mécaniques nécessaires à une bonne compréhension du travail réalisé par la suite. La deuxième partie aborde deux problèmes statiques de contact frottant entre un corps électro-élastique et une fondation. Dans le cas des formulations primales des problèmes, nous prouvons l'existence, l'unicité, et la dépendance continue des solutions faibles, exprimées en termes de déplacements et de potentiel électrique. Une formulation duale équivalente au problème précédent, exprimée en termes de contraintes et de déplacement électrique, est étudiée pour laquelle des résultats d'existence et d'unicité sont établis. La troisième partie aborde deux modèles de contact piézoélectrique dans un cadre évolutif de type quasistatique. Pour chaque modèle, on présente un résultat d'existence. Dans la quatrième partie, le travail porte sur l'analyse numérique et les simulations par différences finies en temps (Euler implicite) et éléments finis en espace. Dans le cas statique, on traite un problème électro-élastique avec contact frottant de type compliance. Le problème discret est posé et les estimations a priori de l'erreur sont obtenues. Le problème est écrit sous forme d'un Lagrangien augmenté couplé à un algorithme de type Newton généralisé. S'ensuit une simulation numérique en dimension deux d'espace et des vérifications numériques de convergence. Des résultats similaires sont obtenus dans le cas d'un problème de contact quasistatique électro-viscoélastique.
10

Étude empirique de distributions associées à la Fonction de Pénalité Escomptée

Ibrahim, Rabï 03 1900 (has links)
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature. / We discuss a simulation approach for the joint density function of the surplus prior to ruin and deficit at ruin for risk models driven by Lévy subordinators. This approach is inspired by the Ladder Height decomposition for the probability of ruin of such models. The Classical Risk Model driven by a Compound Poisson process is a particular case of this more generalized one. The Expected Discounted Penalty Function, also referred to as the Gerber-Shiu Function (GS Function), was introduced as a unifying approach to deal with different quantities related to the event of ruin. The probability of ruin and the joint density function of surplus prior to ruin and deficit at ruin are particular cases of this function. Expressions for those two quantities have been derived from the GS Function, but those are not easily evaluated nor handled as they are infinite series of convolutions with no analytical closed form. However they share a similar structure, thus allowing to use the Ladder Height decomposition of the Probability of Ruin as a guiding method to generate simulated values for this joint density function. We present an introduction to risk models driven by subordinators, and describe those models for which it is possible to process the simulation. To motivate this work, we also present an application for this distribution, in order to calculate different risk measures for those risk models. An brief introduction to the vast field of Risk Measures is conducted where we present selected measures calculated in this empirical study. This work contributes to better understanding the behavior of subordinators driven risk models, as it offers a numerical point of view, which is absent in the literature.

Page generated in 0.0508 seconds