• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Utilisation de simulateurs multi-fidélité pour les études d'incertitudes dans les codes de caclul / Assessment of uncertainty in computer experiments when working with multifidelity simulators.

Zertuche, Federico 08 October 2015 (has links)
Les simulations par ordinateur sont un outil de grande importance pour les mathématiciens appliqués et les ingénieurs. Elles sont devenues plus précises mais aussi plus compliquées. Tellement compliquées, que le temps de lancement par calcul est prohibitif. Donc, plusieurs aspects de ces simulations sont mal compris. Par exemple, souvent ces simulations dépendent des paramètres qu'ont une valeur inconnue.Un metamodèle est une reconstruction de la simulation. Il produit des réponses proches à celles de la simulation avec un temps de calcul très réduit. Avec ce metamodèle il est possible d'étudier certains aspects de la simulation. Il est construit avec peu de données et son objectif est de remplacer la simulation originale.Ce travail est concerné avec la construction des metamodèles dans un cadre particulier appelé multi-fidélité. En multi-fidélité, le metamodèle est construit à partir des données produites par une simulation objective et des données qu'ont une relation avec cette simulation. Ces données approximées peuvent être générés par des versions dégradées de la simulation ; par des anciennes versions qu'ont été largement étudiées ou par une autre simulation dans laquelle une partie de la description est simplifiée.En apprenant la différence entre les données il est possible d'incorporer l'information approximée et ce ci peut nous conduire vers un metamodèle amélioré. Deux approches pour atteindre ce but sont décrites dans ce manuscrit : la première est basée sur des modèles avec des processus gaussiens et la seconde sur une décomposition à base d'ondelettes. La première montre qu'en estimant la relation il est possible d'incorporer des données qui n'ont pas de valeur autrement. Dans la seconde, les données sont ajoutées de façon adaptative pour améliorer le metamodèle.L'objet de ce travail est d'améliorer notre compréhension sur comment incorporer des données approximées pour produire des metamodèles plus précis. Travailler avec un metamodèle multi-fidélité nous aide à comprendre en détail ces éléments. A la fin une image globale des parties qui forment ce metamodèle commence à s'esquisser : les relations et différences entres les données deviennent plus claires. / A very important tool used by applied mathematicians and engineers to model the behavior of a system are computer simulations. They have become increasingly more precise but also more complicated. So much, that they are very slow to produce an output and thus difficult to sample so that many aspects of these simulations are not very well understood. For example, in many cases they depend on parameters whose value isA metamodel is a reconstruction of the simulation. It requires much less time to produce an output that is close to what the simulation would. By using it, some aspects of the original simulation can be studied. It is built with very few samples and its purpose is to replace the simulation.This thesis is concerned with the construction of a metamodel in a particular context called multi-fidelity. In multi-fidelity the metamodel is constructed using the data from the target simulation along other samples that are related. These approximate samples can come from a degraded version of the simulation; an old version that has been studied extensively or a another simulation in which a part of the description is simplified.By learning the difference between the samples it is possible to incorporate the information of the approximate data and this may lead to an enhanced metamodel. In this manuscript two approaches that do this are studied: one based on Gaussian process modeling and another based on a coarse to fine Wavelet decomposition. The fist method shows how by estimating the relationship between two data sets it is possible to incorporate data that would be useless otherwise. In the second method an adaptive procedure to add data systematically to enhance the metamodel is proposed.The object of this work is to better our comprehension of how to incorporate approximate data to enhance a metamodel. Working with a multi-fidelity metamodel helps us to understand in detail the data that nourish it. At the end a global picture of the elements that compose it is formed: the relationship and the differences between all the data sets become clearer.
102

Réduction de dimension via Sliced Inverse Regression : Idées et nouvelles propositions / Dimension reductio via Sliced Inverse Regression : ideas and extensions

Chiancone, Alessandro 28 October 2016 (has links)
Cette thèse propose trois extensions de la Régression linéaire par tranches (Sliced Inverse Regression, SIR), notamment Collaborative SIR, Student SIR et Knockoff SIR.Une des faiblesses de la méthode SIR est l’impossibilité de vérifier si la Linearity Design Condition (LDC) est respectée. Il est établi que, si x suit une distribution elliptique, la condition est vraie ; dans le cas d’une composition de distributions elliptiques il n y a aucune garantie que la condition soit vérifiée globalement, pourtant, elle est respectée localement.On va donc proposer une extension sur la base de cette considération. Étant donné une variable explicative x, Collaborative SIR réalise d’abord un clustering. Pour chaque cluster, la méthode SIR est appliquée de manière indépendante.Le résultat de chaque composant contribue à créer la solution finale.Le deuxième papier, Student SIR, dérive de la nécessité de robustifier la méthode SIR.Vu que cette dernière repose sur l’estimation de la covariance et contient une étape APC, alors elle est sensible au bruit.Afin d’étendre la méthode SIR on a utilisé une stratégie fondée sur une formulation inverse du SIR, proposée par R.D. Cook.Finalement, Knockoff SIR est une extension de la méthode SIR pour la sélection des variables et la recherche d’une solution sparse, ayant son fondement dans le papier publié par R.F. Barber et E.J. Candès qui met l’accent sur le false discovery rate dans le cadre de la régression. L’idée sous-jacente à notre papier est de créer des copies de variables d’origine ayant certaines proprietés.On va montrer que la méthode SIR est robuste par rapport aux copies et on va proposer une stratégie pour utiliser les résultats dans la sélection des variables et pour générer des solutions sparse / This thesis proposes three extensions of Sliced Inverse Regression namely: Collaborative SIR, Student SIR and Knockoff SIR.One of the weak points of SIR is the impossibility to check if the Linearity Design Condition (LDC) holds. It is known that if X follows an elliptic distribution thecondition holds true, in case of a mixture of elliptic distributions there are no guaranties that the condition is satisfied globally, but locally holds. Starting from this consideration an extension is proposed. Given the predictor variable X, Collaborative SIR performs initially a clustering. In each cluster, SIR is applied independently. The result from each component collaborates to give the final solution.Our second contribution, Student SIR, comes from the need to robustify SIR. Since SIR is based on the estimation of the covariance, and contains a PCA step, it is indeed sensitive to noise. To extend SIR, an approach based on a inverse formulation of SIR proposed by R.D. Cook has been used.Finally Knockoff SIR is an extension of SIR to perform variable selection and give sparse solution that has its foundations in a recently published paper by R. F. Barber and E. J. Candès that focuses on the false discovery rate in the regression framework. The underlying idea of this paper is to construct copies of the original variables that have some properties. It is shown that SIR is robust to this copies and a strategy is proposed to use this result for variable selection and to generate sparse solutions.
103

Régression linéaire bayésienne sur données fonctionnelles / Functional Bayesian linear regression

Grollemund, Paul-Marie 22 November 2017 (has links)
Un outil fondamental en statistique est le modèle de régression linéaire. Lorsqu'une des covariables est une fonction, on fait face à un problème de statistique en grande dimension. Pour conduire l'inférence dans cette situation, le modèle doit être parcimonieux, par exemple en projetant la covariable fonctionnelle dans des espaces de plus petites dimensions.Dans cette thèse, nous proposons une approche bayésienne nommée Bliss pour ajuster le modèle de régression linéaire fonctionnel. Notre modèle, plus précisément la distribution a priori, suppose que la fonction coefficient est une fonction en escalier. A partir de la distribution a posteriori, nous définissons plusieurs estimateurs bayésiens, à choisir suivant le contexte : un estimateur du support et deux estimateurs, un lisse et un estimateur constant par morceaux. A titre d'exemple, nous considérons un problème de prédiction de la production de truffes noires du Périgord en fonction d'une covariable fonctionnelle représentant l'évolution des précipitations au cours du temps. En terme d'impact sur les productions, la méthode Bliss dégage alors deux périodes de temps importantes pour le développement de la truffe.Un autre atout du paradigme bayésien est de pouvoir inclure de l'information dans la loi a priori, par exemple l'expertise des trufficulteurs et des biologistes sur le développement de la truffe. Dans ce but, nous proposons deux variantes de la méthode Bliss pour prendre en compte ces avis. La première variante récolte de manière indirecte l'avis des experts en leur proposant de construire des données fictives. La loi a priori correspond alors à la distribution a posteriori sachant ces pseudo-données.En outre, un système de poids relativise l'impact de chaque expert ainsi que leurs corrélations. La seconde variante récolte explicitement l'avis des experts sur les périodes de temps les plus influentes sur la production et si cet l'impact est positif ou négatif. La construction de la loi a priori repose alors sur une pénalisation des fonctions coefficients en contradiction avec ces avis.Enfin, ces travaux de thèse s'attachent à l'analyse et la compréhension du comportement de la méthode Bliss. La validité de l'approche est justifiée par une étude asymptotique de la distribution a posteriori. Nous avons construit un jeu d'hypothèses spécifique au modèle Bliss, pour écrire une démonstration efficace d'un théorème de Wald. Une des difficultés est la mauvaise spécification du modèle Bliss, dans le sens où la vraie fonction coefficient n'est sûrement pas une fonction en escalier. Nous montrons que la loi a posteriori se concentre autour d'une fonction coefficient en escalier, obtenue par projection au sens de la divergence de Kullback-Leibler de la vraie fonction coefficient sur un ensemble de fonctions en escalier. Nous caractérisons cette fonction en escalier à partir du design et de la vraie fonction coefficient. / The linear regression model is a common tool for a statistician. If a covariable is a curve, we tackle a high-dimensional issue. In this case, sparse models lead to successful inference, for instance by expanding the functional covariate on a smaller dimensional space.In this thesis, we propose a Bayesian approach, named Bliss, to fit the functional linear regression model. The Bliss model supposes, through the prior, that the coefficient function is a step function. From the posterior, we propose several estimators to be used depending on the context: an estimator of the support and two estimators of the coefficient function: a smooth one and a stewpise one. To illustrate this, we explain the black Périgord truffle yield with the rainfall during the truffle life cycle. The Bliss method succeeds in selecting two relevant periods for truffle development.As another feature of the Bayesian paradigm, the prior distribution enables the integration of preliminary judgments in the statistical inference. For instance, the biologists’ knowledge about the truffles growth is relevant to inform the Bliss model. To this end, we propose two modifications of the Bliss model to take into account preliminary judgments. First, we indirectly collect preliminary judgments using pseudo data provided by experts. The prior distribution proposed corresponds to the posterior distribution given the experts’ pseudo data. Futhermore, the effect of each expert and their correlations are controlled with weighting. Secondly, we collect experts’ judgments about the most influential periods effecting the truffle yield and if the effect is positive or negative. The prior distribution proposed relies on a penalization of coefficient functions which do not conform to these judgments.Lastly, the asymptotic behavior of the Bliss method is studied. We validate the proposed approach by showing the posterior consistency of the Bliss model. Using model-specific assumptions, efficient proof of the Wald theorem is given. The main difficulty is the misspecification of the model since the true coefficient function is surely not a step function. We show that the posterior distribution contracts on a step function which is the Kullback-Leibler projection of the true coefficient function on a set of step functions. This step function is derived from the true parameter and the design.
104

Aircraft trajectory prediction by local functional regression / Prévision de trajectoire de l'avion par régression fonctionnelle locale dans l'espace de Sobolev

Tastambekov, Kairat 18 December 2012 (has links)
Les systèmes de contrôle aérien donneront, dans un avenir assez proche, une plus grande autonomie et liberté d’action aux pilotes (en particulier dans le cadre de la “planification 4D des trajectoires”), ce qui nécessite une prévision de trajectoire de qualité, afin d’une part d’éviter les « conflits » entre avions (avions trop proches, d’où un risque de collision), d’autre part de réguler efficacement les temps d’arrivée aux aéroports.Les trajectoires dépendent de facteurs extérieurs souvent pas, ou mal connus ; en particulier les vents ne sont pas connus avec la précision nécessaire pour une prévision de trajectoire de qualité. De sorte que la prévision de trajectoire ne peut être faite de façon utilisable qu’à court ou moyen terme, disons dans un horizon de moins de 10 minutes ou de l’ordre de 10 à 30 minutes.On appelle “trajectoire 4D” la trajectoire d’un avion, dans l’espace 4D constitué des trois dimensions d’espace, et de la dimension du temps. L’objet de cette thèse est d’établir des méthodes de prévision de trajectoires 4D à court et moyen terme (jusqu’à 10 à 30 minutes). Une telle prévision prend en compte (éventuellement implicitement) des facteurs importants tels que le type de l’appareil, les conditions atmosphériques (vent, température), de façon à pouvoir en déduire les actions précises pour résoudre les conflits potentiels, et/ou arriver à l’instant t voulu à l’aéroport.Dans ce travail, nous présentons une nouvelle approche pour la prédiction des trajectoires d’avion. Cette méthode est basée sur une régression fonctionnelle linéaire, et comprend en particulier un prétraitement des données (lissage, mais surtout synchronisation et cadencement régulier en temps), résolution de la régression par l’utilisation d’une décomposition en ondelettes. On commence par collecter un nombre important de données concernant les vols ayant existé entre deux aéroports ; ces données comportent en particulier les coordonnées, vitesses et projection de l’avion à différents temps. L’étape suivante, que nous appelons localisation, consiste à déterminer un certain nombre de trajectoires “logiquement proches”, c’est à dire, en particulier, concernant le même type d’appareil, et concernant les mêmes aéroports d’origine et de destination. Cet ensemble de trajectoires est ensuite utilisé pour construire un modèle type, qui se rapproche le plus possible de la partie connue de la trajectoire en cours, à prolonger ; ceci est réalisé grâce à une régression fonctionnelle linéaire. Le “modèle type” est alors utilisé comme prédicteur de la trajectoire en cours. Remarquons que cet algorithme n’utilise que des mesures radar, et ne prend pas en compte explicitement des données importantes physiques ou aéronautiques. Cependant les trajectoires ayant servi pour construire le modèle type dépendant elles aussi de ces données, ces dernières sont implicitement prises en compte par cette démarche.Nous avons appliqué cette méthode sur de nombreuses trajectoires entre plusieurs aéroports français, la base de données s’étendant sur plus d’un an. Près de trois millions de vols ont été pris en compte. Les résultats sont présentés en fin du manuscrit ; ils présentent en particulier l’erreur de prédiction, qui est la différence entre la prédiction de la trajectoire et la trajectoire effective (connue puisqu’il s’agit de trajectoires ayant existé, mais bien sûr non utilisée à partir de l’instant où démarre la prévision de trajectoire). Ces résultats montrent que l’erreur de prédiction relative (différence relative entre l’erreur de prédiction et la déviation standard) est de l’ordre de 2% à 16 %. Les résultats obtenus sont meilleurs que ceux obtenus avec la régression linéaire multivariée standard, comme présenté en fin du manuscrit. Rappelons que la méthode est intrinsèque, ne dépend en particulier pas de la structure de l’espace aérien / Air Traffic Management (ATM) heavily rely on the ability to predict where an aircraft will be located in a 10-minute time window. So it is clear that a controller’s workload can be reduced by an accurate and automated forecast of aircraft trajectories, since knowing whether conflicts are to be expected helps in prioritizing the actions to be taken.Despite the increasing autonomy in future air traffic management systems, especially 4D trajectory planning, the ability of trajectory prediction is still actual. As known, 4D trajectory planning implies aircraft will be properly located in a certain place at a certain time. However, such an approach is not realistic. Because, in particular, of the wind, Present Flight Management Systems are not able to predict precisely the position of an aircraft in a window larger than, say 15 minutes. For this reason, trajectory prediction problem can be stated as an actual issues at least for the near future. We consider the problem of short to mid-term aircraft trajectory prediction, that is, the estimation of where an aircraft will be located over a 10 to 30 minutes time horizon. Such a problem is central in the decision support tools, especially in conflict detection and resolution algorithms. It also appears when an air traffic controller observes traffic on the radar screen and tries to identify convergent aircraft, which may be in conflict in the near future, in order to apply maneuvers that will separate them. The problem is then to estimate where the aircraft will be located in the time horizon of 10 - 30 minutes. A 4-dimensional (4D) trajectory prediction contains data specifying the predicted horizontal and vertical position of an aircraft. The ability to accurately predict trajectories for different types of aircraft under different flight conditions, that involving external actions (pilot, ATC) and atmospheric influences (wind, temperature), is an important factor in determining the accuracy and effectiveness of ATM.In this work, we present an innovative approach for aircraft trajectory prediction in this work. It is based on local linear functional regression that considers data preprocessing, localizing and solving linear regression using wavelet decomposition. This approach starts from collecting the data set, consisting of a large enough amounts of aircraft trajectories between several airports, in order to make statistical procedures useful. It is necessary to note that ATC radar observations for a given aircraft are a discrete collection of aircraft coordinates, speed, projections, and other factors depending on the radar system. The next step, called localization, is to select a subset of trajectories of the same type of aircraft and connecting the same Origin-Destination as an aircraft trajectory to be predicted. Let us denote an aircraft trajectory to be predicted as a real trajectory. Then, the selected subset is taken as a learning data set to construct a model which is a linear functional regression model. The first part of real aircraft is also taken as a learning set to the model, and the second part is taken to compare it with the predicted part, which is a linear functional regression model. This algorithm takes into account only past radar tracks, and does not make use of any physical or aeronautical parameters.This approach has been successfully applied to aircraft trajectories between several airports on the data set (one year of air traffic over France). The data set consists of more than 2.9*10^6 flights. Several examples at the end of the manuscript show that the relative prediction error that is the difference between prediction error and standard deviation is about 2 to 16 per cents. The proposed algorithm shows better results compares to the standard multiple linear regressions that is shown from the figures at the end of the manuscript. The method is intrinsic and independent from airspace structure
105

La grande prématurité en France métropolitaine et aux Antilles françaises : impact de la vulnérabilité sociale et économique / Very preterm births in Metropolitan France and French west indies : role of psychosocial factors and socio-economic vulnerability

Germany, Laurence 14 December 2016 (has links)
Dans un contexte d'inégalités socio-économiques marquées dans les risques d'accouchement prématuré, de mortinatalité ou de mortalité néonatale, notre objectif était de déterminer dans quelle mesure cette vulnérabilité impactait le devenir à court terme des enfants nés prématurés, d'étudier si l'amélioration des taux de survie observée ces deux dernières décennies bénéficiait de manière similaire à tous les niveaux socio-économiques, de décrire la prématurité dans les départements d'Outre-mer où la santé périnatale est plus défavorable que dans d'autres territoires. À partir des cohortes EPIPAGE nous avons montré que, bien qu'un niveau élevé de vulnérabilité soit associé à un risque augmenté de morbidité sévère chez les enfants survivants, c'est dans ce groupe que l'amélioration de la survie était la plus grande. / In a context of socio-economic inequalities supported in the risk of premature birth, stillbirth or neonatal death, our aim was to determine how this socio-economic vulnerability impacted on the short term outcome of preterm born infants , to study whether the improvement in survival rate and survival without severe morbidity observed over the last two decades in very premature infants was similar whatever the family socio-economic context and to describe the context of preterm birth in 2011 in the Département d'Outer-Mer (D.O.M) where perinatal health is less favorable than in other jurisdictions. From the EPIPAGE cohorts we showed that although a high level of vulnerability is associated with an increased risk of severe morbidity in survivor infants, it is in this group that improvement of the quality of survival over time is the greatest.
106

L'impact de la réglementation bancaire sur la stabilité et l'efficience des banques islamiques : une analyse comparée avec les banques conventionnelles / Banking regulation, stability and efficiency of Islamic banks : what works best? A comparison with conventional banks

Bitar, Mohammad 02 December 2014 (has links)
Cette thèse de doctorat est une première tentative d'examiner si les réglementations bancaires ont le même impact sur la stabilité et l'efficience des banques islamiques que sur celles des banques conventionnelles. Suite aux nouvelles recommandations de Bâle III, nous étudions l'impact des exigences minimales en matière de fonds propres, de liquidité et de levier financier sur la stabilité et l'efficience des banques islamiques comparativement aux banques conventionnelles. Une première étude exploratoire utilise l'analyse en composantes principales (ACP), les méthodes Logit et Probit et les régressions MCO pour montrer que les banques islamiques disposent d'un capital plus élevé, qu'elles sont plus liquides, plus profitables, mais moins stables que leurs homologues conventionnelles. Une deuxième étude empirique examine la stabilité des banques islamiques et utilise la régression quantile pour montrer que les banques islamiques sont moins stables que les banques classiques. L'étude prouve également que des exigences de fonds propres renforcées améliorent la stabilité des banques islamiques les plus petites et les plus liquides, tandis que le levier financier est négativement associé à la stabilité de ce type de banques. Des contraintes de liquidité plus fortes renforcent la stabilité des grandes banques islamiques alors que l'effet est inverse pour les petites banques. Enfin, nous examinons l'efficience des banques islamiques en utilisant la méthode d'enveloppement des données (DEA). Nous constatons que les banques islamiques sont plus efficientes que les banques conventionnelles. Nous trouvons aussi que des exigences de capital et de liquidité accrues pénalisent l'efficience des petites banques islamiques très liquides, alors que l'inverse est vrai pour le levier financier. Ces résultats montrent notamment qu'en matière de réglementation du capital pour les petites banques islamiques très liquides, un choix est à opérer entre une efficience accrue ou une stabilité renforcée. / This PhD dissertation is the first attempt to examine whether banking regulations have the same impact on the stability and the efficiency of Islamic than for conventional banks. We benefit of Basel III recommendations to investigate the impact of bank capital, liquidity and leverage requirements on the stability and the efficiency of Islamic banks compared to conventional banks. A first exploratory study uses Principal Component Analysis, Logit and Probit methods, and OLS regressions and shows that Islamic banks have higher capital, liquidity, and profitability, but that they are less stable than their conventional counterparts. A second empirical study examines the stability of Islamic banks using conditional quantile regressions and proves that Islamic banks are less stable than conventional banks. It also shows that higher capital and lower leverage improve the adjusted profits of small and highly liquid Islamic banks. Liquidity is positively associated with the stability of large Islamic banks while an opposite effect is detected when small Islamic banks are examined. Finally, we study the efficiency of Islamic banks using Data Envelopment Analysis (DEA) and find that Islamic banks are more efficient than conventional banks. We also find that higher capital and liquidity requirements penalize the efficiency of small and highly liquid Islamic banks, while the opposite is true for financial leverage. These results show that concerning capital requirements for small and highly liquid Islamic banks, a possible trade-off could be found between stability and efficiency.
107

Contribution à l’étude de la gouvernance des risques bancaires. Approches théorique et empirique / Contribution to the study of the governance of banking risks. Theoretical and empirical approaches

Ben Ayed, Nissaf 12 December 2017 (has links)
L'objectif de cette thèse consiste à étudier les liens entre les mécanismes internes de gouvernance des banques et le comportement de prise de risque. Nous montrons qu’Adam Smith avait déjà mis en évidence la défaillance des mécanismes de gouvernance dans la Banque « Ayr » comme principal facteur induisant la prise de risque excessive et, par conséquent, sa faillite. Nous développons un modèle qui illustre qu’une rémunération indexée sur les actifs risqués n’implique pas une prise de risque plus importante. Nous constatons, aussi, que pour inciter le dirigeant à réaliser la meilleure combinaison d’actifs, le conseil d’administration est tenu de lui payer la rémunération la plus élevée. La thèse porte également sur l’étude des attributs standards du CA et ceux liés à la gouvernance des risques dans les banques de l'UE durant la période 2005-2015. Les résultats de la régression panel à effet fixe indiquent que les caractéristiques du CA affectent le niveau des crédits non performants et l’insolvabilité des banques de l’UE. Les résultats de la régression quantile à effet fixe révèlent une hétérogénéité dans la relation entre le risque bancaire et les attributs étudiés. Plus précisément, nous constatons que l’effet positif de l’indépendance et la fréquence des réunions du CA sur la gestion des risques bancaires est plus important dans les banques les plus risquées. Nos résultats mettent en évidence, également, que la prévention des comportements de prise de risque excessive des banques de l’UE nécessite l’amélioration de l’efficacité des CA à travers l’établissement des comités de risque et d’audit. / The purpose of this thesis is to study the internal mechanisms of banks’ governance and their impact on the risk-taking behavior. We show that Adam Smith had already highlighted the inadequacy of the governance’ mechanisms in “Ayr” Bank as the primary factor leading to an excessive risk-taking and, consequently, to its bankruptcy. We develop a model that aims to evaluate the extent to which governance mechanisms play a moderating role on the compensation policy and the level of risk taken by the CEO. We illustrate that a remuneration indexed on risky assets does not imply a greater risk taking. We also conclude that in order to induce the CEO to achieve the best combination of assets, the board of directors (BD) is required to pay the highest compensation. The thesis also focuses on the study of standard BD attributes as well as those related to risk’ governance in EU banks from 2005 to 2015. The empirical investigation showed that certain BD features affect the level of non-performing loan and the insolvency of EU banks. The results of the fixed-effect quantile regression reveal that the effect of the standard BD and risk’ governance attributes on risk-taking is heterogeneous. More specifically, we can note that the positive effect of the independence and frequency of board meetings on bank’ risk management is more significant in the riskier banks. In addition to this, our empirical results suggests that the prevention of excessive risk taking by EU banks requires the improvement of the effectiveness of BD through the establishment of risk an audit committees.
108

Conditional quantile estimation through optimal quantization / Estimation de quantiles conditionnels basée sur la quantification optimale

Charlier, Isabelle 17 December 2015 (has links)
Les applications les plus courantes des méthodes non paramétriques concernent l’estimation d’une fonction de régression (i.e. de l’espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l’impact des covariables sur la variable dépendante. De plus, ils permettent d’obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. À l’origine, la « quantification » était utilisée en ingénierie du signal et de l’information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d’une distribution continue d’une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques. Le but de cette thèse est d’appliquer la quantification optimale en norme Lp à l’estimation des quantiles conditionnels. Différents cas sont abordés : covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d’un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles. / One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the “quantization” was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of “quantizers”. In mathematics, the problem of optimal quantization is to find the best approximation of the continuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, the method has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability. The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications.
109

Sequential Monte-Carlo sampler for Bayesian inference in complex systems / Echantillonneur séquentiel de Monte-Carlo pour l’inférence Bayésienne dans des systèmes complexes

Nguyen, Thi Le Thu 03 July 2014 (has links)
Dans de nombreux problèmes, des modèles complexes non-Gaussiens et/ou non-linéaires sont nécessaires pour décrire précisément le système physique étudié. Dans ce contexte, les algorithmes de Monte-Carlo sont des outils flexibles et puissants permettant de résoudre de tels problèmes d’inférence. Toutefois, en présence de loi a posteriori multimodale et/ou de grande dimension, les méthodes classiques de Monte-Carlo peuvent conduire à des résultats non satisfaisants. Dans cette thèse, nous étudions une approche plus robuste et efficace: échantillonneur séquentiel de Monte-Carlo. Bien que cette approche présente de nombreux avantages par rapport aux méthodes traditionnelles de Monte-Carlo, le potentiel de cette technique est cependant très largement sous-exploité en traitement du signal. L’objectif de cette thèse est donc de proposer de nouvelles stratégies permettant d’améliorer l’efficacité de cet algorithme et ensuite de faciliter sa mise en œuvre pratique. Pour ce faire, nous proposons une approche adaptive qui sélectionne la séquence de distributions minimisant la variance asymptotique de l'estimateur de la constante de normalisation de la loi a posteriori. Deuxièmement, nous proposons un mécanisme de correction qui permet d’améliorer l’efficacité globale de la méthode en utilisant toutes les particules générées à travers toutes les itérations de l’algorithme (au lieu d’uniquement celles de la dernière itération). Enfin pour illustrer l’utilité de cette approche ainsi que des stratégies proposées, nous utilisons cet algorithme dans deux problèmes complexes: la localisation de sources multiples dans les réseaux de capteurs et la régression Bayésienne pénalisée. / In many problems, complex non-Gaussian and/or nonlinear models are required to accurately describe a physical system of interest. In such cases, Monte Carlo algorithms are remarkably flexible and extremely powerful to solve such inference problems. However, in the presence of high-dimensional and/or multimodal posterior distribution, standard Monte-Carlo techniques could lead to poor performance. In this thesis, the study is focused on Sequential Monte-Carlo Sampler, a more robust and efficient Monte Carlo algorithm. Although this approach presents many advantages over traditional Monte-Carlo methods, the potential of this emergent technique is however largely underexploited in signal processing. In this thesis, we therefore focus our study on this technique by aiming at proposing some novel strategies that will improve the efficiency and facilitate practical implementation of the SMC sampler. Firstly, we propose an automatic and adaptive strategy that selects the sequence of distributions within the SMC sampler that approximately minimizes the asymptotic variance of the estimator of the posterior normalization constant. Secondly, we present an original contribution in order to improve the global efficiency of the SMC sampler by introducing some correction mechanisms that allow the use of the particles generated through all the iterations of the algorithm (instead of only particles from the last iteration). Finally, to illustrate the usefulness of such approaches, we apply the SMC sampler integrating our proposed improvement strategies to two challenging practical problems: Multiple source localization in wireless sensor networks and Bayesian penalized regression.
110

Statut de la faillite en théorie financière : approches théoriques et validations empiriques dans le contexte français / Status of the bankruptcy of financial theory : theoretical and empirical validation in French context

Ben Jabeur, Sami 27 May 2011 (has links)
Dans la conjoncture économique actuelle un nombre croissant de firmes se trouvent confrontées à des difficultés économiques et financières qui peuvent, dans certains cas, conduire à la faillite. En principe, les difficultés ne surviennent pas brutalement, en effet, avant qu’une entreprise soit déclarée en faillite, elle est confrontée à des difficultés financières de gravité croissante : défaut de paiement d’une dette, insolvabilité temporaire, pénurie de liquidité, etc. L’identification des causes de la défaillance n’est pas évidente, puisqu’on ne saurait énumérer de manière limitative les facteurs qui la provoquent. Les causes sont multiples et leur cumul compromet d’autant plus la survie de l’entreprise. L’importance de ce phénomène et son impact sur l’ensemble de l’économie justifie le besoin de le comprendre, l’expliquer en analysant les causes et les origines. L’objectif de notre étude est de classer les entreprises en difficulté selon leur degré de viabilité et de comprendre les causes de la dégradation de leur situation. Nous effectuerons une comparaison entre trois modèles (Analyse discriminante linéaire, le modèle Logit et la régression PLS) ce qui nous permettra à partir des taux de bon classement obtenus, de choisir le meilleur modèle tout en précisant l’origine et les causes de ces défaillances. / In actual economic situation an increasing number of firms are facing economic and financial difficulties which can, in certain cases, drive to failure. In principle, difficulties do not happen suddenly, in effect, before a firm is declared bankrupt, it is confronted to financial difficulties of growing seriousness: default in payment of a debt, temporary insolvency, scarceness of liquidity, etc. Identifying the causes of the failure is not obvious, since one can not exhaustively enumerate the factors that cause it. The causes are multiple and overlapping compromise even more the company's survival. The importance of this phenomenon and its impact on the overall economy justifies the need to understand, explain it by analyzing the causes and origins The aim of our study is to classify firms in trouble according to their degree of viability and to understand the causes of the deterioration of their situation. We will do a comparison between three models (linear differential Analysis, the model Logit and decline PLS) what will allow us from the rates of good classification acquired, to choose the best model while specifying origin and reasons of these faults.

Page generated in 0.0654 seconds