• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 163
  • 35
  • 1
  • Tagged with
  • 519
  • 265
  • 108
  • 95
  • 93
  • 84
  • 80
  • 79
  • 76
  • 74
  • 61
  • 60
  • 59
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Three empirical essays on moral hazard identification in insurance / Trois essais empiriques sur l’identification de l’aléa moral en assurance

Godzinski, Alexandre 16 October 2017 (has links)
L’aléa moral est une source de distorsion économique. La prédiction classique dans un cadre simple est qu’une meilleure couverture conduit à un effort moindre. Cette thèse étudie dans quelle mesure cette prédiction est ou non vérifiée empiriquement dans des cadres plus complexes. Le premier chapitre s’intéresse aux absences pour raison de santé. La politique étudiée est le jour de carence pour arrêt maladie dans la fonction publique de l’Etat en France. Cette politique de remboursement moins généreuse a notamment pour but de réduire l’absentéisme. Elle conduit à une baisse de la prévalence des absences de courte durée. Mais elle conduit aussi à une hausse de la prévalence des absences de longue durée. En conséquence, la prévalence de l’ensemble des absences pour raison de santé reste inchangée. Les deux chapitres suivants s’intéressent aux systèmes de bonus-malus d’un assureur automobile irlandais. Le deuxième chapitre s’intéresse à l’introduction d’un état très protecteur : la protection à vie du bonus. Cette protection est octroyée automatiquement et gratuitement aux assurés sous des conditions restrictives d’historique de sinistre et d’ancienneté. Comparé à la situation dans laquelle cet état protecteur n’existe pas, le taux de sinistre des assurés protégés augmente, tandis que le taux de sinistre des agents non protégés diminue, dans l’espoir d’être récompensés par la protection. L’existence de la protection est à l’origine d’un transfert intertemporel. Les assurés renoncent à de l’utilité présente en exerçant un effort supérieur, afin d’être récompensés par la protection et de profiter d’une utilité future plus élevée due à un effort moindre. Le troisième chapitre étudie la réaction juste après que l’assuré est récompensé par la protection à vie du bonus. Le taux de sinistre augmente immédiatement, mais seulement quand la protection existe depuis quelque temps. Cela suggère que l'effet d'un changement incitatif dépend de sa nature, mais aussi de son contexte. / Moral hazard is a source of economic distortion. The classical prediction in a simple framework is that a better coverage leads to a lower effort. This thesis studies the extent to which this prediction is empirically verified in more complex settings. The first chapter focuses on health-related absences. The policy under study is the one-day waiting period for sick leave in the French central civil service. This less generous reimbursement policy notably aims at reducing absenteeism. It leads to a decrease in the prevalence of short-term absences. But it also leads to an increase in the prevalence of long-term absences. As a result, the prevalence of all health-related absences stay unchanged. The two following chapters focus on bonus-malus systems used by an Irish car insurer. The second chapter focuses of the introduction on a highly protecting state: the lifetime bonus protection. This protection is granted automatically and freely to insurees under restrictive conditions on past claims and seniority. Compared to the situation in which this protecting state does not exist, the claims rate of protected insurees increases, but the claims rate of unprotected insurees decreases, in the hope of being rewarded with the protection. The existence of the protection induces an intertemporal transfer. Insurees waive present utility by exerting more effort, so as to be rewarded with the protection and to enjoy more future utility due to lower future effort. The third chapter studies the reaction just after the insuree is rewarded with the lifetime bonus protection. The claims rate increases immediately, but only when the protection exists for some time. This suggests that the effect of an incentive change depends on its nature, but also on its context.
362

Etude de l'épissage grâce à des techniques de régression parcimonieuse dans l'ère du séquençage haut débit de l'ARN / Deciphering splicing with sparse regression techniques in the era of high-throughput RNA sequencing.

Bernard, Elsa 21 September 2016 (has links)
Le nombre de gènes codant pour des protéines chez l’'homme, le vers rond et la mouche des fruits est du même ordre de grandeur. Cette absence de correspondance entre le nombre de gènes d’un eucaryote et sa complexité phénotypique s’explique en partie par le caractère alternatif de l’épissage.L'épissage alternatif augmente considérablement le répertoire fonctionnel de protéines codées par un nombre limité de gènes. Ce mécanisme, très actif lors du développement embryonnaire, participe au devenir cellulaire. De nombreux troubles génétiques, hérités ou acquis (en particulier certains cancers), se caractérisent par une altération de son fonctionnement.Les technologies de séquençage à haut débit de l'ARN donnent accès a une information plus riche sur le mécanisme de l’épissage. Cependant, si la lecture à haut débit des séquences d’ARN est plus rapide et moins coûteuse, les données qui en sont issues sont complexes et nécessitent le développement d’outils algorithmiques pour leur interprétation. En particulier, la reconstruction des transcrits alternatifs requiert une étape de déconvolution non triviale.Dans ce contexte, cette thèse participe à l'étude des événements d'épissage et des transcrits alternatifs sur des données de séquençage à haut débit de l'ARN.Nous proposons de nouvelles méthodes pour reconstruire et quantifier les transcrits alternatifs de façon plus efficace et précise. Nos contributions méthodologiques impliquent des techniques de régression parcimonieuse, basées sur l'optimisation convexe et sur des algorithmes de flots. Nous étudions également une procédure pour détecter des anomalies d'épissage dans un contexte de diagnostic clinique. Nous suggérons un protocole expérimental facilement opérant et développons de nouveaux modèles statistiques et algorithmes pour quantifier des événements d’épissage et mesurer leur degré d'anormalité chez le patient. / The number of protein-coding genes in a human, a nematodeand a fruit fly are roughly equal.The paradoxical miscorrelation between the number of genesin an organism's genome and its phenotypic complexityfinds an explanation in the alternative natureof splicing in higher organisms.Alternative splicing largely increases the functionaldiversity of proteins encoded by a limitednumber of genes.It is known to be involved incell fate decisionand embryonic development,but also appears to be dysregulatedin inherited and acquired human genetic disorders,in particular in cancers.High-throughput RNA sequencing technologiesallow us to measure and question splicingat an unprecedented resolution.However, while the cost of sequencing RNA decreasesand throughput increases,many computational challenges arise from the discrete and local nature of the data.In particular, the task of inferring alternative transcripts requires a non-trivial deconvolution procedure.In this thesis, we contribute to deciphering alternative transcript expressions andalternative splicing events fromhigh-throughput RNA sequencing data.We propose new methods to accurately and efficientlydetect and quantify alternative transcripts.Our methodological contributionslargely rely on sparse regression techniquesand takes advantage ofnetwork flow optimization techniques.Besides, we investigate means to query splicing abnormalitiesfor clinical diagnosis purposes.We suggest an experimental protocolthat can be easily implemented in routine clinical practice,and present new statistical models and algorithmsto quantify splicing events and measure how abnormal these eventsmight be in patient data compared to wild-type situations.
363

Developments in statistics applied to hydrometeorology : imputation of streamflow data and semiparametric precipitation modeling / Développements en statistiques appliquées à l'hydrométéorologie : imputation de données de débit et modélisation semi-paramétrique de la précipitation

Tencaliec, Patricia 01 February 2017 (has links)
Les précipitations et les débits des cours d'eau constituent les deux variables hydrométéorologiques les plus importantes pour l'analyse des bassins versants. Ils fournissent des informations fondamentales pour la gestion intégrée des ressources en eau, telles que l’approvisionnement en eau potable, l'hydroélectricité, les prévisions d'inondations ou de sécheresses ou les systèmes d'irrigation.Dans cette thèse de doctorat sont abordés deux problèmes distincts. Le premier prend sa source dans l’étude des débits des cours d’eau. Dans le but de bien caractériser le comportement global d'un bassin versant, de longues séries temporelles de débit couvrant plusieurs dizaines d'années sont nécessaires. Cependant les données manquantes constatées dans les séries représentent une perte d'information et de fiabilité, et peuvent entraîner une interprétation erronée des caractéristiques statistiques des données. La méthode que nous proposons pour aborder le problème de l'imputation des débits se base sur des modèles de régression dynamique (DRM), plus spécifiquement, une régression linéaire multiple couplée à une modélisation des résidus de type ARIMA. Contrairement aux études antérieures portant sur l'inclusion de variables explicatives multiples ou la modélisation des résidus à partir d'une régression linéaire simple, l'utilisation des DRMs permet de prendre en compte les deux aspects. Nous appliquons cette méthode pour reconstruire les données journalières de débit à huit stations situées dans le bassin versant de la Durance (France), sur une période de 107 ans. En appliquant la méthode proposée, nous parvenons à reconstituer les débits sans utiliser d'autres variables explicatives. Nous comparons les résultats de notre modèle avec ceux obtenus à partir d'un modèle complexe basé sur les analogues et la modélisation hydrologique et d'une approche basée sur le plus proche voisin. Dans la majorité des cas, les DRMs montrent une meilleure performance lors de la reconstitution de périodes de données manquantes de tailles différentes, dans certains cas pouvant allant jusqu'à 20 ans.Le deuxième problème que nous considérons dans cette thèse concerne la modélisation statistique des quantités de précipitations. La recherche dans ce domaine est actuellement très active car la distribution des précipitations exhibe une queue supérieure lourde et, au début de cette thèse, il n'existait aucune méthode satisfaisante permettant de modéliser toute la gamme des précipitations. Récemment, une nouvelle classe de distribution paramétrique, appelée distribution généralisée de Pareto étendue (EGPD), a été développée dans ce but. Cette distribution exhibe une meilleure performance, mais elle manque de flexibilité pour modéliser la partie centrale de la distribution. Dans le but d’améliorer la flexibilité, nous développons, deux nouveaux modèles reposant sur des méthodes semiparamétriques.Le premier estimateur développé transforme d'abord les données avec la distribution cumulative EGPD puis estime la densité des données transformées en appliquant un estimateur nonparamétrique par noyau. Nous comparons les résultats de la méthode proposée avec ceux obtenus en appliquant la distribution EGPD paramétrique sur plusieurs simulations, ainsi que sur deux séries de précipitations au sud-est de la France. Les résultats montrent que la méthode proposée se comporte mieux que l'EGPD, l’erreur absolue moyenne intégrée (MIAE) de la densité étant dans tous les cas presque deux fois inférieure.Le deuxième modèle considère une distribution EGPD semiparamétrique basée sur les polynômes de Bernstein. Plus précisément, nous utilisons un mélange creuse de densités béta. De même, nous comparons nos résultats avec ceux obtenus par la distribution EGPD paramétrique sur des jeux de données simulés et réels. Comme précédemment, le MIAE de la densité est considérablement réduit, cet effet étant encore plus évident à mesure que la taille de l'échantillon augmente. / Precipitation and streamflow are the two most important meteorological and hydrological variables when analyzing river watersheds. They provide fundamental insights for water resources management, design, or planning, such as urban water supplies, hydropower, forecast of flood or droughts events, or irrigation systems for agriculture.In this PhD thesis we approach two different problems. The first one originates from the study of observed streamflow data. In order to properly characterize the overall behavior of a watershed, long datasets spanning tens of years are needed. However, the quality of the measurement dataset decreases the further we go back in time, and blocks of data of different lengths are missing from the dataset. These missing intervals represent a loss of information and can cause erroneous summary data interpretation or unreliable scientific analysis.The method that we propose for approaching the problem of streamflow imputation is based on dynamic regression models (DRMs), more specifically, a multiple linear regression with ARIMA residual modeling. Unlike previous studies that address either the inclusion of multiple explanatory variables or the modeling of the residuals from a simple linear regression, the use of DRMs allows to take into account both aspects. We apply this method for reconstructing the data of eight stations situated in the Durance watershed in the south-east of France, each containing daily streamflow measurements over a period of 107 years. By applying the proposed method, we manage to reconstruct the data without making use of additional variables, like other models require. We compare the results of our model with the ones obtained from a complex approach based on analogs coupled to a hydrological model and a nearest-neighbor approach, respectively. In the majority of cases, DRMs show an increased performance when reconstructing missing values blocks of various lengths, in some of the cases ranging up to 20 years.The second problem that we approach in this PhD thesis addresses the statistical modeling of precipitation amounts. The research area regarding this topic is currently very active as the distribution of precipitation is a heavy-tailed one, and at the moment, there is no general method for modeling the entire range of data with high performance. Recently, in order to propose a method that models the full-range precipitation amounts, a new class of distribution called extended generalized Pareto distribution (EGPD) was introduced, specifically with focus on the EGPD models based on parametric families. These models provide an improved performance when compared to previously proposed distributions, however, they lack flexibility in modeling the bulk of the distribution. We want to improve, through, this aspect by proposing in the second part of the thesis, two new models relying on semiparametric methods.The first method that we develop is the transformed kernel estimator based on the EGPD transformation. That is, we propose an estimator obtained by, first, transforming the data with the EGPD cdf, and then, estimating the density of the transformed data by applying a nonparametric kernel density estimator. We compare the results of the proposed method with the ones obtained by applying EGPD on several simulated scenarios, as well as on two precipitation datasets from south-east of France. The results show that the proposed method behaves better than parametric EGPD, the MIAE of the density being in all the cases almost twice as small.A second approach consists of a new model from the general EGPD class, i.e., we consider a semiparametric EGPD based on Bernstein polynomials, more specifically, we use a sparse mixture of beta densities. Once again, we compare our results with the ones obtained by EGPD on both simulated and real datasets. As before, the MIAE of the density is considerably reduced, this effect being even more obvious as the sample size increases.
364

Capital humain, dette publique et croissance économique à long terme / Human capital, public debt and long-term economic growth

Murched, Maya 15 January 2016 (has links)
La croissance économique et ses moteurs représentent le principal sujet préoccupant les chercheurs en macroéconomie depuis longtemps. Investir en capital humain à travers le système éducatif joue un rôle important pour stimuler la croissance et le développement économique, cette accentuation a pris place depuis la naissance innovante de la théorie de la croissance endogène. L'attention et les efforts dévoués à l'investissement dans le capital humain peuvent être déstabilisés par le retour global et récent de la crise de la dette souveraine dans plusieurs pays, dette qui poursuit son ascension depuis 2007, et les politiques d'ajustement nécessaires d'après-crise. Des judicieuses politiques de redressement devraient être composées d'un mélange des activités encourageant la croissance économique, y compris l'investissement dans le capital humain, l'austérité et le long terme. L'objectif principal de cette thèse est de fournir des nouvelles évidences empiriques sur la relation dette-croissance économique et leurs externalités sur la formation de capital humain, les estimations sont réalisées sur un jeu de données récent et complet couvrant 22 années et 76 pays dans le monde. L'ensemble des variables utilisées englobe de nombreux agrégats macroéconomiques tel que : taux de croissance annuel du PIB, la dette publique en % de PIB, les dépenses publiques d'éducation en % de PIB, le moyen d'année de scolarité, le taux d'inflation, et d'autres. En utilisant une technique d'estimation semi-paramétrique appropriée qui offre des solutions pour de nombreux problèmes concernant les données, les résultats empiriques suggèrent un impact négatif et hétérogène de dette et des dépenses d'éducation publiques sur la croissance du PIB. Là où, l'utilisation des dépenses d'éducation dans l'ensemble de l'échantillon est inefficace, les décideurs politiques devraient ajuster et bien gérer la fonction de ces dépenses en même temps de viser des efforts publics pour réduire les niveaux élevés d'endettement et d'augmenter la croissance économique. Nous montrons également que l'utilisation des outils d'analyse textuelle en économie, offre une lecture rapide et globale des courants de recherche contenus dans la littérature empirique et théorique de la croissance économique. / Economic growth and its driving forces have been the maintopic preoccupying economic researchers since long time in macroeconomic branch. Public investment in human capital through educational system plays an ultimate role in boosting economic growth and development, this role has taken a place since the innovative dawn of endogenous growth theory. The focus and efforts of investing in human capital could be destabilized by the global and recent return of sovereign debt crisis in several countries, which continues its rise since theearly 2007, and the after-crisis necessary adjusting policies. Getting back wise policies should be composed of mixture of growth fostering activities, including the investment in human capital, austerity and forbearance.The main purpose of this thesis is to provide new empirical inferences on debt-growth relationship and its interaction with human capital formation. Estimates are carried on a recent and complete data set that spans over 22 years and involves 76 countries worldwide. The range of invested variables encompasses many macroeconomic aggregates such as : GDP annual growthrates, public debt to GDP ratio, and public education expenditure to GDP ratio, average schooling years, inflation rate, and others. Using a superior estimation semi-parametric technic which accounts for some data issues, the empirical results suggest a heterogeneous impact of public debt and education expenditures levels on GDP growth rates. Henceforth, the use of education expenditure in the whole sample is inefficient,where policy makers should adjust and well manage the function of these expenditure in line with the public efforts to reduce debt high levels and rise economic growth. We also show that the use of textual analysis tools in economic studies, such in growth literature, offers a rapid and total lecture of the hidden research trends embodied in the huge empirical and theoretical literature of economic growth.
365

Analyse factorielle de données structurées en groupes d'individus : application en biologie / Multivariate data analysis of multi-group datasets : application to biology

Eslami, Aida 21 October 2013 (has links)
Ce travail concerne les analyses visant à étudier les données où les individus sont structurés en différents groupes (données multi-groupes). La thèse aborde la question des données multi-groupes ayant une structure en un seul tableau, plusieurs tableaux, trois voies et deux blocs (régression). Cette thèse présente plusieurs méthodes d'analyse de données multi-groupes dans le cadre de l'analyse factorielle. Notre travail comporte trois parties. La première partie traite de l'analyse de données multi-groupes (un bloc de variables divisé en sous-groupes d'individus). Le but est soit descriptif (analyse intra-groupes) ou prédictif (analyse discriminante ou analyse inter-groupe). Nous commençons par une description exhaustive des méthodes multi-groupes. En outre, nous proposons deux méthodes : l'Analyse Procrustéenne duale et l'Analyse en Composantes Communes et Poids Spécifiques duale. Nous exposons également de nouvelles propriétés et algorithmes pour l'Analyse en Composantes Principales multi-groupes. La deuxième partie concerne l'analyse multi-blocs et multi-groupes et l'analyse trois voies et multi-groupes. Nous présentons les méthodes existantes. Par ailleurs, nous proposons deux méthodes, l'ACP multi-blocs et multi-groupes et l'ACP multi-blocs et multi-groupes pondérée, vues comme des extensions d'Analyse en Composantes Principales multi-groupes. L'analyse en deux blocs et multi-groupes est prise en compte dans la troisième partie. Tout d'abord, nous présentons des méthodes appropriées pour trouver la relation entre un ensemble de données explicatives et un ensemble de données à expliquer, les deux tableaux présentant une structure de groupe entre les individus. Par la suite, nous proposons quatre méthodes pouvant être vues comme des extensions de la régression PLS au cas multi-groupes, et parmi eux, nous en sélectionnons une et la développons dans une stratégie de régression. Les méthodes proposées sont illustrées sur la base de plusieurs jeux de données réels dans le domaine de la biologie. Toutes les stratégies d'analyse sont programmées sur le logiciel libre R. / This work deals with multi-group analysis, to study multi-group data where individuals are a priori structured into different groups. The thesis tackles the issue of multi-group data in a multivariate, multi-block, three-way and two-block (regression) setting. It presents several methods of multi-group data analysis in the framework of factorial analysis. It includes three sections. The first section concerns the case of multivariate multi-group data. The aim is either descriptive (within-group analysis) or predictive (discriminant analysis, between-group analysis). We start with a comprehensive review of multi-group methods. Furthermore, we propose two methods namely Dual Generalized Procrustes Analysis and Dual Common Component and Specific Weights Analysis. We also exhibit new properties and algorithms for multi-group Principal Component Analysis. The second section deals with multiblock multi-group and three-way multi-group data analysis. We give a general review of multiblock multi-group methods. In addition, we propose two methods, namely multiblock and multi-group PCA and Weighted-multiblock and multi-group PCA, as extensions of multi-group Principal Component Analysis. The two-block multi-group analysis is taken into account in the third section. Firstly, we give a presentation of appropriate methods to investigate the relationship between an explanatory dataset and a dependent dataset where there is a group structure among individuals. Thereafter, we propose four methods, namely multi-group PLS, in the PLS approach, and among them we select one and develop it into a regression strategy. The proposed methods are illustrated on the basis of several real datasets in the field of biology. All the strategies of analysis are implemented within the framework of R.
366

L'approche Support Vector Machines (SVM) pour le traitement des données fonctionnelles / Support Vector Machines (SVM) for Fonctional Data Analysis

Henchiri, Yousri 16 October 2013 (has links)
L'Analyse des Données Fonctionnelles est un domaine important et dynamique en statistique. Elle offre des outils efficaces et propose de nouveaux développements méthodologiques et théoriques en présence de données de type fonctionnel (fonctions, courbes, surfaces, ...). Le travail exposé dans cette thèse apporte une nouvelle contribution aux thèmes de l'apprentissage statistique et des quantiles conditionnels lorsque les données sont assimilables à des fonctions. Une attention particulière a été réservée à l'utilisation de la technique Support Vector Machines (SVM). Cette technique fait intervenir la notion d'Espace de Hilbert à Noyau Reproduisant. Dans ce cadre, l'objectif principal est d'étendre cette technique non-paramétrique d'estimation aux modèles conditionnels où les données sont fonctionnelles. Nous avons étudié les aspects théoriques et le comportement pratique de la technique présentée et adaptée sur les modèles de régression suivants. Le premier modèle est le modèle fonctionnel de quantiles de régression quand la variable réponse est réelle, les variables explicatives sont à valeurs dans un espace fonctionnel de dimension infinie et les observations sont i.i.d.. Le deuxième modèle est le modèle additif fonctionnel de quantiles de régression où la variable d'intérêt réelle dépend d'un vecteur de variables explicatives fonctionnelles. Le dernier modèle est le modèle fonctionnel de quantiles de régression quand les observations sont dépendantes. Nous avons obtenu des résultats sur la consistance et les vitesses de convergence des estimateurs dans ces modèles. Des simulations ont été effectuées afin d'évaluer la performance des procédures d'inférence. Des applications sur des jeux de données réelles ont été considérées. Le bon comportement de l'estimateur SVM est ainsi mis en évidence. / Functional Data Analysis is an important and dynamic area of statistics. It offers effective new tools and proposes new methodological and theoretical developments in the presence of functional type data (functions, curves, surfaces, ...). The work outlined in this dissertation provides a new contribution to the themes of statistical learning and quantile regression when data can be considered as functions. Special attention is devoted to use the Support Vector Machines (SVM) technique, which involves the notion of a Reproducing Kernel Hilbert Space. In this context, the main goal is to extend this nonparametric estimation technique to conditional models that take into account functional data. We investigated the theoretical aspects and practical attitude of the proposed and adapted technique to the following regression models.The first model is the conditional quantile functional model when the covariate takes its values in a bounded subspace of the functional space of infinite dimension, the response variable takes its values in a compact of the real line, and the observations are i.i.d.. The second model is the functional additive quantile regression model where the response variable depends on a vector of functional covariates. The last model is the conditional quantile functional model in the dependent functional data case. We obtained the weak consistency and a convergence rate of these estimators. Simulation studies are performed to evaluate the performance of the inference procedures. Applications to chemometrics, environmental and climatic data analysis are considered. The good behavior of the SVM estimator is thus highlighted.
367

Activisme actionnarial des hedge funds et création de valeur dans le cadre de la gouvernance actionnariale et partenariale d'entreprise : application au cas des entreprises françaises / Hedge fund activism and value creation through shareholder and stakeholder corporate governance : The French case

Ben Arfa, Nouha 29 September 2016 (has links)
L’étude du rôle de l’activisme actionnarial des hedge funds (HF) en matière de gouvernancedans la création de valeur des entreprises françaises constitue l’objet principal de cette thèse.Les réflexions menées, issues de la théorie de la gouvernance nous ont permis d’apporter lespremiers éléments de réponse à notre question centrale. L’approche exploratoire de cephénomène nous a conduits à déterminer un modèle français de l’activisme des HF. De notreapproche hypothético-déductive, nous avons pu élaborer un profil type des entreprises viséescotées et examiner les déterminants de la réaction du marché financier avant de mesurerl’effet de l’activisme des HF sur la création de valeur. Il en ressort que ce dernier est àl’origine de nouvelles situations d’équilibre organisationnel. Il est toutefois entravé par laréticence de la coalition de contrôle, renforcée par les caractéristiques spécifiques de lagouvernance et du contexte juridique en France, à entreprendre ces aménagements. Résultat,des coûts de conviction excessifs, des coûts d’enracinement et l’attentisme des investisseurssur le marché français. Contrairement aux investisseurs traditionnels, il est à admettre quel’activisme des HF est un mécanisme alternatif de contrôle efficient, là où certainsmécanismes de gouvernance actionnariale et partenariale semblent être insuffisammentdisciplinaires. Cependant, il est insuffisant pour inciter la coalition de contrôle à agir dansl’intérêt des différentes parties prenantes de l’entreprise. En France, la concentration et lanature actionnariale limitent, voire bloquent, les actions activistes des HF, contrairement auxentreprises américaines où le capital n’est pas verrouillé. La performance des entreprisesfrançaises est donc l’apanage du pouvoir managérial face à une influence activiste des HF. / This research aims to analyse the role of hedge fund (HF) activism in corporate governanceand French firms value creation. The reflections devoted the theory of governance haveenabled us to provide first elements to our central question. The exploratory study allowed usto determine a French model of HF activism. Our hypothetical-deductive approach enabledus to develop a typical profile of a target-listed firm and to examine the determinants of themarket reaction before measuring the effect of HF activism on value creation. The resultsshow that HF activism is causing new organizational equilibrium situations. However, it isopposed by the reluctance of the control coalition due to French governance and legalcontext. Hence, the exorbitant costs of activism in addition to entrenchment problems andinvestors wait-and-see attitude on the French market. As opposed to traditional investors, HFactivism appears as an efficient alternative control mechanism, where some shareholder andstakeholder governance mechanisms seem to be insufficiently disciplinary. Still, HF activismis unable to encourage the reluctant control coalition to act in the firms’ stakeholders’interest. In France, the controlling and family shareholders are opposed to HF activism. It ismore difficult for them to act as they do in American firms where capital is not locked. Thevalue creation is thus confined to managerial power over HF activism.
368

Development of photonic instruments for measurement of aerosol optical properties / Développement des instruments photoniques pour les mesures des propriétés optiques des aérosols

Wang, Gaoxuan 29 January 2018 (has links)
À cause de leur diffusion et de leur absorption des radiations solaires, les aérosols atmosphériques jouent un rôle important dans l'évolution du climat terrestre. Les techniques de mesure actuelles apportent certes, des connaissances, sur le forçage radiatif mais les résultats possèdent généralement de larges incertitudes, souvent du même ordre de grandeur que la valeur elle-même. Ces incertitudes sont causées par le manque de précision sur les données liées aux propriétés optiques estimées de ces aérosols (comme l'absorption, la diffusion ou l'extinction). Elles découlent principalement des techniques de mesures actuelles : à l'effet de chargement des filtres (lors de mesures classiques par filtres), aux mesures limitées par l'étendue spectrale des instruments, aux conditions d'échantillonnage différents lors de mesures séparées, etc. Dans ce travail de thèse, j'ai développé puis testé des instruments optiques et électroniques dans le but d'augmenter la précision des mesures des coefficients d'extinction et d'absorption des aérosols. (1) Deux spectrophones PhotAccoustique (PA) sont développés afin d'améliorer les mesures d'absorption des aérosols grâce à des mesures directes et sans filtres. Une première génération utilisant un rayonnement à 444 nm permet de réduire les incertitudes de mesure de 20-30% (obtenue par la technique d'échantillonnage par filtres) à 7,4% et 4,6% pour la détermination des coefficients d'absorption massique du carbone suie et de cendres volcaniques, respectivement. Transformé en spectrophone PA à multi-longueurs d'onde opérant conjointement à 444,532 et 660 nm, il permet alors de caractériser la dépendance spectrale du Coefficient d'Absorption d'Ångström (CAA). Les valeurs du CAA du carbone suie sont en accord avec les résultats publiés. Celles obtenues lors de l'analyse de deux échantillons de cendres volcaniques résultant de l'éruption du Eyjafjallajökull sont similaires au CAA du carbone brun,prouvent la présence d'importantes quantités d'éléments organiques. (2) Un extinctiomètre, basé sur le principe de la spectroscopie d'absorption en cavité à source large bande et incohérente (IBBCEAS), est ensuite développé afin de suivre l'évolution des propriétés optiques d'Aérosols Organiques Secondaires (AOS) produits par la photolyse du 2-nitrophénol dans une chambre de simulation atmosphérique de l'University College de Cork (Irlande). Leurs coefficients d'extinction et d'absorption sont suivis par cet extinctiomètre et un spectrophone PA durant tout le processus de production. Les évolutions des propriétés optiques des AOS confirment l'effet du vieillissement atmosphérique. (3) Une nouvelle architecture de détection synchrone est développé afin de rendre notre prototype plus léger, plus compact, mieux adapté aux applications in situ et plus particulièrement aux drones, techniques émergentes qui permettent de caractériser le profil vertical des aérosols dans l'atmosphère. Cette détection synchrone innovante, évaluée lors de la mesure de la concentration de NO₂ ambiant (niveau de concentration de quelques ppbv) possède une précision et une reproductibilité de mesures comparable à la détection synchrone SR830, commercialisée par la société Stanford Research Inc. L'évaluation précise de l'impact climatique des aérosols nécessite une quantification exacte et non biaisée de leurs propriétés optiques. À ce jour, elle reste un défi majeur dans la recherche sur les sciences de l'atmosphère et du changement climatique. Ainsi, des informations sur la taille des particules (liée à l'absorption sélective en longueur d'onde) nécessitent des mesures étendues sur de larges régions spectrales du rayonnement solaire principale. Le développement d'un albédomète large bande à haute précision, dédié à la mesure simultanée des coefficients d'extinction et d'absorption des aérosols est en cours. / Atmospheric aerosols are known to play an important role in earth climate by scattering and absorbing solar radiation. However, the aerosol radiative forcing effect is still known with large uncertainties (almost equal to the magnitude of the aerosol radiative forcing). The uncertainties are mainly caused by inaccurate estimates of aerosol optical properties (such as its absorption, scattering and extinction coefficients) using the currently available measurement techniques, with result in filter loading effect in classic filter technique, the uncertainty due to different sampling conditions for separate measurements of aerosol optical properties in combination of different techniques or due to the measurements at limited spectral wavelength ranges. My PhD work was carried out on the developments and applications of optical and electronic instruments for accurate measurements of aerosol extinction and absorption coefficient : (1) Photoacoustic spectrophones were developed for filter-free direct measurements of aerosol absorption with high accuracy. Measurements uncertainties down to about 7.4% and 4.6% (compared to about 20-30% in filter-based measurements) were achieved for the determination of mass absorption coefficients of black carbon and volcanic ash samples, respectively, using a single-wavelength PA spectrophone operating at 444 nm. A 3-wavelength PA spectrophone operating at 444,532 and 660 nm was developed and deployed for characterizing wavelength-dependent optical properties of aerosol absorption Ångström coefficient (AAC). The determined AAC of black carbon was well consistent with the previously reported value. Our AAC values of two volcanic ash samples from 2010 eruptions of Eyjafjallajökull, similar to the AAC of brown carbon, indicated abundant organic compounds in the volcanic ash samples. The developed multi-wavelength PA spectrophone was tested and validated in an intensive field campaign measurements of environmental particles in Grenoble (France). Side-by-side inter-comparison measurements using an aethalometer showed a lineat correlation of the measured aerosol absorption coefficients from both instruments. (2) An extinctiometer based on IBBCEAS was developed for study of optical properties of secondary organic aerosol (SOA) produced from photolysis of 2-nitrophenol in an atmospheric simulation chamber at University College Cork (Ireland). Simultaneous monitoring of the SOA extinction and absorption (in conjuction with a PA spectrophone) coefficients was performed during its whole production process, the measured evolutions of the SOA optical properties highlighted the atmospheric aging effect. (3) In order to render optical sensor lightweight and suitable for field applications, in particular for the newly emerging unmanned aerial vehicle (UAV) applications, a novel architecture of lock-in amplifier (LIA) was proposed and developed in the framework of this Phd Research. The novel LIA, evaluated with an inter-comparison measurement of ambient NO₂ at the ppbv concentration level, shows an identical performance (in terms of measurements accuracy and precision) as the widely used commercial LIA (SR830, Stanford Research Inc.), while using a simplified and lightweight hardware architecture. Evaluation of the aerosol impact on climate requires accurate and unbiased quantification of the its wavelength-dependent optical properties over a wide spectral region of the major solar radiation, which can provide information on particle size (due to the wavelength dependence of scattering by fine particles) as well as insights on aerosol chemical composition (because of its wavelength selective absorption). To date, it is still a key challenge in atmospheric science and climate change research. Development of a broadband aerosol albedometer is ongoing, which is dedicated to simultaneous measurements of aerosol extinction and absorption coefficients with high-accuracy and high-precision.
369

Estimation de canal radio-mobile à évolution rapide dans les systèmes à modulation OFMD

Hijazi, Hussein 25 November 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des systèmes radiocommunications numériques pour des récepteurs mobiles basés sur la modulation multi-porteuse OFDM. L'objectif est de proposer des algorithmes d'estimation de canal et de suppression d'IEP pour les <br />récepteurs OFDM à grande mobilité en liaison descendante. Notre démarche est d'estimer les paramètres de propagation du canal physique tels que les retards et les variations temporelles des gains complexes du canal à trajet multiples, au lieu du canal discret équivalent. Nous avons développé une approximation à base de polynôme pour l'évolution des gains complexes d'un canal multi-trajet de type Rayleigh avec un spectre de Jakes. En se basant sur cette modélisation polynomiale, nous avons présenté une étude théorique sur les Bornes de Cramér-Rao Bayésiennes (BCRBs) pour l'estimation des gains complexes du canal, en supposant les délais des trajets connus. Enfin, nous avons développé et analysé trois algorithmes itératifs d'estimation des variations temporelles des gains complexes (à l'intérieur d'un symbole OFDM) et de suppression d'IEP pour des récepteurs à grande mobilité. Les deux premiers sont basés sur l'interpolation (passe-bas ou polynomiale) des valeurs moyennes estimées et sur un égaliseur SSI. Ils ont montré de bonnes performances pour des récepteurs à vitesses modérées (i.e., fd.T <= 0.1). Le troisième algorithme est basé sur une modélisation AR et un filtre de Kalman pour estimer les coefficients polynomiaux des gains complexes, et sur un égaliseur QR. Il a fait preuve de bonnes performances pour des récepteurs à vitesses très élevées (i.e. , fd.T> 0.1).
370

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.

Page generated in 0.0653 seconds