• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Réponses des communautés piscicoles aux changements globaux : patrons et processus / Freshwater fish communities facing global changes : patterns and processes

Kuczynski, Lucie 15 December 2017 (has links)
La description des gradients spatiaux ainsi que la documentation des dynamiques temporelles de la biodiversité sont des piliers centraux de l'écologie moderne, en particulier dans le contexte actuel des changements globaux auquel l'intérêt porté est croissant depuis les dernières décennies. Les communautés écologiques sont désormais reconnues comme des entités issues de la sélection d'espèces à partir d'un pool régional, sélection déterminée par différents processus appelés règles d'assemblage. Les deux règles d'assemblage principalement reconnues sont les filtres environnementaux, sélectionnant des espèces similaires adaptées à un milieu, et la limite à la ressemblance, sélectionnant des espèces dont les caractéristiques n'induisent pas de compétition trop forte et permettent la coexistence. Les objectifs de ma thèse ont été de (i) comprendre les patrons spatiaux de la diversité des communautés piscicoles à large échelle, (ii) comprendre la dynamique temporelle de cette diversité et (iii) d'appréhender la dynamique temporelle des processus sous-jacents à la structuration des communautés. Pour ce faire, des données de communautés piscicoles ont été analysées, d'une part à l'échelle continentale (i.e. européenne), et d'autre part à l'échelle nationale (i.e. France) pour laquelle la dimension temporelle est également disponible (i.e. séries temporelles depuis 1966 jusqu'à 2012). La description de la diversité piscicole européenne a permis de mettre en évidence la complémentarité des facettes phylogénétique, morphologique et écologique de la diversité. De plus, le climat, et en particulier la saisonnalité des conditions climatiques, est apparu comme un déterminant majeur de la distribution spatiale de la diversité. A une échelle plus locale et en tenant compte de la temporalité des communautés, il a été mis en évidence que les communautés piscicoles françaises connaissaient actuellement une réorganisation taxonomique due aux déclins de populations et menant à une homogénéisation taxonomique globale. Bien qu'une réorganisation fonctionnelle de ces mêmes communautés ait été observée, résultant des variations démographiques des espèces d'eau chaude et de bas niveau trophique, les conséquences à large échelle restent à explorer. De plus, depuis les années 90, les filtres environnementaux se sont renforcés dans leur rôle structurant des communautés. Finalement, les travaux de cette thèse ont permis de valider des hypothèses usuellement associées aux patrons spatiaux de la diversité, comme mécanismes en lien avec les variations temporelles de la diversité. L'hypothèse de prédominance du stress (au travers des changements de saisonnalités des températures) et de préadaptation des espèces non-natives ont notamment permis de comprendre les dynamiques temporelles de diversité ainsi que des règles d'assemblage sous-jacentes à la structuration des communautés. / The description of spatial patterns as well as temporal dynamics of diversity has been a major cornerstone in modern ecology, especially in the contemporary context of global changes for which a growing concern is notable during last decades. Ecological communities are now acknowledged as the result of species that are sorted by selection from the regional pool. This selection of species is determined by several processes, namely the assembly rules. The two main assembly rules are the habitat filtering, selecting species that are able to inhabit in a given set of abiotic conditions, and the limiting similarity, selecting species for which ecological features are dissimilar in order to avoid a too strong competition and to coexist. The goals of my thesis were to (i) understand spatial patterns of freshwater fish community diversity at large scale, (ii) understand temporal dynamic of this diversity and (iii) describe temporal dynamics of the processes underlying the structuration of communities. In order to do this, data of freshwater fish communities has been analyzed first at continental scale (i.e. European) and then at national scale (i.e. France) for which temporal dimension of the data was also available (time series from 1966 to 2012). Based on the European freshwater diversity, we highlighted that phylogenetic, morphological and ecological facets were complementary. Moreover, climatic conditions, and especially their seasonality, seem to be a major driver of the spatial distribution of diversity. At finer scale and by taking into account the temporality of communities, we found that French freshwater communities experienced taxonomic reorganization due to population declines that ultimately leads to taxonomic homogenization of freshwater diversity in France. Although functional homogenization has been observed due to demographic fluctuations of warm water-dweller and low trophic level species, consequences at large scale remained to be explored. Moreover, since the 90s, habitat filtering increased as structuring force for freshwater fish communities. Finally, this thesis allowed us to validate hypothesis usually associated to spatial patterns of diversity, as mechanisms related to temporal variations of diversity. The stress dominance hypothesis (through temporal trends in temperature seasonality) and preadaption hypothesis (related to non-native species) have been used to understand temporal dynamics of diversity as well as of the assembly rules underlying structuration of communities.
112

Méthodes géodésiques appliquées à la géothermie et mesures de déformations locales dans le Fossé rhénan supérieur / Geodetic methods applied to geothermal monitoring and local deformation measurements in the Upper Rhine Graben

Heimlich, Christine 14 September 2016 (has links)
Le Fossé rhénan bénéficie de circulations naturelles d’eau géothermale, ce qui le rend propice à l’exploitation géothermique. Comment et où les fluides géothermaux circulent-ils ? Quels liens ont-ils avec la tectonique et la sismicité induite ? La géodésie spatiale pourrait-elle apporter de nouveaux éclairages à ces questionnements ? L’objectif de cette thèse est la réalisation d’un suivi géodésique des sites géothermiques de Soultz-sous-Forêts et de Rittershoffen (Alsace, France). Les observations permettent de faire un état des lieux des déplacements de surface des environs des sites pendant leur mise en place et apportent de nouvelles connaissances à l’échelle locale sur le Fossé rhénan supérieur. Les résultats majeurs concernent l’analyse des déformations observées à Landau (Rhénanie-Palatinat, Allemagne). Cette approche illustre également les complémentarités des méthodes géodésiques utilisées (InSAR, GNSS, nivellement). / The Upper Rhine Graben benefits of natural circulation of geothermal fluid, which makes it suitable for geothermal exploitation. How and where do geothermal fluids circulate? What are their links with induced seismicity and tectonics? Could geodesy provide new insigth to these questions ? The objective of this thesis is the realization of a geodetic monitoring at Soultz and Rittershoffen (Alsace, France) geothermal sites. The results are an inventory of nearby sites surface displacements during the implementation of the geothermal sites. They bring new knowledge locally on the Upper Rhine Graben. The main results are the analysis of deformations observed in Landau (Palatinat, Germany). This approach also reflects the complementarities of geodetic methods (InSAR, GNSS, levelling).
113

Fiscal policy and the labor market in the Euro area : multiplier, spillover effects and fiscal federalism / La politique budgétaire et le marché du travail dans la zone euro : multiplicateur, effets de débordements et fédéralisme fiscal

Betti, Thierry 10 December 2015 (has links)
Cette thèse contribue aux travaux récents sur les effets de la politique budgétaire à court terme sur l'économie. Plus précisément, sont étudiés dans cette thèse trois principaux aspects de la politique budgétaire à court terme. Premièrement, un des messages principaux consiste à dire que l'impact de la politique budgétaire sur l'économie dépend fortement de l'instrument fiscal utilisé. Augmenter les transferts aux ménages, augmenter l'investissement public ou diminuer les cotisations patronales sur les salaires produisent des effets fort différents sur les variables macroéconomiques clefs et notamment sur le niveau d'activité. Deuxièmement, au delà des effets sur l'activité économique, une large partie de cette thèse analyse l'impact de chocs budgétaires sur le marché du travail. Un des principaux résultats est qu'il paraît délicat de traduire des multiplicateurs sur l'activité en multiplicateurs sur le chômage, notamment à cause de la réponse de l'offre de travail.Troisièmement, nous savons que de multiples facteurs influencent la taille du multiplicateur budgétaire. Deux de ces éléments sont abordés dans cette thèse : la position de l'économie sur le cycle économique et la réponse de la politique monétaire. Les deux premiers chapitres de la thèse analysent ces différents aspects dans un cadre d'économie fermée. Les deux derniers chapitres traitent de la politique budgétaire en union monétaire en analysant les effets de débordement entre États membres ainsi que les capacités stabilisatrices de mécanismes de transferts budgétaires entre États membres afin d'amortir les chocs conjoncturels. / This thesis aims at contributing to the recent studies which investigate the short-run effects of fiscal policy on economic activity. More precisely, three main aspects of fiscal policy in the short run are analyzed. First, one major message is that the impact of fiscal policy on the economy depends strongly on the fiscal instrument used by the government. Rising transfers to households, increasing public investment or cutting social protection tax trigger very different effects on key macroeconomic variables and especially on output. Second, one large part of this thesis is dedicated to the analysis of the effects of fiscal policy shocks on the labor market. One main result is that we cannot determine unemployment fiscal multipliers according to the value of the output fiscal multiplier, especially because of the response of the labor force participation to fiscal policy shocks. Third, this is well-known that many elements influence the size of the output fiscal multiplier. Two of these elements are considered throughout this thesis: the position of the economy over the business cycle and the behavior of the monetary policy. The two first chapters of this thesis analyze these different aspects in some closed economy models. The two last chapters extend this study at the case of a monetary union by investigating the spillover effects of fiscal policy between member states but also the stabilizing properties of fiscal transfer mechanisms between member states in order to soften cyclical shocks.
114

Leaf Area Index (LAI) monitoring at global scale : improved definition, continuity and consistency of LAI estimates from kilometric satellite observations / Suivi de l'indice foliaire (LAI) à l'échelle globale : amélioration de la définition, de la continuité et de la cohérence des estimations de LAI à partir d'observations satellitaires kilometriques

Kandasamy, Sivasathivel 13 March 2013 (has links)
Le suivi des variables biophysiques à l’échelle globale sur de longues périodes de temps est essentiellepour répondre aux nouveaux enjeux que constituent le changement climatique et la sécurité alimentaire. L’indice foliaire (LAI) est une variable de structure définissant la surface d’interception du rayonnement incident et d’échanges gazeux avec l’atmosphère. Le LAI est donc une variable importante des modèles d’écosystèmes et a d’ailleurs été reconnue comme variable climatique essentielle (ECV). Cette thèse a pour objectif de fournir des estimations globales et continues de LAI à partir d’observations satellitaires en temps quasi-réel en réponse aux besoins des utilisateurs pour fournir des diagnostiques et pronostiques de l’état et du fonctionnement de la végétation. Quelques produits LAI sont déjà disponibles mais montrent des désaccords et des limitations en termes de cohérence et de continuité. Cette thèse a pour objectif de lever ces limitations. Dans un premier temps, on essaiera de mieux définir la nature des estimations de LAI à partir d’observations satellitaires. Puis, différentes méthodes de lissage te bouchage des séries temporelles ont été analysées pour réduire le bruit et les discontinuités principalement liées à la couverture nuageuse. Finalement quelques méthodes d’estimation temps quasi réel ont été évaluées en considérant le niveau de bruit et les données manquantes.Les résultats obtenus dans la première partie de cette thèse montrent que la LAI effectif et bien mieux estimé que la valeur réelle de LAI du fait de l’agrégation des feuilles observée au niveau du couvert. L’utilisation d’observations multidirectionnelles n’améliore que marginalement les performances d’estimation. L’étude montre également que les performances d’estimation optimales sont obtenues quand les solutions sont recherchées à l’intérieur d’une enveloppe définie par l’incertitude associée aux mesures radiométriques. Dans la deuxième partie consacrée à l’amélioration de la continuité et la cohérence des séries temporelles, les méthodes basées sur une fenêtre temporelle locale mais de largeur dépendant du nombre d’observations présentes, et utilisant la climatologie comme information a priori s’avèrent les plus intéressantes autorisant également l’estimation en temps quasi réel. / Monitoring biophysical variables at a global scale over long time periods is vital to address the climatechange and food security challenges. Leaf Area Index (LAI) is a structure variable giving a measure of the canopysurface for radiation interception and canopy-atmosphere interactions. LAI is an important variable in manyecosystem models and it has been recognized as an Essential Climate Variable. This thesis aims to provide globaland continuous estimates of LAI from satellite observations in near-real time according to user requirements to beused for diagnostic and prognostic evaluations of vegetation state and functioning. There are already someavailable LAI products which show however some important discrepancies in terms of magnitude and somelimitations in terms of continuity and consistency. This thesis addresses these important issues. First, the nature ofthe LAI estimated from these satellite observations was investigated to address the existing differences in thedefinition of products. Then, different temporal smoothing and gap filling methods were analyzed to reduce noiseand discontinuities in the time series mainly due to cloud cover. Finally, different methods for near real timeestimation of LAI were evaluated. Such comparison assessment as a function of the level of noise and gaps werelacking for LAI.Results achieved within the first part of the thesis show that the effective LAI is more accurately retrievedfrom satellite data than the actual LAI due to leaf clumping in the canopies. Further, the study has demonstratedthat multi-view observations provide only marginal improvements on LAI retrieval. The study also found that foroptimal retrievals the size of the uncertainty envelope over a set of possible solutions to be approximately equal tothat in the reflectance measurements. The results achieved in the second part of the thesis found the method withlocally adaptive temporal window, depending on amount of available observations and Climatology as backgroundestimation to be more robust to noise and missing data for smoothing, gap-filling and near real time estimationswith satellite time series.
115

Modèles de classification hiérarchiques d'images satellitaires multi-résolutions, multi-temporelles et multi-capteurs. Application aux désastres naturels / Hierarchical joint classification models for multi-resolution, multi-temporal and multi-sensor remote sensing images. Application to natural disasters

Hedhli, Ihsen 18 March 2016 (has links)
Les moyens mis en œuvre pour surveiller la surface de la Terre, notamment les zones urbaines, en cas de catastrophes naturelles telles que les inondations ou les tremblements de terre, et pour évaluer l’impact de ces événements, jouent un rôle primordial du point de vue sociétal, économique et humain. Dans ce cadre, des méthodes de classification précises et efficaces sont des outils particulièrement importants pour aider à l’évaluation rapide et fiable des changements au sol et des dommages provoqués. Étant données l’énorme quantité et la variété des données Haute Résolution (HR) disponibles grâce aux missions satellitaires de dernière génération et de différents types, telles que Pléiades, COSMO-SkyMed ou RadarSat-2 la principale difficulté est de trouver un classifieur qui puisse prendre en compte des données multi-bande, multi-résolution, multi-date et éventuellement multi-capteur tout en gardant un temps de calcul acceptable. Les approches de classification multi-date/multi-capteur et multi-résolution sont fondées sur une modélisation statistique explicite. En fait, le modèle développé consiste en un classifieur bayésien supervisé qui combine un modèle statistique conditionnel par classe intégrant des informations pixel par pixel à la même résolution et un champ de Markov hiérarchique fusionnant l’information spatio-temporelle et multi-résolution, en se basant sur le critère des Modes Marginales a Posteriori (MPM en anglais), qui vise à affecter à chaque pixel l’étiquette optimale en maximisant récursivement la probabilité marginale a posteriori, étant donné l’ensemble des observations multi-temporelles ou multi-capteur / The capabilities to monitor the Earth's surface, notably in urban and built-up areas, for example in the framework of the protection from environmental disasters such as floods or earthquakes, play important roles in multiple social, economic, and human viewpoints. In this framework, accurate and time-efficient classification methods are important tools required to support the rapid and reliable assessment of ground changes and damages induced by a disaster, in particular when an extensive area has been affected. Given the substantial amount and variety of data available currently from last generation very-high resolution (VHR) satellite missions such as Pléiades, COSMO-SkyMed, or RadarSat-2, the main methodological difficulty is to develop classifiers that are powerful and flexible enough to utilize the benefits of multiband, multiresolution, multi-date, and possibly multi-sensor input imagery. With the proposed approaches, multi-date/multi-sensor and multi-resolution fusion are based on explicit statistical modeling. The method combines a joint statistical model of multi-sensor and multi-temporal images through hierarchical Markov random field (MRF) modeling, leading to statistical supervised classification approaches. We have developed novel hierarchical Markov random field models, based on the marginal posterior modes (MPM) criterion, that support information extraction from multi-temporal and/or multi-sensor information and allow the joint supervised classification of multiple images taken over the same area at different times, from different sensors, and/or at different spatial resolutions. The developed methods have been experimentally validated with complex optical multispectral (Pléiades), X-band SAR (COSMO-Skymed), and C-band SAR (RadarSat-2) imagery taken from the Haiti site
116

Three essays on the transmission of monetary policy in the euro area / Trois essais sur la transmission de la politique monétaire en zone euro

Picault, Matthieu 28 June 2017 (has links)
Après Septembre 2008, du fait du gel du marché interbancaire, d’un manque de liquidité, d’une perte de confiance et des difficultés des institutions financières, la transmission de la politique monétaire au sein de la zone euro a été sévèrement altérée. La Banque Centrale Européenne (BCE) a donc dû avoir recours à des politiques monétaires non-conventionnelles. En considérant, au sein de la zone euro, les contraintes imposées à la banque centrale et la fragmentation des marchés financiers, l’objectif de cette thèse empirique est d’évaluer les canaux de transmission des politiques monétaires conventionnelles et non-conventionnelles de la BCE. Les comportements de prêts des banques étant liés à leurs coûts de financement, le premier essai se focalise sur le canal de transmission des prêts bancaires. Il étudie l’évolution des activités de prêts syndiqués d’institutions financières européennes et leur réaction aux politiques de la BCE. La communication de la banque centrale revêt une importance toute particulière dans une union monétaire. Les deuxième et troisième essais se concentrent sur le canal des signaux. Le deuxième essai étudie sur la communication durant les conférences de presse mensuelles ainsi que ses effets sur la prévisibilité des décisions de politique monétaire et sur les rendements et la volatilité des marchés financiers. Le dernier essai se focalise sur l’utilisation du guidage des taux d’intérêt futurs, une communication non-conventionnelle informant les marchés du niveau futur des taux d’intérêt de court-terme. Il étudie l’efficacité de cette annonce et sa capacité à influencer les prévisions de taux d’intérêt faites par les acteurs de marché. / After September 2008, due to a frozen interbank market, shortage of liquidity, loss of confidence, and collapsing financial institutions, the monetary policy transmission in the euro area was severely impaired. Under thus exceptional circumstances, the European Central Bank (ECB) had to turn to non-standard monetary policy measures. Considering, in the euro area, the constrained range of actions and fragmented financial markets, the objective of this empirical thesis is to assess the transmission channels of ECB standard and non-standard monetary policies and their effects on both financial markets and the economy.As banks’ lending behaviors are related to their financing costs, the first essay focuses on bank lending channel. It studies the evolution of lending activities of European financial institutions on the syndicated loan market and its reaction to the ECB standard and non-standard policies. The communication of the central bank is of utmost importance in a monetary union with heterogeneous, in terms of economic situations and cultures, countries. The second and third essays study the signaling channel of monetary policy. The second essay focuses on the communication during monthly press conferences and their effects on the predictability of monetary policy decisions and on financial markets returns and volatility. The last essay concentrates exclusively on the use of \textit{forward guidance} on interest rate, a non-standard central bank communication providing information on future short-term interest rates. It discusses its effectiveness and ability to lower market participants expected interest rates.
117

Interest Rate and Liquidity Risk Management for Lebanese Commercial Banks / Gestion des risques des taux d'intérêt et de liquidité dans le secteur bancaire libanais

Daccache, Rudy 26 June 2014 (has links)
L'objectif de cette thèse est de fournir à la Banque Audi des outils économétriques et appliqués pour une gestion des risques plus efficace et plus robuste. Les banques libanaises sont aujourd'hui confrontées à des défis plus importants que jamais: l'avenir de la région Moyen-Orient repose sur les conséquences de la guerre civile syrienne. Dans ce contexte, la gestion des taux d'intérêt et de la liquidité s'avère de plus en plus compliqué pour les banques commerciales. En premier lieu, le risque de taux d'intérêt sur le marché libanais sera étudié. Ce marché est connu pour son manque de liquidité et le problème de calibrage des modèles de taux est difficile. Afin de résoudre ce problème, nous utilisons les prix historiques des obligations émises par le gouvernement libanais et libellées en monnaie locale et en dollars américains. Nous considérons des modèles de Nelson-Siegel et Svensson et contraignons le niveau corrélation des facteurs pour stabiliser l'estimation des paramètres de ces modèles. La méthode conduit à des résultats qui s'interprètent très facilement d'un point de vue économique et peuvent être utilisés pour la prévision des variations de la courbe des taux en se basant une analyse ´économique prospective. En second lieu, la problématique des dépôts des clients traditionnels sera étudiée. Ces derniers sont reconnus comme étant la source principale de financement des banques commerciales libanaises (80-85% du passif). Bien qu'ils soient contractuellement des dépôts à court terme (principalement un mois) versant des taux d'intérêt fixes, ces dépôts sont assimilés à une source de financement stable possédant un comportement proche des taux d'intérêt du marché. Nous développons un modèle à correction d'erreur représentant un équilibre à long terme entre le Libor et le taux moyen du secteur bancaire libanais offert sur les dépôts en dollars américains. Les résultats permettent de déterminer une date de réévaluation des dépôts clientèles en cas de fluctuation des taux d'intérêt. Une nouvelle duration du passif tenant compte des comportements des clients a été mise en place. Elle sera par construction plus élevée que la duration contractuelle. En cas de hausse des taux d'intérêt, une baisse de l'écart entre la duration des actifs et des passifs sera alors observée menant à la diminution de l'impact négatif de la hausse. Après avoir étudié le profil de risque des taux des dépôts clientèles, nous commençons la deuxième partie de la thèse par la détermination de l'échéancier des retraits. Nous segmentons les données historiques des données sur les dépôts clientèles selon: la monnaie, le type de dépôt et la résidence du déposant. Pour chaque filtre, un modèle `a correction d'erreur est développé. Les résultats montrent la relation entre les dépôts clientèles, un indicateur relatif du niveau économique et les écarts entre les taux offerts sur le marché libanais. Ainsi, le modèle permettra d'évaluer le comportement des retraits des dépôts clientèles et de comprendre leur profil de risque de liquidité. Les grandes institutions financières détiennent des positions importantes en actifs financiers. La dernière partie de la thèse discute de la gestion du risque de liquidité de marché en cas de session forcée de ces actifs. Nous supposons qu'un investisseur détient une position importante d'un actif donné, à t = 0, un choc sévère provoque une forte dépréciation de la valeur de l'actif et par conséquent, force l'investisseur à opter pour la liquidation du portefeuille dès que possible en limitant ses pertes. Les rendements des actions sont modélisés par des processus de type GARCH qui sont adaptés pour décrire des comportements extrêmes suite à une grande variation de l'actif au temps initial. Suivant que le marché est liquide ou illiquide, nous proposons une stratégie optimale à l'investisseur qui maximise sa fonction d'utilité. Enfin, nous intégrons dans le modèle un avis d'expert pour optimiser la prise d'une décision / The aim of this thesis is to provide Bank Audi with econometric tools for sake of a more robust risk management. Lebanese businesses today are faced with greater challenges than ever before, both economical and political, and there is a question about the future of the middle east region after the Syrian civil war. Thus, Lebanese commercial banks face greater complications in the management of interest rate and liquidity risk. The first part of this thesis discusses interest rate risk management and measurement in the Lebanese market. First, we seek to build the Lebanese term structure. This market is known by its illiquidity, yields for a given maturity make a large jump with a small impact on other yields even if close to this maturity. Therefore, we face challenges in calibrating existing yield curve models. For this matter, we get historical prices of bonds issued by the Lebanese government, and denominated in Local currency and in US dollar. A new estimation method has been added to Nelson Siegel and Svensson model, we call it “Correlation Constraint Approach”. Model parameters can be interpreted from economical perspective which will be helpful in forecasting yield curve movements based on economist’s opinion. On the second hand, traditional customer deposits are the main funding source of Lebanese commercial banks (80-85% of liabilities). Although they are contractually short term (mainly one month) paying fixed interest rates, these deposits are historically known to be a stable source of funding and therefore exhibit a sticky behavior to changes in market interest rates. We develop an error correction model showing a long-run equilibrium between Libor and Lebanese banking sector average rate offered on USD deposits. Results make it possible to determine the behavioral duration (repricing date) of customer deposits when market interest rates fluctuate. Therefore, the behavioral duration of liabilities will be higher than the contractual one which will lower the duration gap between assets and liabilities and thus the negative impact of positive interest rate shocks. After understanding interest risk profile of customers’ deposits, we start the second part by determining their behavioral liquidation maturity. We get Bank Audi’s historical deposits outstanding balances filtered into the following categories: currency, account typology and residency of depositor. We develop an error correction model for each filter. Results show relationship between deposits behaviors, the coincident indicator and spreads between offered rates in the Lebanese market. The model will lead to assess behavioral liquidation maturity to deposits and understand their liquidity risk profile. This will be helpful for the funding liquidity risk management at Bank Audi. Large financial institutions are supposed to hold large positions of given assets. The last topic is related to market liquidity risk management. We suppose an investor holds a large position of a given asset. Then at time 0, a severe shock causes a large depreciation of the asset value and makes the investor decides to liquidate the portfolio as soon as possible with limited losses. Stock returns are modeled by GARCH process which has tail behaviors after large variation at time 0. Trading on liquid and illiquid markets, we provide the trader with best exit trading strategy maximizing his utility function, finally we incorporate into the model an expert opinion which will help the investor in taking the decision
118

Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique / Contribution to analysis and automatic detection of ECG anomalies in case of myocardial ischemia

Hadjem, Medina 29 March 2016 (has links)
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs. / Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives.
119

Agrégation de prédicteurs pour des séries temporelles, optimalité dans un contexte localement stationnaire / Aggregation of time series predictors, optimality in a locally stationary context

Sànchez Pérez, Andrés 16 September 2015 (has links)
Cette thèse regroupe nos résultats sur la prédiction de séries temporelles dépendantes. Le document comporte trois chapitres principaux où nous abordons des problèmes différents. Le premier concerne l’agrégation de prédicteurs de décalages de Bernoulli Causales, en adoptant une approche Bayésienne. Le deuxième traite de l’agrégation de prédicteurs de ce que nous définissions comme processus sous-linéaires. Une attention particulaire est portée aux processus autorégressifs localement stationnaires variables dans le temps, nous examinons un schéma de prédiction adaptative pour eux. Dans le dernier chapitre nous étudions le modèle de régression linéaire pour une classe générale de processus localement stationnaires. / This thesis regroups our results on dependent time series prediction. The work is divided into three main chapters where we tackle different problems. The first one is the aggregation of predictors of Causal Bernoulli Shifts using a Bayesian approach. The second one is the aggregation of predictors of what we define as sub-linear processes. Locally stationary time varying autoregressive processes receive a particular attention; we investigate an adaptive prediction scheme for them. In the last main chapter we study the linear regression problem for a general class of locally stationary processes.
120

Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage / Maximum likelihood estimation in partially observed Markov models with applications to time series of counts

Sim, Tepmony 08 March 2016 (has links)
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM). / Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs).

Page generated in 0.0831 seconds