• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 231
  • 105
  • 23
  • 2
  • 1
  • Tagged with
  • 354
  • 138
  • 118
  • 95
  • 76
  • 71
  • 70
  • 63
  • 52
  • 47
  • 37
  • 34
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Détection non destructive de modification malveillante de circuits intégrés / NON-DESTRUCTIVE DETECTION OF HARDWARE TROJANS IN INTEGRATED CIRCUITS

Exurville, Ingrid 30 October 2015 (has links)
L'exportation et la mutualisation des industries de fabrication des circuits intégrés impliquent de nombreuses interrogations concernant l'intégrité des circuits fabriqués. On se retrouve alors confronté au problème d'insertion d'une fonctionnalité dissimulée pouvant agir de façon cachée : on parle de Cheval de Troie Matériel (CTM). En raison de la complexité d'un circuit intégré, repérer ce genre de modification se révèle particulièrement difficile. Le travail proposé dans ce manuscrit s'oriente vers une technique de détection non destructrice de CTM. L’approche consiste à utiliser les temps de calculs internes du système étudié comme canal permettant de détecter des CTM. Dans ces travaux, un modèle décrivant les temps de calcul est défini. Il prend notamment en compte deux paramètres importants que sont les conditions expérimentales et les variations de procédés.Des attaques en faute par glitchs d’horloge basée sur la violation de contraintes temporelles permettent de mesurer des temps de calcul internes. Des cartes fiables sont utilisées pour servir de référence. Après avoir validé la pertinence de ce canal d’étude concernant l’obtention d’informations sur le comportement interne du circuit cible, on procède à des détections expérimentales de CTM insérés à deux niveaux d’abstraction (niveau RTL et après l'étape de placement/routage). Des traitements avec prise en compte des variations de procédés permettent d'identifier si les cartes testées sont infectées par un CTM. / The globalization of integrated circuits fabrication involves several questions about the integrity of the fabricated circuits. Malicious modifications called Hardware Trojans (HT) can be introduced during the circuit production process. Due to the complexity of an integrated circuit, it is really difficult to find this kind of alterations.This work focuses on a non-destructive method of HT detection. We use the paths delays of the studied design as a channel to detect HT. A model to describe paths delays is defined. It takes into account two important parameters which are the experimental conditions and the process variations.Faults attacks by clock glitches based on timing constraints violations have been performed to measure data paths delays. Reliable circuits are used for reference. After validating the relevance of this channel to get information on the internal behavior of the targeted design, experimental detections of HT inserted on two different abstraction levels (RTL and after place and route) were achieved. Process variations are taken into consideration in the studies to detect if the tested circuits are infected.
302

Modèles de classification hiérarchiques d'images satellitaires multi-résolutions, multi-temporelles et multi-capteurs. Application aux désastres naturels / Hierarchical joint classification models for multi-resolution, multi-temporal and multi-sensor remote sensing images. Application to natural disasters

Hedhli, Ihsen 18 March 2016 (has links)
Les moyens mis en œuvre pour surveiller la surface de la Terre, notamment les zones urbaines, en cas de catastrophes naturelles telles que les inondations ou les tremblements de terre, et pour évaluer l’impact de ces événements, jouent un rôle primordial du point de vue sociétal, économique et humain. Dans ce cadre, des méthodes de classification précises et efficaces sont des outils particulièrement importants pour aider à l’évaluation rapide et fiable des changements au sol et des dommages provoqués. Étant données l’énorme quantité et la variété des données Haute Résolution (HR) disponibles grâce aux missions satellitaires de dernière génération et de différents types, telles que Pléiades, COSMO-SkyMed ou RadarSat-2 la principale difficulté est de trouver un classifieur qui puisse prendre en compte des données multi-bande, multi-résolution, multi-date et éventuellement multi-capteur tout en gardant un temps de calcul acceptable. Les approches de classification multi-date/multi-capteur et multi-résolution sont fondées sur une modélisation statistique explicite. En fait, le modèle développé consiste en un classifieur bayésien supervisé qui combine un modèle statistique conditionnel par classe intégrant des informations pixel par pixel à la même résolution et un champ de Markov hiérarchique fusionnant l’information spatio-temporelle et multi-résolution, en se basant sur le critère des Modes Marginales a Posteriori (MPM en anglais), qui vise à affecter à chaque pixel l’étiquette optimale en maximisant récursivement la probabilité marginale a posteriori, étant donné l’ensemble des observations multi-temporelles ou multi-capteur / The capabilities to monitor the Earth's surface, notably in urban and built-up areas, for example in the framework of the protection from environmental disasters such as floods or earthquakes, play important roles in multiple social, economic, and human viewpoints. In this framework, accurate and time-efficient classification methods are important tools required to support the rapid and reliable assessment of ground changes and damages induced by a disaster, in particular when an extensive area has been affected. Given the substantial amount and variety of data available currently from last generation very-high resolution (VHR) satellite missions such as Pléiades, COSMO-SkyMed, or RadarSat-2, the main methodological difficulty is to develop classifiers that are powerful and flexible enough to utilize the benefits of multiband, multiresolution, multi-date, and possibly multi-sensor input imagery. With the proposed approaches, multi-date/multi-sensor and multi-resolution fusion are based on explicit statistical modeling. The method combines a joint statistical model of multi-sensor and multi-temporal images through hierarchical Markov random field (MRF) modeling, leading to statistical supervised classification approaches. We have developed novel hierarchical Markov random field models, based on the marginal posterior modes (MPM) criterion, that support information extraction from multi-temporal and/or multi-sensor information and allow the joint supervised classification of multiple images taken over the same area at different times, from different sensors, and/or at different spatial resolutions. The developed methods have been experimentally validated with complex optical multispectral (Pléiades), X-band SAR (COSMO-Skymed), and C-band SAR (RadarSat-2) imagery taken from the Haiti site
303

La structure par terme du taux d'escompte psychologique : estimation et incidences sur les préférences face au risque et sociales / Term structure of psychological discount rate : estimation and its incidences on risk and social preferences

Ouattara, Aboudou 18 June 2015 (has links)
La théorie de l’utilité actualisée proposée par Samuelson (1937) est un des paradigmes dominants en économie et en gestion particulièrement en finance où elle sert de socle, entre autres, au Modèle Intertemporel d’Equilibre des Actifs (ICAPM) et à sa version incluant la consommation (ICCAPM). En dépit de cette place, sa validité pour expliquer les préférences temporelles des individus a été questionnée dans des travaux de recherche récents ouvrant la voie à des amendements et à la remise en cause de ce cadre d’analyse. Ces travaux ont introduit, entre autres, le concept de structure par terme du taux d’escompte psychologique. La littérature a proposé sept alternatives à la fonction d’escompte exponentielle contenue dans la version initiale de la théorie de l’utilité actualisée. Il s’agit des fonctions d’escompte de Hernstein, de Harvey, Proportionnelle, de Laibson, de Rachlin, Hyperbolique et Hyperbolique généralisée.Faisant suite à ces travaux, nous avons initié une recherche visant à apporter une réponse à la question relatives aux caractéristiques de la structure par terme du taux d’escompte psychologique d’un individu et les facteurs qui expliquent sa différence d’un individu à l’autre ; ses liens avec les autres dimensions des préférences (face au risque et sociales) individuelles sont explorés par la suite. Il s’est agi d’identifier parmi ces fonctions celles qui sont cohérentes avec les préférences individuelles observées, d’estimer les paramètres associés, d’étudier la cohérence des préférences temporelles d’un individu. Elle s’appuie sur les données issues d’une étude expérimentale basée sur dix huit arbitrages inter-temporels, quatre arbitrages de loteries, le jeu du dictateur, le jeu de l’ultimatum et le jeu de confiance.L’analyse des données a permis de confirmer les résultats précédents sur la violation de la constance du prix psychologique du temps, la cohérence par domaine des préférences temporelles, d’établir que la population étudiée est caractérisée par une hétérogénéité par rapport à la forme de la structure par terme du taux d’escompte psychologique. Les individus sont caractérisés par une fonction d’escompte psychologique de Hernstein, hyperbolique généralisée ou de Laibson. Nous avons trouvé que les caractéristiques démographiques, l’environnement social et l’orientation temporelle expliquent peu les différences de structure par terme de taux d’escompte psychologique. Les différences de niveaux d’application (dimension des traits de personnalités) sont les principaux déterminants de la différence de structure par terme de taux d’escompte psychologique caractéristiques des préférences temporelles. Nous avons enfin établi qu’il existe une faible relation entre les paramètres des préférences temporelles, face au risque et sociales.L’ensemble de ces analyses nous ont permis de dériver des conclusions par rapport aux hypothèses de recherche que nous avons formulées et d’interroger la validité de chacune d’elles dans la perspective de déduire les réponses à la problématique de notre recherche. / The discounted utility theory proposed by Samuelson (1937) is one of the dominant paradigms in economics and management especially in finance where it serves as a basis of the Intertemporal Capital Asset Pricing Model (ICAPM) and its version including consumption (ICCAPM). Despite this place, its validity has a framework to explain individuals time preferences has been questioned in recents researches paving the way for amendments and questionings of this framework. Among others, these reseaches introduce the concept of term structure of psychological discount rate. Therefore, a part from exponential discount rate function, we find in the literature seven alternatives discount rate function : Hernstein, proportional, Laibson, Rachlin, Hyperbolic and generalized hyperbolic.Following this work, we initiated a research to provide an answer to the question on the characteristics and driving factors those explain its heterogeneity at an individual level. Thereafter, its relationship with other dimensions of individual preferences (risk and social interaction behavior) are explored. The purpose is to identify among them, the function that is consistent with the observed time preferences, to estimate the underlying parameters and to study the consistency of individual time preference. This research is based on the data collected by experimental study using eighteen time trade-offs, four lottery trade-offs, a dictator game, an ultimatum game and a trust game.Data analysis confirmed previous results on the violation of the time invariant of the psychological value of time hypothesis and established that the studied population is characterized by an heterogeneity with respect to the form of the term structure of psychological discount rate. Individuals are characterized by an Hernstein, Generalized hyperbolic or Laibson psychological discount rate. We found that demographic, social and temporal orientation have a weak link with the individual differences of the term structure of psychological discount rate. Application (a dimension of personality traits) is the most important driving factor of term structure of psychological discount rate forms heterogeneity. We finally established that there is a weak relationship between the parameters of time, risk and social preferences.
304

Three essays on the transmission of monetary policy in the euro area / Trois essais sur la transmission de la politique monétaire en zone euro

Picault, Matthieu 28 June 2017 (has links)
Après Septembre 2008, du fait du gel du marché interbancaire, d’un manque de liquidité, d’une perte de confiance et des difficultés des institutions financières, la transmission de la politique monétaire au sein de la zone euro a été sévèrement altérée. La Banque Centrale Européenne (BCE) a donc dû avoir recours à des politiques monétaires non-conventionnelles. En considérant, au sein de la zone euro, les contraintes imposées à la banque centrale et la fragmentation des marchés financiers, l’objectif de cette thèse empirique est d’évaluer les canaux de transmission des politiques monétaires conventionnelles et non-conventionnelles de la BCE. Les comportements de prêts des banques étant liés à leurs coûts de financement, le premier essai se focalise sur le canal de transmission des prêts bancaires. Il étudie l’évolution des activités de prêts syndiqués d’institutions financières européennes et leur réaction aux politiques de la BCE. La communication de la banque centrale revêt une importance toute particulière dans une union monétaire. Les deuxième et troisième essais se concentrent sur le canal des signaux. Le deuxième essai étudie sur la communication durant les conférences de presse mensuelles ainsi que ses effets sur la prévisibilité des décisions de politique monétaire et sur les rendements et la volatilité des marchés financiers. Le dernier essai se focalise sur l’utilisation du guidage des taux d’intérêt futurs, une communication non-conventionnelle informant les marchés du niveau futur des taux d’intérêt de court-terme. Il étudie l’efficacité de cette annonce et sa capacité à influencer les prévisions de taux d’intérêt faites par les acteurs de marché. / After September 2008, due to a frozen interbank market, shortage of liquidity, loss of confidence, and collapsing financial institutions, the monetary policy transmission in the euro area was severely impaired. Under thus exceptional circumstances, the European Central Bank (ECB) had to turn to non-standard monetary policy measures. Considering, in the euro area, the constrained range of actions and fragmented financial markets, the objective of this empirical thesis is to assess the transmission channels of ECB standard and non-standard monetary policies and their effects on both financial markets and the economy.As banks’ lending behaviors are related to their financing costs, the first essay focuses on bank lending channel. It studies the evolution of lending activities of European financial institutions on the syndicated loan market and its reaction to the ECB standard and non-standard policies. The communication of the central bank is of utmost importance in a monetary union with heterogeneous, in terms of economic situations and cultures, countries. The second and third essays study the signaling channel of monetary policy. The second essay focuses on the communication during monthly press conferences and their effects on the predictability of monetary policy decisions and on financial markets returns and volatility. The last essay concentrates exclusively on the use of \textit{forward guidance} on interest rate, a non-standard central bank communication providing information on future short-term interest rates. It discusses its effectiveness and ability to lower market participants expected interest rates.
305

Génomique des populations appliquée : détection de signatures de sélection au sein de populations expérimentales / Applied population genomics : detection of signatures of selection in experimental populations

Hubert, Jean-Noël 21 June 2018 (has links)
La génomique des populations rend possible la mise en évidence de traces de sélection dans le génome. Les travaux effectués considèrent en général une échelle de temps longue (~ 10³ générations). En comparaison, peu d’intérêt a été porté aux études expérimentales de court terme (~ 10 générations). De telles expériences sont pourtant susceptibles de nous renseigner sur la base génétique de caractères complexes. Nous proposons une méthode de vraisemblance basée sur un modèle de Wright-Fisher pour détecter la sélection à partir d’échantillons génétiques temporels acquis sur une période de dix générations. Nous montrons par simulation que notre méthode permet de différencier les signaux dus à la combinaison de la sélection et de la dérive génétique de ceux dus à la dérive seule. Nous montrons également par simulation qu’il est possible d’estimer le coefficient de sélection appliqué à un locus testé. De plus, nous illustrons l’intérêt de notre méthode pour la détection de marqueurs candidats à la sélection au travers de deux études génomiques sur données réelles, chez le diable de Tasmanie (Sarcophilus harrisii) et chez la truite arc-en-ciel (Oncorhynchus mykiss). Ces applications mettent en évidence des régions génomiques candidates pour des phénotypes complexes dans des contextes différents. Dans l’ensemble, nos résultats montrent qu’il est possible de détecter des gènes sujets à une sélection directionnelle intense à partir d’échantillons génétiques temporels, même si la sélection est de courte durée et si les populations examinées ont un faible effectif. / Population genomics makes it possible to detect traces of selection in the genome. Studies in this field have mainly focused on long time scale (~ 10³ generations). In comparison, short-term experimental studies (~ 10 generations) have attracted much less interest. Such experiments are, however, likely to inform us about the genetic basis of complex characters. We propose a likelihood method based on a Wright-Fisher model to detect selection from genetic temporal samples collected over ten generations. We show through simulation that our method can disentangle signals due to the combination of genetic drift and selection to those due to drift alone. We also show through simulation that it is possible to estimate the selection coefficient applied to a tested locus. In addition, we illustrate the interest of our method for the detection of candidate markers for selection through two genome scans performed on real data, in the Tasmanian devil (Sarcophilus harrisii) and in the rainbow trout (Oncorhynchus mykiss). These practical applications highlight candidate genomic regions for complex phenotypes in different contexts. Collectively, our results show the possibility of detecting genes submitted to strong directional selection from genetic time-series, even if selection is applied on a short time period and if the examined populations are small.
306

Analyse automatique de l’écriture manuscrite sur tablette pour la détection et le suivi thérapeutique de personnes présentant des pathologies / Automatic handwriting analysis for pathology detection and follow-up on digital tablets

Kahindo Senge Muvingi, Christian 14 November 2019 (has links)
Nous présentons dans cette thèse un nouveau paradigme pour caractériser la maladie d’Alzheimer à travers l’écriture manuscrite acquise sur tablette graphique. L’état de l’art est dominé par des méthodes qui supposent un comportement unique ou homogène au sein de chaque profil cognitif. Ces travaux exploitent des paramètres cinématiques globaux, sur lesquels ils appliquent des tests statistiques ou des algorithmes de classification pour discriminer les différents profils cognitifs (les patients Alzheimer, les troubles cognitifs légers (« Mild Cognitive impairment » : MCI) et les sujets Contrôle (HC)). Notre travail aborde ces deux limites de la littérature de la façon suivante : premièrement au lieu de considérer un comportement homogène au sein de chaque profil cognitif ou classe (HC, MCI, ES-AD : « Early-Stage Alzheimer Disease »), nous nous sommes affranchis de cette hypothèse (ou contrainte) forte de la littérature. Nous considérons qu’il peut y avoir plusieurs comportements au sein de chaque profil cognitif. Ainsi, nous proposons un apprentissage semi-supervisé pour trouver des groupes homogènes de sujets et analysons l’information contenue dans ces clusters ou groupes sur les profils cognitifs. Deuxièmement, au lieu d’exploiter les paramètres cinématiques globaux (ex : vitesse moyenne, pression moyenne, etc.), nous avons défini deux paramétrisations ou codages : une paramétrisation semi-globale, puis locale en modélisant la dynamique complète de chaque paramètre. L’un de nos résultats importants met en évidence deux clusters majeurs qui sont découverts, l’un dominé par les sujets HC et MCI et l’autre par les MCI et ES-AD, révélant ainsi que les patients atteints de MCI ont une motricité fine qui est proche soit des sujets HC, soit des patients ES-AD. Notre travail montre également que la vitesse prise localement regroupe un ensemble riche des caractéristiques telles que la taille, l’inclinaison, la fluidité et la régularité, et révèle comment ces paramètres spatiotemporels peuvent conjointement caractériser les profils cognitifs. / We present, in this thesis, a novel paradigm for assessing Alzheimer’s disease by analyzing impairment of handwriting (HW) on tablets, a challenging problem that is still in its infancy. The state of the art is dominated by methods that assume a unique behavioral trend for each cognitive profile, and that extract global kinematic parameters, assessed by standard statistical tests or classification models, for discriminating the neuropathological disorders (Alzheimer’s (AD), Mild Cognitive Impairment (MCI)) from Healthy Controls (HC). Our work tackles these two major limitations as follows. First, instead of considering a unique behavioral pattern for each cognitive profile, we relax this heavy constraint by allowing the emergence of multimodal behavioral patterns. We achieve this by performing semi-supervised learning to uncover homogeneous clusters of subjects, and then we analyze how much information these clusters carry on the cognitive profiles. Second, instead of relying on global kinematic parameters, mostly consisting of their average, we refine the encoding either by a semi-global parameterization, or by modeling the full dynamics of each parameter, harnessing thereby the rich temporal information inherently characterizing online HW. Thanks to our modeling, we obtain new findings that are the first of their kind on this research field. A striking finding is revealed: two major clusters are unveiled, one dominated by HC and MCI subjects, and one by MCI and ES-AD, thus revealing that MCI patients have fine motor skills leaning towards either HC’s or ES-AD’s. This thesis introduces also a new finding from HW trajectories that uncovers a rich set of features simultaneously like the full velocity profile, size and slant, fluidity, and shakiness, and reveals, in a naturally explainable way, how these HW features conjointly characterize, with fine and subtle details, the cognitive profiles.
307

Interest Rate and Liquidity Risk Management for Lebanese Commercial Banks / Gestion des risques des taux d'intérêt et de liquidité dans le secteur bancaire libanais

Daccache, Rudy 26 June 2014 (has links)
L'objectif de cette thèse est de fournir à la Banque Audi des outils économétriques et appliqués pour une gestion des risques plus efficace et plus robuste. Les banques libanaises sont aujourd'hui confrontées à des défis plus importants que jamais: l'avenir de la région Moyen-Orient repose sur les conséquences de la guerre civile syrienne. Dans ce contexte, la gestion des taux d'intérêt et de la liquidité s'avère de plus en plus compliqué pour les banques commerciales. En premier lieu, le risque de taux d'intérêt sur le marché libanais sera étudié. Ce marché est connu pour son manque de liquidité et le problème de calibrage des modèles de taux est difficile. Afin de résoudre ce problème, nous utilisons les prix historiques des obligations émises par le gouvernement libanais et libellées en monnaie locale et en dollars américains. Nous considérons des modèles de Nelson-Siegel et Svensson et contraignons le niveau corrélation des facteurs pour stabiliser l'estimation des paramètres de ces modèles. La méthode conduit à des résultats qui s'interprètent très facilement d'un point de vue économique et peuvent être utilisés pour la prévision des variations de la courbe des taux en se basant une analyse ´économique prospective. En second lieu, la problématique des dépôts des clients traditionnels sera étudiée. Ces derniers sont reconnus comme étant la source principale de financement des banques commerciales libanaises (80-85% du passif). Bien qu'ils soient contractuellement des dépôts à court terme (principalement un mois) versant des taux d'intérêt fixes, ces dépôts sont assimilés à une source de financement stable possédant un comportement proche des taux d'intérêt du marché. Nous développons un modèle à correction d'erreur représentant un équilibre à long terme entre le Libor et le taux moyen du secteur bancaire libanais offert sur les dépôts en dollars américains. Les résultats permettent de déterminer une date de réévaluation des dépôts clientèles en cas de fluctuation des taux d'intérêt. Une nouvelle duration du passif tenant compte des comportements des clients a été mise en place. Elle sera par construction plus élevée que la duration contractuelle. En cas de hausse des taux d'intérêt, une baisse de l'écart entre la duration des actifs et des passifs sera alors observée menant à la diminution de l'impact négatif de la hausse. Après avoir étudié le profil de risque des taux des dépôts clientèles, nous commençons la deuxième partie de la thèse par la détermination de l'échéancier des retraits. Nous segmentons les données historiques des données sur les dépôts clientèles selon: la monnaie, le type de dépôt et la résidence du déposant. Pour chaque filtre, un modèle `a correction d'erreur est développé. Les résultats montrent la relation entre les dépôts clientèles, un indicateur relatif du niveau économique et les écarts entre les taux offerts sur le marché libanais. Ainsi, le modèle permettra d'évaluer le comportement des retraits des dépôts clientèles et de comprendre leur profil de risque de liquidité. Les grandes institutions financières détiennent des positions importantes en actifs financiers. La dernière partie de la thèse discute de la gestion du risque de liquidité de marché en cas de session forcée de ces actifs. Nous supposons qu'un investisseur détient une position importante d'un actif donné, à t = 0, un choc sévère provoque une forte dépréciation de la valeur de l'actif et par conséquent, force l'investisseur à opter pour la liquidation du portefeuille dès que possible en limitant ses pertes. Les rendements des actions sont modélisés par des processus de type GARCH qui sont adaptés pour décrire des comportements extrêmes suite à une grande variation de l'actif au temps initial. Suivant que le marché est liquide ou illiquide, nous proposons une stratégie optimale à l'investisseur qui maximise sa fonction d'utilité. Enfin, nous intégrons dans le modèle un avis d'expert pour optimiser la prise d'une décision / The aim of this thesis is to provide Bank Audi with econometric tools for sake of a more robust risk management. Lebanese businesses today are faced with greater challenges than ever before, both economical and political, and there is a question about the future of the middle east region after the Syrian civil war. Thus, Lebanese commercial banks face greater complications in the management of interest rate and liquidity risk. The first part of this thesis discusses interest rate risk management and measurement in the Lebanese market. First, we seek to build the Lebanese term structure. This market is known by its illiquidity, yields for a given maturity make a large jump with a small impact on other yields even if close to this maturity. Therefore, we face challenges in calibrating existing yield curve models. For this matter, we get historical prices of bonds issued by the Lebanese government, and denominated in Local currency and in US dollar. A new estimation method has been added to Nelson Siegel and Svensson model, we call it “Correlation Constraint Approach”. Model parameters can be interpreted from economical perspective which will be helpful in forecasting yield curve movements based on economist’s opinion. On the second hand, traditional customer deposits are the main funding source of Lebanese commercial banks (80-85% of liabilities). Although they are contractually short term (mainly one month) paying fixed interest rates, these deposits are historically known to be a stable source of funding and therefore exhibit a sticky behavior to changes in market interest rates. We develop an error correction model showing a long-run equilibrium between Libor and Lebanese banking sector average rate offered on USD deposits. Results make it possible to determine the behavioral duration (repricing date) of customer deposits when market interest rates fluctuate. Therefore, the behavioral duration of liabilities will be higher than the contractual one which will lower the duration gap between assets and liabilities and thus the negative impact of positive interest rate shocks. After understanding interest risk profile of customers’ deposits, we start the second part by determining their behavioral liquidation maturity. We get Bank Audi’s historical deposits outstanding balances filtered into the following categories: currency, account typology and residency of depositor. We develop an error correction model for each filter. Results show relationship between deposits behaviors, the coincident indicator and spreads between offered rates in the Lebanese market. The model will lead to assess behavioral liquidation maturity to deposits and understand their liquidity risk profile. This will be helpful for the funding liquidity risk management at Bank Audi. Large financial institutions are supposed to hold large positions of given assets. The last topic is related to market liquidity risk management. We suppose an investor holds a large position of a given asset. Then at time 0, a severe shock causes a large depreciation of the asset value and makes the investor decides to liquidate the portfolio as soon as possible with limited losses. Stock returns are modeled by GARCH process which has tail behaviors after large variation at time 0. Trading on liquid and illiquid markets, we provide the trader with best exit trading strategy maximizing his utility function, finally we incorporate into the model an expert opinion which will help the investor in taking the decision
308

L’effet du changement organisationnel et social discontinu sur la clarté de l’identité collective : le rôle des comparaisons temporelles pour la reconstruction identitaire

Stawski, Melissa 08 1900 (has links)
Les changements rapides et profonds sont des plus en plus fréquents, tant dans les milieux de travail que dans la société. Ces changements rapides et profonds, nommés changements discontinus, sont connus pour être éprouvants pour le bien-être psychologique des individus. La littérature a proposé que les changements discontinus organisationnels et sociaux soient éprouvants parce qu’ils perturbent l’identité collective, qui fournit aux individus un cadre de référence dans lequel ils comprennent tant leur monde social qu’eux-mêmes. En réponse à un changement discontinu, l’identité collective souffrirait d’une baisse de clarté, où les individus se questionnent à savoir « qui ils sont » dans le contexte de leur groupe social. De récentes études confirment qu’un changement social discontinu provoque une baisse de clarté de l’identité collective. Toutefois, le lien entre les changements discontinus et la clarté d’une identité collective nécessite un soutien empirique robuste puisqu’aucune étude n’a manipulé expérimentalement un réel changement vécu par un groupe social. De plus, il reste à vérifier si la baisse du niveau de clarté de l’identité collective en réponse à un changement social discontinu est répliquée empiriquement sur le terrain. Le premier objectif de cette thèse est donc de vérifier l’effet d’un réel changement discontinu sur la clarté de l’identité collective d’un groupe social. Par ailleurs, les processus psychologiques qui déterminent comment les individus rétablissent la clarté de leur identité collective à la suite d’un changement discontinu demeurent à ce jour inconnus. La littérature en psychologie sociale soutient que deux processus de comparaisons contribuent à la construction de l’identité collective, soit les comparaisons sociales et les comparaisons temporelles. Il semblerait que les comparaisons temporelles soient plus prévalentes dans un contexte de changement discontinu, mais leur rôle pour rétablir la clarté de l’identité collective n’a pas été vérifié. Le second objectif consiste à vérifier si le fait d’effectuer des comparaisons temporelles est un processus psychologique qui rétablit la clarté de l’identité collective à la suite d’un changement discontinu. Cinq études réparties en deux articles ont été exécutées pour répondre à ces objectifs. Le premier article comble les lacunes soulevées dans la littérature en présentant un nouveau paradigme expérimental : le paradigme de groupes de travail Lego (PGTL). Ce paradigme expérimental simule un groupe de travail et expose ses membres à un réel changement discontinu, opérationnalisé en tant qu’un changement inattendu des valeurs qui orientent les objectifs de travail. Trois études testent l’hypothèse que l’introduction d’un changement discontinu causera une diminution du niveau de clarté de l’identité collective du groupe de travail. L’étude 1 simule un changement discontinu en transformant subitement les valeurs du groupe de collaboration à des valeurs de compétition. L’étude 2 réplique les résultats de l’étude 1 avec différente paire de valeurs opposées, soit l’efficience et l’innovation. La troisième étude réplique les résultats et la méthodologie de l’étude 1 avec un grand échantillon, ce qui permet de contrôler statistiquement pour la non-indépendance des observations. Les trois études confirment l’hypothèse que l’introduction d’un changement discontinu cause une diminution du niveau de clarté de l’identité collective du groupe de travail. Le deuxième article contient deux études qui se déroulent auprès d’Américains, dans le contexte du changement d’administration présidentielle en 2016. La première étude vérifie dans un premier temps si la clarté de l’identité collective est diminuée à la suite d’un changement discontinu sur le terrain (hypothèse 1). Dans un deuxième temps, une intervention utilisant des comparaisons temporelles est testée pour vérifier si elle permet de rétablir la clarté de l’identité collective (hypothèse 2a). Le degré d’efficacité de l’intervention utilisant des comparaisons temporelles est comparé à une intervention utilisant des comparaisons sociales, une intervention utilisant des comparaisons sociales et temporelles et une condition contrôle. La deuxième étude vérifie si l’intervention utilisant des comparaisons temporelles rétablit la clarté de l’identité collective au-delà de l’effet du passage du temps (hypothèse 2b) et au-delà des autres interventions. Les résultats confirment la diminution de clarté de l’identité collective à la suite de l’élection, et le rôle de comparaisons temporelles pour rétablir la clarté de l’identité collective. / Rapid and profound changes are increasingly common, both in the workplace and in society. These rapid and profound changes to social groups, called discontinuous changes, are known to have deleterious effects on the psychological well-being of individuals. Literature has proposed that discontinuous organizational and social changes are challenging because they disrupt individuals’ collective identity, which provides them with a meaningful frame of reference in which they understand their social environment and themselves. It has been proposed that during discontinuous changes, collective identity suffers from a decrease in clarity, where individuals question who they are in the context of their social group. Recent studies confirm that discontinuous social change causes a decrease in collective identity clarity. However, the link between discontinuous changes and collective identity clarity remains tentative since no study has experimentally manipulated a real experienced change in a social group. Finally, it remains to be seen whether the decrease in collective identity clarity following discontinuous social change is empirically replicated in the field. The first goal is therefore to provide robust empirical support to the proposition that discontinuous change causes a decrease of collective identity clarity, in a context of real experienced change. In addition, the psychological processes that determine how individuals restore collective identity clarity following discontinuous change remain unknown to this day. Literature in social psychology argues that there are two processes of comparison fundamental to the construction of collective identity, namely social comparisons and temporal comparisons. Temporal comparisons appear to be more prevalent in a context of discontinuous change, but their role in restoring collective identity clarity has not been verified. The second goal of this thesis is to verify whether temporal comparisons are a psychological process that restores collective identity clarity following a discontinuous change. Five studies divided into two articles were carried out to meet both goals. The first article fills the gaps raised in previous literature by presenting a new experimental paradigm: the Lego Workgroup Paradigm (LWP). This experimental paradigm simulates a work group and exposes its members to a real experienced discontinuous change, operationalized as an unexpected change in the values that guide the work objectives. Three studies test the hypothesis that the introduction of a discontinuous change will reduce levels of collective identity clarity related to the workgroup. Study 1 simulates a discontinuous change transforming the values in a sudden way from collaborative values to competition values. Study 2 replicates the results of Study 1 with different opposing values of efficiency and innovation. The third study replicates the results and methodology of Study 1 with a large sample that allows statistical control for the non-independence of observations. The three studies support the hypothesis that the introduction of a discontinuous change causes a decrease in collective identity clarity related to the work group. The second article contains two studies conducted with Americans, in the context of the change of presidential administration in 2016. The first study aims to validate whether the clarity of the collective identity is diminished as a result of a discontinuous change in a field setting (hypothesis 1). Then, an intervention using temporal comparisons is tested to verify if it restores collective identity clarity (hypothesis 2a). The degree of effectiveness of the intervention using temporal comparisons is contrasted with an intervention using social comparisons, an intervention using social and temporal comparisons and a control condition. The second study verifies whether the intervention using temporal comparisons restores collective identity clarity beyond the effect of the passage of time (hypothesis 2b), and beyond other interventions. The results confirm the decrease in collective identity clarity as a result of the election’s outcome and the role of temporal comparisons to restore the collective identity clarity.
309

Formal function and phrase structure in contemporary music : Pierre Boulez’s late solo works and Sean Clarke’s "Lucretia Overture" and "4 Impromptus"

Clarke, Sean 08 1900 (has links)
No description available.
310

Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique / Contribution to analysis and automatic detection of ECG anomalies in case of myocardial ischemia

Hadjem, Medina 29 March 2016 (has links)
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs. / Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives.

Page generated in 0.2774 seconds