• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 33
  • 5
  • 4
  • 1
  • Tagged with
  • 163
  • 163
  • 56
  • 52
  • 32
  • 25
  • 23
  • 20
  • 18
  • 18
  • 17
  • 14
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Investigating high-dimensional problems in actuarial science, dependence modelling, and quantitative risk management

Blier-Wong, Christopher 27 November 2023 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Les compagnies d'assurance jouent un rôle essentiel dans la société en assurant la protection financière, la gestion des risques, la stabilité sociale et la promotion de la croissance économique. Dans ce contexte, les actuaires utilisent leur expertise en mathématiques, en statistiques et en théorie financière pour aider les particuliers, les entreprises et les organisations à prendre des décisions éclairées en matière de gestion des risques et de protection contre les pertes financières, contribuant ainsi à la stabilité et à la prospérité globales de la société. La plupart des théories de la science actuarielle commencent par la simplification d'hypothèses afin d'obtenir des expressions simples : au premier plan, l'hypothèse selon laquelle les risques du portefeuille d'une compagnie d'assurance sont indépendants et identiquement distribués. Si cette hypothèse se vérifie, on peut souvent appliquer la loi des grands nombres pour obtenir des résultats mathématiques pratiques liés à la gestion et à la tarification des risques dans le portefeuille. Cependant, la levée de cette hypothèse complique généralement ce résultat, et nous examinerons certaines de ces complications dans cette thèse. L'objectif principal de cette thèse est d'étudier les problèmes de haute dimension dans la science actuarielle, dans la modélisation de la dépendance et dans la gestion quantitative des risques. La thèse est divisée en trois parties, couvrant trois sujets sous le thème général de la science actuarielle à haute dimension. Dans la première partie, nous proposons des méthodes pour incorporer des données à haute dimension dans les modèles de tarification. Une hypothèse implicite d'un modèle de tarification actuariel est celle de l'équité actuarielle, le principe selon lequel les primes d'assurance doivent être basées sur des données statistiques et des facteurs de risque liés aux coûts totaux associés à un contrat d'assurance. En d'autres termes, l'équité actuarielle signifie que les personnes les plus susceptibles de faire une réclamation doivent payer des primes plus élevées que celles qui sont moins susceptibles de le faire. Les actuaires utilisent des modèles mathématiques et des analyses statistiques pour étudier le risque associé à différents événements, tels que les maladies, les accidents et les catastrophes naturelles. Ils utilisent ensuite ces données pour déterminer des primes qui reflètent le risque associé à chaque assuré. Une stratégie essentielle pour les assureurs consiste à écumer la crème, c'est-à-dire à choisir sélectivement d'assurer les clients présentant un faible risque de sinistre, tout en excluant ceux qui présentent un risque plus élevé ou en leur appliquant des primes plus élevées. La mise en œuvre réussie de cette stratégie nécessite un avantage concurrentiel utilisant plus de données, plus de caractéristiques ou en développant des modèles plus performants. Même si un assureur ne souhaite pas utiliser cette stratégie, il est essentiel de disposer d'un excellent modèle prédictif (aussi bon que celui du concurrent). L'introduction traite de l'intégration des données massives dans le modèle de tarification d'un assureur. Nous fournissons ensuite des implémentations spécifiques utilisant des informations de recensement externes pour la modélisation spatiale et des images de rues externes pour identifier les facteurs de risque des maisons. La deuxième partie de cette thèse comprend deux contributions à la théorie des copules. Elle est consacrée à l'obtention de nouveaux résultats sur la famille des copules de Farlie-Gumbel-Morgenstern (FGM). Cette famille de copules est très flexible puisque sa version à d-variables contient 2ᵈ − d − 1 paramètres. Cependant, une paramétrisation en haute dimension est considérée comme un inconvénient car il y a trop de paramètres à spécifier, qui sont difficiles à interpréter, et les paramètres doivent satisfaire un ensemble de contraintes fastidieuses. Construire des familles de copules FGM de haute dimension pour des applications pratiques est un défi. Notre contribution dans cette partie de la thèse est de proposer une représentation stochastique des copules FGM basée sur des distributions de Bernoulli symétriques multivariées. Nous montrons également que cette correspondance est bijective. Cette représentation, dans la plupart des cas, permet de dériver de nouvelles propriétés des copules FGM basées sur l'abondante littérature sur les distributions de Bernoulli symétriques multivariées. Nous obtenons des résultats supplémentaires utiles lorsque nous utilisons l'hypothèse additionnelle selon laquelle les composantes du vecteur aléatoire sont échangeables. Dans la troisième partie de cette thèse, nous apportons deux contributions à l'agrégation des risques, à l'allocation du capital et au partage des risques. Premièrement, nous utilisons les résultats obtenus dans la deuxième partie de la thèse pour étudier l'agrégation des risques lorsque la structure de dépendance entre les risques est une copule FGM. Nous dérivons des expressions pour les moments et la transformée de Laplace-Stieltjes de la variable aléatoire agrégée basée sur la représentation stochastique des copules FGM. Nous concevons un algorithme pour calculer la fonction de masse de probabilité du vecteur aléatoire agrégé lorsque les risques sont définis par des variables aléatoires discrètes. Lorsque les risques sont définis par des variables aléatoires continues obéissant à une distribution mélange d'Erlang, nous démontrons que la variable aléatoire agrégée est également distribuée selon une distribution mélange d'Erlang et nous développons des expressions pour les mesures de risque et les contributions au risque ex-post pour le partage des risques avec la règle de partage des risques à espérance conditionnelle. La deuxième contribution de cette partie établit un lien entre les espérances conditionnelles et les dérivés des fonctions génératrices de probabilités conjointes. Cette relation conduit à de nouvelles stratégies pour calculer les espérances conditionnelles ex-ante ou ex-post lorsque les risques sont représentés par des variables aléatoires discrètes. Nous dérivons de nouvelles expressions pour les espérances conditionnelles et développons une stratégie de calcul efficace basée sur les transformées de Fourier rapides pour calculer les espérances conditionnelles. / Insurance companies play a critical role in society by providing financial protection, risk management, social stability and promoting economic growth. Within this context, actuaries use their expertise in mathematics, statistics, and financial theory to help individuals, businesses, and organizations make informed decisions about managing risks and protecting against financial loss, contributing to society's overall stability and prosperity. Most of the theory in actuarial science starts with simplifying assumptions to obtain convenient expressions: at the forefront is that the risks in an insurance company's portfolio are independent and identically distributed. If the assumption holds, one may often apply the central limit theorem to obtain convenient mathematical results related to risk management and pricing of risks in the portfolio. However, removing this assumption typically complicates this result, and we will investigate some of these challenges in this thesis. The main objective of this thesis is to investigate high-dimensional problems in insurance mathematics, dependence modelling and quantitative risk management. The thesis is divided into three parts, covering three subjects under the general theme of high-dimensional actuarial science. In the first part, we propose methods to incorporate high-dimensional data within ratemaking models. An implicit assumption of the actuarial model is that of actuarial fairness, the principle that insurance premiums should be based on statistical data and risk factors related to the total costs associated with an insurance contract. In other words, actuarial fairness means that individuals more likely to make a claim should pay higher premiums than those less likely to do so. Actuaries use mathematical models and statistical analysis to calculate the risk associated with different events, such as illness, accidents, and natural disasters. They then use this data to set premiums that reflect the risk associated with other policyholders. A critical strategy for insurers is "skimming the creme," referring to insurance companies selectively choosing to insure customers at lower risk of making a claim while excluding or charging higher premiums to those at higher risk. This strategy's successful implementation requires a competitive advantage in terms of more data, more features or better models. Even if an insurer does not want to use this strategy, having an excellent predictive model (as good as the competitor's) is still essential. The introduction discusses incorporating big data into an insurer's ratemaking model. We then provide specific implementations using external census information for spatial modelling and external street view imagery to identify risk factors of houses. The second part of this thesis includes two contributions to copula theory. It is dedicated to obtaining new results on the family of Farlie-Gumbel-Morgenstern (FGM) copulas. This family of copulas is very flexible since its d-variate version contains 2ᵈ - d - 1 parameters. However, this high dimensionality in the parameters is considered a drawback since there are too many parameters to specify, which are difficult to interpret, and the parameters must satisfy a set of tedious constraints. Constructing high-dimensional families of FGM copulas for practical applications is challenging. Our contribution in this part of the thesis is to propose a stochastic representation of FGM copulas based on symmetric multivariate Bernoulli distributions. We further show that this correspondence is one-to-one. This representation, in most cases, lets one derive new properties of FGM copulas based on the expansive literature on multivariate symmetric Bernoulli distributions. We derive useful supplemental results when we use the additional assumption that the components of the random vector are exchangeable. In the third part of this thesis, we provide two contributions to risk aggregation, capital allocation and risk-sharing. First, we use the results derived in the second part of the thesis to study risk aggregation when the dependence structure between the risks is a FGM copula. We derive expressions for the moments and the Laplace-Stieltjes transform of the aggregate random variable based on the stochastic representation of FGM copulas. We design an algorithm to compute the probability mass function of the aggregate random vector when the risks are discrete. When risks are mixed Erlang distributed, we find that the aggregate random variable is also mixed Erlang distributed and develop expressions for risk measures and ex-post risk contributions for risk-sharing with the conditional mean risk-sharing rule in that case. For our second contribution of this part, we provide a link between conditional expectations and derivatives of joint probability-generating functions. This relationship leads to new strategies to compute conditional means ex-ante or ex-post when risks are discrete. We derive new expressions for the conditional means and develop an efficient computational strategy based on fast Fourier transforms to compute the conditional means.
72

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
73

The impact of risk on three initial public offerings market anomalies : hot-issue market, underpricing, and long-run underperformance

Mrissa Bouden, Habiba 23 April 2018 (has links)
Cette thèse comporte trois articles examinant l’impact du risque sur trois anomalies associées au marché des introductions en bourse (IPOs). Il s’agit de : (1) phénomène de "hot-issue market", (2) la sous-évaluation initiale et (3) la sous-performance à long terme. Nous proposons une approche innovatrice qui décompose le risque total au niveau de la firme ainsi qu’au niveau du marché des IPOs en : (1) risque systématique qui est attribué aux facteurs du risque commun à l’ensemble du marché et (2) risque idiosyncratique qui est associé aux facteurs du risque spécifique de la firme et qui est utilisé comme proxy du niveau d’asymétrie d’information. De plus, nous utilisons la volatilité implicite du marché pour évaluer l’impact du niveau d’incertitude globale de l’ensemble du marché sur l’activité des IPOs. Notre objectif est de révéler la composante du risque qui joue le rôle le plus important dans le cycle des IPOs (article 1) d’une part, et le processus d’évaluation du titre à court (article 2) et à long terme (article 3) d’autre part. Le premier article caractérise le rôle du risque dans le cycle des IPOs. Notre objectif est d’étudier le cycle des IPOs non seulement en termes du volume d’émission et niveau des rendements initiaux, mais également en termes de risque des firmes émettrices avec ses deux composantes systématique et idiosyncratique. Nous montrons le rôle important du risque global du marché à anticiper les vagues des IPOs et le niveau du risque idiosyncratique des prochaines émissions. De plus, nous montrons que le risque systématique des firmes émettrices est positivement corrélé à celui des émissions précédentes. La prédiction des vagues des IPOs et du niveau du risque spécifique des émissions futures aide: (1) les organismes de réglementation à améliorer les règles en conséquence, (2) les investisseurs à prendre de meilleures décisions d’investissement en IPOs et (3) les émetteurs d'aligner leur IPO selon la réceptivité du marché. Le second article traite l’impact des deux composantes du risque (systématique et idiosyncratique) de la firme émettrice et du marché des IPOs sur l’évaluation des IPOs par les souscripteurs durant la période de l’enregistrement d’une part et par les investisseurs sur le marché suite à son introduction d’autre part. Nos résultats montrent que les souscripteurs tendent à sous-évaluer les titres IPOs par rapport aux titres non-IPOs semblables (du point de vue de l’industrie, du niveau des ventes, de la profitabilité et du niveau de croissance), lorsqu’on considère le risque idiosyncratique du marché des IPOs au cours de la période d’enregistrement. Quant à l'évaluation de la firme en post-IPO, nous constatons que seulement le risque idiosyncratique de la société émettrice n’est pas incorporé dans le prix du marché des IPOs surévalués. Nous concluons que la mauvaise évaluation des IPOs pourrait être attribuée essentiellement à la non-incorporation de la composante idiosyncratique du risque dans le prix du titre. Le troisième article étudie la performance anormale à long terme des IPOs versus les titres non-IPOs comparables sous un nouvel angle qui exploite la différence entre le risque systématique et le risque idiosyncratique de la firme. Nos résultats montrent que les titres d’IPOs présentent un risque systématique et idiosyncratique plus élevé que celui de leurs semblables. À l’encontre des titres non-IPOs, nous constatons une tendance baissière significative du risque idiosyncratique des IPOs durant les trois premières années de l’introduction, tandis que la composante systématique du risque présente une légère tendance haussière au fil du temps. Nous montrons aussi que la sous-performance apparente des IPOs n’est que le reflet d’une exposition au risque de la volatilité qui est moins élevée pour les IPOs par rapport à leur semblables non-IPOs. Par ailleurs, nous constatons des sous-performances plus importantes à long terme, surtout pour les IPOs à risque idiosyncratique élevé, les firmes technologiques et les IPOs durant la période chaude d’émissions. Cette thèse contribue à la littérature des IPOs en démontrant la pertinence de notre approche qui adopte la décomposition du risque afin de comprendre certains résultats mitigés dans la littérature à propos des trois anomalies du marché des IPOs. / This thesis contains three articles examining the impact of risk on three anomalies associated with the IPO market. These anomalies are: (1) the phenomenon of "hot-issue market", (2) the underpricing and (3) the long-run underperformance. We use a new approach that decomposes the total risk at the firm as well as the IPO market levels into: (1) a systematic risk component associated with common risk factors of the market and (2) an idiosyncratic risk component tied with firm specific risk factors and used as a proxy for the information asymmetry level. In addition, we use market implied volatility to assess the impact of market-wide uncertainty on IPO activity. Our objective is to reveal which risk component is involved in the IPO cycles (Paper 1), the short-run (Paper 2) as well as the long-run (Paper 3) IPO pricing process. The first paper characterizes the role of risk in IPO cycles. We aim to study IPO cycles not only in terms of IPO volume and initial returns but also in terms of issuing firm’s risks with both systematic and idiosyncratic components. We show the important role of the market-wide risk to anticipate IPO’s waves and the level of the idiosyncratic risk of future issues. Moreover, we show that systematic risk is positively correlated across issuing firms. The predictability of IPO waves and the specific risk level of future new issues helps: (1) regulators to improve rules accordingly, (2) investors to make better IPO investment’s decisions and (3) issuers to align their IPO timing with market receptivity. The second paper evaluates the impact of both risk components (systematic and idiosyncratic) at the issuing firm as well as the IPO market levels on the IPO pricing by the underwriters during the period of registration on the one hand and by the investors in the early aftermarket stage on the other hand. Our results show that underwriters tend to undervalue IPOs compared to similar non-IPOs equities (controlling for the industry, sales, profitability and growth), when considering the idiosyncratic risk at the IPO market level during the registration period. For post-IPO valuation, we find that idiosyncratic risk of the issuing firm is not incorporated into the market price of overvalued IPOs only. We conclude that IPO mispricing is mainly attributed to the non-incorporation of the idiosyncratic risk component into IPO prices. The third paper examines the long-run abnormal performance of IPOs versus comparable non-IPOs equities by using a new perspective that distinguishes between the systematic and idiosyncratic risk components of the firm. Our findings show that IPOs exhibit higher levels of systematic and idiosyncratic risks than their matched peers. Unlike non-issuing firms, we show a significant downward trend in IPO idiosyncratic risk during the first three years of seasoning. However, the IPO systematic risk component exhibits a slight upward trend over time. We also show that the apparent IPO underperformance is just a reflection of a lower risk volatility exposure for IPOs relative to similar non-issuing firms. Moreover, we find more pronounced long-run underperformance, especially for IPOs with high idiosyncratic risk, technology firms and hot-IPOs. This thesis contributes to the IPO literature by highlighting the relevance of our approach that adopts the decomposition of risk in order to understand some mixed findings in the literature about the three anomalies of the IPO’s market.
74

Les déterminants de l'écart de taux d'intérêt SWAP

Dion, Pascal 12 April 2018 (has links)
Le mémoire porte sur l'étude de l'écart de taux d'intérêt swap. Nous cherchons à déterminer ce qui fait varier cet écart de taux d'intérêt swap pour ensuite le prédire. Ce mémoire est important car, en terme absolu, le swap est le produit dérivé le plus négocié au monde. Les contrats swaps sont devenus des instruments incontournables pour gérer le risque de taux d'intérêt. Dans un monde financier complexe, il est fort pratique d'utiliser l'obligation gouvernementale la plus récente comme instrument sans risque. Étant donné la taille limitée de ce marché, le swap est un instrument de remplacement de choix pour les financiers. Son utilisation comme instrument de gestion du risque est donc fréquent. Toutefois, la prime de risque varie avec le temps. Il est donc important de savoir et comprendre ce qui fait varier cet écart pour aider à éliminer au maximum le risque de taux d'intérêt. Il sera démontré que la prime de liquidité inclus dans le marché des obligations gouvernementales et la prime de risque inclus dans le marché LIBOR sont les principaux déterminants de l'écart de taux swap. Un modèle sera construit pour nous permettre d'étudier les différents déterminants dans un contexte économétrique. Nos résultats nous permettent de dire que les risques ont une importance différente d'une période à l'autre.
75

On the impact of stochastic volatility, interest rates and mortality on the hedge efficiency of GLWB quarantees

Veilleux, Pierre-Alexandre 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Les rentes variables, et plus particulièrement les garanties de rachat viager (GRV), sont devenues très importantes dans l'industrie de la gestion du patrimoine. Ces garanties, qui offrent aux clients une protection de revenu tout en leur permettant de garder une participation dans les marchés boursiers, comprennent différents risques systématiques du point de vue de l'émetteur. La gestion des risques des GRV est donc une préoccupation majeure pour les compagnies d'assurance, qui ont opté pour la couverture sur les marchés financiers comme stratégie de gestion des risques simple et efficace. Ce mémoire évalue l'impact de la modélisation du passif de la garantie sur l'efficacité de la couverture des GRV par rapport à trois risques systématiques importants pour ces garanties, soient les risques de marchés boursiers, d'intérêt et de longévité. Le présent travail vise donc à étendre l'analyse effectuée par Kling et al. (2011), qui se concentre sur le risque de marchés boursiers. Ce mémoire montre que les taux d'intérêt stochastiques sont primordiaux dans la modélisation du passif des GRV. Ce mémoire analyse également l'impact de la modélisation de la mortalité utilisée dans la boucle externe sur l'efficacité de la couverture des GRV. Une allocation du risque entre les risques financiers et le risque de longévité est utilisée pour montrer que la longévité représente une part importante du risque total des GRV couvertes. De plus, l'efficacité de la couverture dans des projections incluant une modélisation stochastique des risques financiers et du risque de longévité est comparée à l'efficacité dans des projections utilisant des marges pour écarts défavorables traditionnelles sur l'hypothèse d'amélioration de mortalité. La diversification entre les risques financiers et de longévité s'avère avoir un effet substantiel sur l'efficacité de la couverture. / Variable annuity guarantees, and particularly guaranteed lifetime withdrawal benefit (GLWB) guarantees, have become very important in the wealth management industry. These guarantees, which provide clients with a revenue protection while allowing them to retain equity market participation, exhibit significant systematic risks from the issuer's standpoint. Risk management of GLWB guarantees thus is a main concern for insurance companies, which have turned to capital market hedging as a straightforward and effective risk management method. This thesis assesses the impact of the guarantee liability modeling on the hedge efficiency of GLWB guarantees with respect to three significant systematic risks for these guarantees, namely, the stock market, interest rate and longevity risks. The present work thus aims to extend the hedge efficiency analysis performed in Kling et al. (2011), which focuses on the stock market risk. In this thesis, stochastic interest rates are shown to be of primary importance in the guarantee liability modeling of GLWB guarantees. This thesis also analyzes the impact of the outer loop modeling of mortality on the hedge efficiency of GLWB guarantees. A risk allocation between financial and longevity risks is used to show that longevity holds a significant share of the total risk of a hedged GLWB guarantee. The hedge efficiency in projections including both stochastic financial and mortality modeling is compared with the efficiency in projections using traditional actuarial margins for adverse deviations on the mortality improvement assumption. The diversification between financial and longevity risks is shown to have a substantial impact on hedge efficiency.
76

Les décisions de la CLCC dans les infractions liées au terrorisme : une instrumentalisation du risque

Bussière, Molly 30 April 2024 (has links)
La CLCC possède différents pouvoirs, notamment d'évaluer la possibilité de libération anticipée à tous les délinquants qui en font la demande. Ainsi, celle-ci joue un rôle important dans la réinsertion sociale des détenus tout en s'assurant de la sécurité du public. Pour en venir à une décision, la Commission doit alors déterminer si le risque que représentent les délinquants est indu ou non pour la société. Bien que peu de délinquants soient condamnés pour des crimes terroristes au pays, ces derniers devront potentiellement se présenter devant la Commission. Or, la littérature scientifique portant sur le sujet de la mise en liberté sous conditions chez les délinquants radicalisés se fait rare, et ce, autant au Canada qu'à l'international. Considérant ce qui précède, nous avons jugé pertinent de nous pencher sur la façon dont les commissaires de la CLCC utilisent la notion du risque dans leurs décisions chez les délinquants condamnés pour des infractions liées au terrorisme. Au total, nous avons analysé 39 rapports, datant de 2001 à 2022, issus du registre de décisions et qui concernaient des délinquants incarcérés pour des crimes liés au terrorisme. De notre analyse thématique, nous constatons que la Commission base son évaluation du risque sur divers facteurs tels que la responsabilisation du délinquant, mais que l'idéologie extrémiste semble être un élément prépondérant. Par ailleurs, les outils actuariels du risque ne peuvent être des instruments fiables selon la Commission et le SCC. Il s'avère également que la Commission, à des fins de gestion du risque, veille à ce qu'un processus dit de «déradicalisation » ait eu lieu. De plus, le refus ou le maintien en incarcération deviennent des méthodes de gestion du risque en soi. Les résultats suggèrent que la Commission se base sur des critères à géométrie variable afin de juger du risque de récidive et d'appuyer ses décisions. Par ailleurs, la gestion des risques en matière de libération conditionnelle est également liée à la conception du détenu en tant qu'acteur responsable. L'enjeu dans ce contexte est l'absence de ressources mises à disposition des délinquants présentant des idéologies extrémistes. Nos résultats ont également révélé que la notion du risque est instrumentalisée à travers l'argumentaire des commissaires. Elle est mobilisée à des fins de désapprobation des crimes terroristes, de rétribution, de protection institutionnelle et de satisfaction de l'opinion publique. / The PBC has a number of powers, including assessing the possibility of early release for all offenders who request it. In this way, the Board plays an important role in the social reintegration of inmates, while ensuring public safety. To reach a decision, the Board must then determine whether or not the risk posed by the offenders is undue to society. Although few offenders are charged with terrorist crimes in this country, they will potentially have to appear before the Board. However, scientific literature on the subject of conditional release for radicalized offenders is scarce, both in Canada and internationally. With this in mind, we thought it would be useful to examine the way in which PBC members use the notion of risk in their decisions concerning offenders accused of terrorism-related offences. We analyzed 39 reports, dating from 2001 to 2022, from the decision registry concerning offenders incarcerated for terrorism-related crimes. From our thematic analysis, we note that the Board bases its risk assessment on various factors such as offender accountability, but that extremist ideology seems to be a predominant element. Furthermore, actuarial risk tools cannot be reliable instruments, according to the Board and CSC. It also turns out that the Board, for risk management purposes, ensures that a so-called "deradicalization" process has taken place. In addition, refusal or continued incarceration become risk management methods in themselves. The results suggest that the Commission uses variable-geometry criteria to judge the risk of recidivism and to support its decisions. Parole risk management is also linked to the conception of the prisoner as a responsible actor. At stake here is the lack of resources available to offenders with extremist ideologies. Our results also revealed that the notion of risk is instrumentalized in the commissioners' arguments. It is mobilized for the purposes of disapproval of terrorist crimes, retribution, institutional protection and the satisfaction of public opinion.
77

La grêle en Tunisie : diagnostic et gestion d'un risque agricole émergent

Latrach, Mohamed Mohsen 18 October 2013 (has links) (PDF)
En Tunisie, le caractère aléatoire du phénomène de la grêle, qui a comme corollaire son extrême variabilité, en fréquence d'apparition, en localisation et en intensité, a empêché un suivi permanent de ce type de précipitations. Le manque de périodes d'observation assez longues et les lacunes au niveau des données disponibles ont laissé cet aléa peu étudié donc peu connu. La trace de la grêle provoque de lourds dégâts agricoles chaque année et soulève des questions quant aux stratégies de gestion d'autant plus que les systèmes antigrêle sont quasiment absents. La présence des précipitations de grêle ou d'averse de grêle en Tunisie est commandée souvent par un rythme méditerranéen à l'instar des autres formes de précipitations telles que les pluies. Ce phénomène très localisé en Tunisie, concerne particulièrement le nord-ouest et le centre-ouest du pays, abritant les reliefs les plus élevés, demeurant ainsi le siège des trajectoires ouest/est, nord-ouest/sud-est et sud-ouest/nord-est des nuages de grêle. Les dégâts résultant de ce phénomène, qui touchent différents biens de valeur, menacent souvent le domaine d'agriculture qui est le secteur d'activités humaines le plus vital pratiquement en plein printemps et tout l'été ; certaines années, l'agriculteur voit ses récoltes totalement détruites par ce fléau. La région de Kasserine au Centre-ouest de la Tunisie est la région la plus vulnérable et ses vergers de pomme sont les plus touchés. Les pertes se classent le plus souvent très graves mais elles se trouvent d'autant plus prégnantes que les moyens antigrêle et les systèmes d'assurance agricole contre ce fléau ne sont souvent pas utilisés par les agriculteurs. [etc.]
78

Contributions au déploiement sécurisé de processus métiers dans le cloud / Contribution to the secure deployment of business processes in the cloud

Ahmed Nacer, Amina 26 February 2019 (has links)
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant / The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
79

Analyse des sensibilités des modèles internes de crédit pour l'étude de la variabilité des RWA / Sensitivity analysis of credit models for the assessment of the RWA variability

Sestier, Michael 04 October 2017 (has links)
Suite à la crise de 2007-2009, des études menées par le Comité de Bâle ont montré une grande dispersion des actifs pondérés du risque (RWA) entre les banques, dont une part significative proviendrait des hypothèses des modèles internes. De nouvelles réglementations visant à trouver un équilibre entre bonne représentation des risques, simplicité des approches et comparabilité ont dès lors été développées. Celles-ci proposent notamment l'ajout de contraintes sur les modèles/paramètres pour l'évaluation interne des RWA de crédit des portefeuilles bancaire et de négociation. Dans ce contexte, ces travaux de thèse consistent principalement en l'analyse de la pertinence de ces contraintes pour la réduction de la variabilité des RWA. Ils font largement recours aux méthodes d'analyses des sensibilités, notamment celles basées sur les décompositions de Hoeffding. Le traitement réglementaire des paramètres de crédit (les corrélations des défauts, les probabilités de défaut -PD -et les taux de perte en cas de défaut -LGD) forme la colonne vertébrale des développements. Au final, les conclusions des études menées semblent indiquer des résultats mitigés des réforn1es. D'une part, les contraintes sur les corrélations pour le portefeuille de négociation sont d'un impact faible sur la réduction de la variabilité des RWA. D'autre part, les contraintes sur les paramètres de PD et de LGD, ayant un impact plus important sur la réduction de la variabilité des RWA, devraient être considérées avec plus de prudence. La thèse fournit enfin des preuves que la variabilité est amplifiée par la mesure du risque réglementaire et les multiples sources de données de calibration des modèles. / In the aftermath of the 2007-2009 crisis, several studies led by the Base! Committee showed a large dispersion of risk-weighted assets (RWA) among banks, a significant part of which would come from the internal model's assumptions. Consequently, new regulations aiming at finding a balance between risk sensitivity, simplicity and comparability have then been developed. These ones notably include constraints on models / parameters for the internal assessment of the credit RWA for both the banking and the trading books. ln this context, the thesis work mainly consists in analyzing the relevance of such constraints to reduce the RWA variability. It makes extensive use of sensitivity analysis methods, particularly the ones based on the Hoeffding's decomposition. Regulatory treatments of the credit parameters (default correlations, default probabilities -DP -and loss given default -LGD) form the backbone of the developments. The findings suggest mixed results of the reforms. On the one hand, the constraints on the correlations for the trading book have a low impact on the RWA variability. On the other hand, the constraints on OP and LGD parameters, having a greater impact on the RWA variability, should be considered with more caution. The studies finally provide evidence that variability is amplified by the regulatory measurement of the risk and the multiple sources of calibration data.javascript:nouvelleZone('abstract');_ajtAbstract('abstract');
80

MAÎTRISE DE LA SÉCURITÉ DES SYSTÈMES DE LA ROBOTIQUE DE SERVICE - APPROCHE UML BASÉE SUR UNE ANALYSE DU RISQUE SYSTÈME

Guiochet, Jérémie 07 July 2003 (has links) (PDF)
Les systèmes de la robotique de service, tels que les robots médicaux, permettent<br />de réaliser des tâches complexes en milieu humain, et s'intègrent à ce titre dans les systèmes à<br />sécurité critique. Lors de la conception de ces nouvelles applications, la sécurité est souvent<br />traitée grâce à des techniques de sûreté de fonctionnement. Nous proposons cependant une<br />nouvelle approche plus globale, basée sur la notion de risque. L'objectif de cette thèse est<br />de proposer une démarche aux concepteurs pour appréhender la sécurité de tels systèmes, en<br />intégrant le concept de risque et en se plaçant à un niveau système. La maîtrise de la sécurité<br />dépend alors de l'activité de gestion du risque dont le coeur est l'analyse du risque. Cette<br />activité centrale se décompose en trois étapes : la description du système et de son utilisation,<br />l'identification des dangers, et l'estimation des risques de dommages induits par l'utilisation<br />du système. Nous proposons d'utiliser la notation UML (Unified Modeling Language) pour la<br />description du système. Les modèles UML sont alors couplés avec des activités du domaine<br />des facteurs humains, incluses dans l'analyse du risque proposée. Puis, pour les deux étapes<br />suivantes, les interactions entre cette notation et des techniques d'analyse du risque comme<br />l'AMDEC (Analyse des Modes de Défaillance, et de leurs Effets Critiques) et les arbres de<br />fautes sont étudiées. Cette démarche est ensuite appliquée sur le cas concret du développement<br />d'un robot télé-échographe actionné par des muscles artificiels de McKibben.

Page generated in 0.1005 seconds