• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 17
  • 5
  • 1
  • 1
  • Tagged with
  • 98
  • 98
  • 35
  • 31
  • 20
  • 20
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Évaluation de la vulnérabilité sismique des ponts routiers au Québec à l'aide des courbes de fragilité / Seismic risk assessment of bridges in Quebec using fragility curves

Tavares, Danusa Haick January 2012 (has links)
Les courbes de fragilité sont utilisées pour évaluer la vulnérabilité sismique des ponts à travées multiples dans la province du Québec. Les courbes de fragilité sont un outil probabiliste pour évaluer la vulnérabilité d'une structure. Elles expriment la probabilité qu'un pont puisse atteindre un état d'endommagement spécifique produit par un événement sismique. En raison de leur aspect probabiliste, les courbes de fragilité permettent de tenir compte des incertitudes sur certaines propriétés des ponts ou sur l'excitation sismique. L'histoire de l'activité sismique dans la province du Québec démontre la nécessité de tenir compte des effets sismiques dans l'évaluation et la rénovation des ponts existants. Les dommages causés par les tremblements de terre au cours des dernières décennies ont montré que la vulnérabilité sismique d'un réseau de transport est principalement liée aux ponts. Le réseau de ponts au Québec est âgé de plus de 30 ans. Au moment où il a été conçu et construit, la technologie et les connaissances dans le domaine sismique étaient loin de leur état actuel. La méthode d'évaluation des risques sismiques utilisant les courbes de fragilité est d'abord utilisée pour estimer la vulnérabilité sismique d'un pont routier spécifique. Le pont étudié est le pont Chemin des Dalles situé à Trois-Rivières au Québec sur l'autoroute 55. Les données des essais dynamiques sur place sont utilisées pour calibrer un modèle tridimensionnel non linéaire par éléments finis avec le logiciel OpenSees. Une série de 180 accélérogrammes artificiels compatibles avec l'est du Canada est utilisée pour représenter les incertitudes liées à l'aléa sismique. Des analyses temporelles sont effectuées avec ces accélérogrammes et leurs résultats ont été utilisés pour effectuer une régression linéaire dans l'espace log-normal afin de définir les modèles probabilistes de demande sismique des composantes du pont. Les états limites des composantes du pont, par exemple les culées, les appareils d'appui ou les poteaux sont choisis en fonction des types d'endommagements observés sur les ponts qui ont subi des tremblements de terre passés. Des informations ont également été trouvées dans la littérature pour définir les états limites pour les culées et les appuis élastomériques. En plus de ces données, des analyses de mécanique d'endommagement ont permis de définir les états limites pour les poteaux. Finalement, un ensemble de courbes de fragilité pour le pont tel que construit est développé par combinaison de la demande et des modèles de capacité en utilisant la méthode d'échantillonnage de Monte Carlo. Même si l'évaluation d'un pont spécifique est une source précieuse d'information, celle-ci est limitée à la singularité de la structure. Pour permettre l'évaluation de l'ensemble du réseau routier au Québec, pas uniquement un mais l'ensemble des ponts doit être pris en compte. Les ponts au Québec ont été construits pendant 300 ans. En utilisant la base de données de Transports Québec, 2672 ponts à travées multiples ont été identifiés. La population des ponts à travées multiples du réseau est présentée, et un pont moyen de référence est défini. Ensuite, avec quatre accélérogrammes différents de la série, des analyses déterministes temporelles sont effectuées sur ce pont, illustrant la variabilité de l'aléa sismique. En utilisant le pont de référence moyen et l'accélérogramme qui a le plus d'effets, trois types de piliers de pont sont testés afin de vérifier l'importance de ce paramètre sur la réponse du pont. Deux types de culée seat-type sont également examinés, un type avec des fondations superficielles et l'autre avec des fondations profondes avec pieux. Deux types de fondation des piliers sont examinés : une fondation superficielle avec semelles et une fondation profonde avec pieux. Conformément à la classification des sols dans le CAN/CSA-S6-06, relative à la classification figurant dans le CNBC 2005, quatre types de sols sont utilisés pour évaluer leur influence sur le comportement du pont de référence. La description de la totalité des ponts du réseau se poursuit avec leur classement et la détermination des paramètres importants pour une analyse sismique. Pour classer les ponts dans des classes ou portefeuilles, les ponts à travées multiples sont séparés selon le type de système structural et le type de matériau. D'autres paramètres liés à la géométrie, au matériau et à certaines de leurs variantes sont évalués afin de mieux décrire chaque classe de pont. Une analyse de variance, ANOVA, est réalisée pour déterminer les paramètres importants définissant les incertitudes pour chaque classe de pont typique. Un modèle numérique tridimensionnel non linéaire par éléments finis est développé pour chaque classe de ponts, et ces modèles sont ensuite soumis à une série d'accélérogrammes. Les réponses de certains éléments du pont sont analysées et une régression linéaire est effectuée afin de développer les modèles probabilistes de demande sismique (PSDM). L'ensemble des PSDM est comparé aux états limites prédéfinis des composantes du pont, qui définissent les modèles probabilistes de capacité sismiques (PSCM), afin de développer les courbes de fragilité de la totalité du pont.
12

Analyse statistique des causes de la géographie du terrorisme transnational

Savard, Charles 30 August 2022 (has links)
Pourquoi certaines localisations géographiques sont-elles plus attractives aux attentats terroristes que d’autres? Malgré les défis conceptuels que pose l’étude d’un sujet aussi politisé que le terrorisme, cette recherche propose un modèle statistique pour étudier le lien entre le terrorisme transnational et sa géographie au niveau local. La recherche soutient que la capacité de causer des dommages à l’ennemi, l’accessibilité, la marginalisation des minorités ethniques et l’instabilité politique sont quatre variables qui expliquent la répartition géographique inégale des attentats terroristes. À partir d’une régression logistique adaptée pour les évènements rares et de deux bases de données (le Global Terrorism Database [GTD] et le PRIO-GRID), les résultats ont montré que la présence d’un conflit civil augmente jusqu’à 6 fois le risque de subir un attentat terroriste. Les résultats ont montré une forte corrélation statistique entre le terrorisme et le niveau de population et la proximité avec une frontière internationale et/ou d’une capitale nationale. Les résultats indiquent aussi un lien entre l’exclusion d’une minorité ethnique et le terrorisme. Finalement, un classement des villes mondiales les plus à risque est présenté et montre que des villes comme Jakarta, New Delhi, Moscou ou Paris ont un niveau de risque très élevé / Why are some geographic locations more attractive to terrorist attacks than others? Despite the conceptual challenges of studying a topic as politicized as terrorism, this research proposes a statistical model to study the relationship between transnational terrorism and its local-level geography. The research argues that the capacity to harm the enemy, accessibility, marginalization of ethnic minorities, and political instability are four variables that explain the uneven geographic distribution of terrorist attacks. Using logistic regression adapted for rare events and two databases (the Global Terrorism Database [GTD] and PRIO-GRID), the results showed that the presence of civil conflict increases the risk of experiencing a terrorist attack by up to 6 times. The results showed a strong statistical correlation between terrorism and population level and proximity to an international border and/or a national capital. The results also indicate a link between ethnic minority exclusion and terrorism. Finally, a ranking of the most at-risk global cities is presented shows that cities such as Jakarta, New Delhi, Moscow, or Paris have a very high level of risk.
13

Évaluation et allocation du risque dans le cadre de modèles avancés en actuariat

Moutanabbir, Khouzeima 19 April 2018 (has links)
Dans cette thèse, on s’intéresse à l’évaluation et l’allocation du risque dans le cadre de modèles avancés en actuariat. Dans le premier chapitre, on présente le contexte général de la thèse et on introduit les différents outils et modèles utilisés dans les autres chapitres. Dans le deuxième chapitre, on s’intéresse à un portefeuille d’assurance dont les composantes sont dépendantes. Ces composantes sont distribuées selon une loi mélange d’Erlang multivariée définie à l’aide de la copule Farlie-Gumbel-Morgenstern (FGM). On évalue le risque global de ce portefeuille ainsi que l’allocation du capital. En utilisant certaines propriétés de la copule FGM et la famille de distributions mélange d’Erlang, on obtient des formules explicites de la covariance entre les risques et de la Tail-Value-at-Risk du risque global. On détermine aussi la contribution de chacun des risques au risque global à l’aide de la régle d’allocation de capital basée sur la Tail-Value-at-Risk et celle basée sur la covariance. Dans le troisième chapitre, on évalue le risque pour un portefeuille sur plusieurs périodes en utilisant le modèle de Sparre Andersen. Pour cette fin, on étudie la distribution de la somme escomptée des ladder heights sur un horizon de temps fini ou infini. En particulier, on trouve une expression ferme des moments de cette distribution dans le cas du modèle classique Poisson-composé et le modèle de Sparre Andersen avec des montants de sinistres distribués selon une loi exponentielle. L’élaboration d’une expression exacte de ces moments nous permet d’approximer la distribution de la somme escomptée des ladder heights par une distribution mélange d’Erlang. Pour établir cette approximation, nous utilisons une méthode basée sur les moments. À l’aide de cette approximation, on calcule les mesures de risque VaR et TVaR associées à la somme escomptée des ladder heights. Dans le quatrième chapitre de cette thèse, on étudie la quantification des risques liés aux investissements. On élabore un modèle d’investissement qui est constitué de quatre modules dans le cas de deux économies : l’économie canadienne et l’économie américaine. On applique ce modèle dans le cadre de la quantification et l’allocation des risques. Pour cette fin, on génère des scénarios en utilisant notre modèle d’investissement puis on détermine une allocation du risque à l’aide de la règle d’allocation TVaR. Cette technique est très flexible ce qui nous permet de donner une quantification à la fois du risque d’investissement, risque d’inflation et le risque du taux de change. / In this thesis, we are interested in risk evaluation and risk allocation blems using advanced actuarial models. First, we investigate risk aggregation and capital allocation problems for a portfolio of possibly dependent risks whose multivariate distribution is defined with the Farlie-Gumbel-Morgenstern copula and with mixed Erlang distributions for the marginals. In such a context, we first show that the aggregate claim amount has a mixed Erlang distribution. Based on a top-down approach, closed-form expressions for the contribution of each risk are derived using the TVaR and covariance rules. These findings are illustrated with numerical examples. Then, we propose to investigate the distribution of the discounted sum of ascending ladder heights over finite- or infinite-time intervals within the Sparre Andersen risk model. In particular, the moments of the discounted sum of ascending ladder heights over a finite- and an infinite-time intervals are derived in both the classical compound Poisson risk model and the Sparre Andersen risk model with exponential claims. The application of a particular Gerber-Shiu functional is central to the derivation of these results, as is the mixed Erlang distributional assumption. Finally, we define VaR and TVaR risk measures in terms of the discounted sum of ascending ladder heights. We use a moment-matching method to approximate the distribution of the discounted sum of ascending ladder heights allowing the computation of the VaR and TVaR risk measures. In the last chapter, we present a stochastic investment model (SIM) for international investors. We assume that investors are allowed to hold assets in two different economies. This SIM includes four components: interest rates, stocks, inflation and exchange rate models. First, we give a full description of the model and we detail the parameter estimation. The model is estimated using a state-space formulation and an extended Kalman filter. Based on scenarios generated from this SIM, we study the risk allocation to different background risks: asset, inflation and exchange rate risks. The risk allocation is based on the TVaR-based rule.
14

Analyse statistique des causes de la géographie du terrorisme transnational

Savard, Charles 11 November 2023 (has links)
Pourquoi certaines localisations géographiques sont-elles plus attractives aux attentats terroristes que d'autres? Malgré les défis conceptuels que pose l'étude d'un sujet aussi politisé que le terrorisme, cette recherche propose un modèle statistique pour étudier le lien entre le terrorisme transnational et sa géographie au niveau local. La recherche soutient que la capacité de causer des dommages à l'ennemi, l'accessibilité, la marginalisation des minorités ethniques et l'instabilité politique sont quatre variables qui expliquent la répartition géographique inégale des attentats terroristes. À partir d'une régression logistique adaptée pour les évènements rares et de deux bases de données (le Global Terrorism Database [GTD] et le PRIO-GRID), les résultats ont montré que la présence d'un conflit civil augmente jusqu'à 6 fois le risque de subir un attentat terroriste. Les résultats ont montré une forte corrélation statistique entre le terrorisme et le niveau de population et la proximité avec une frontière internationale et/ou d'une capitale nationale. Les résultats indiquent aussi un lien entre l'exclusion d'une minorité ethnique et le terrorisme. Finalement, un classement des villes mondiales les plus à risque est présenté et montre que des villes comme Jakarta, New Delhi, Moscou ou Paris ont un niveau de risque très élevé. / Why are some geographic locations more attractive to terrorist attacks than others? Despite the conceptual challenges of studying a topic as politicized as terrorism, this research proposes a statistical model to study the relationship between transnational terrorism and its local-level geography. The research argues that the capacity to harm the enemy, accessibility, marginalization of ethnic minorities, and political instability are four variables that explain the uneven geographic distribution of terrorist attacks. Using logistic regression adapted for rare events and two databases (the Global Terrorism Database [GTD] and PRIO-GRID), the results showed that the presence of civil conflict increases the risk of experiencing a terrorist attack by up to 6 times. The results showed a strong statistical correlation between terrorism and population level and proximity to an international border and/or a national capital. The results also indicate a link between ethnic minority exclusion and terrorism. Finally, a ranking of the most at-risk global cities is presented shows that cities such as Jakarta, New Delhi, Moscow, or Paris have a very high level of risk.
15

Calibration et discrimination du score de Framingham simplifié pour la prédiction du risque de maladie coronarienne dans une cohorte canadienne

Garcon, Jacquecin 25 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Introduction : Le score de Framingham est l'outil de prédiction du risque cardiovasculaire recommandé par la Société Canadienne de Cardiologie. Aucune étude canadienne n'a examiné la capacité prédictive du score de Framingham simplifié pour les soins primaires (Framingham-Sp), dont l'utilisation est facilitée par l'absence de mesures en laboratoire. Aussi, la performance de ce score pour la prédiction du risque à long terme et la variation en fonction du statut socioéconomique demeure inconnue. Objectifs : D'abord, évaluer la calibration et la discrimination du score de Framingham-Sp dans une cohorte canadienne. Ensuite, évaluer si sa capacité prédictive varie en fonction du sexe et du statut socioéconomique. Méthodes : Cette étude a été réalisée sur une cohorte prospective de 24 ans composée de 7657 participants, âgés de 30 à 74 ans et exempts de maladies cardiovasculaires à l'entrée. Les événements coronariens incidents ont été identifiés dans les fichiers médico-administratifs à l'aide d'un algorithme validé. Les facteurs de risque de maladies cardiovasculaires inclus dans l'outil de Framingham-Sp ont été évalués au recrutement. La calibration et la discrimination ont été évaluées sur 10 ans et 24 ans. Résultats : Sur 10 ans, il n'avait pas de différence entre le risque prédit et le risque observé dans la population totale, de même que pour les deux sexes ainsi que dans toutes les catégories socioéconomiques. Sur 24 ans, la sous-estimation du risque était de -72,7 % dans l'ensemble, de -69 % pour les hommes et de -79 % pour les femmes. Plus le statut socio économique était élevé, moindre était cette sous-estimation. L'AUC-ROC était de 0,79 sur 10 ans et de 0,74 sur 24 ans. Elle était successivement de 0,78 contre 0,70 chez les hommes et de 0,78 contre 0,71 chez les femmes sur 10 ans et sur 24 ans. Conclusion : Les résultats suggèrent que le score de Framingham-Sp est bien calibré et assez discriminant pour la prédiction du risque de maladie coronarienne à 10 ans. La calibration sur 24 ans était, comme qu'attendu, faible, particulièrement pour les femmes et les personnes à faible statut socioéconomique. La discrimination, bien que légèrement inférieure à celle observée sur 10 ans, demeure satisfaisante. / Introduction: The Framingham score is the cardiovascular risk prediction tool recommended by the Canadian Cardiovascular Society. No Canadian study has examined the predictive ability of the simplified Framingham score for primary care (Framingham-Sp), whose use is facilitated by the absence of laboratory measurements. Also, the performance of this tool in predicting long-term risk and variation by socioeconomic status remains unknown. Objectives: First, to assess the calibration and discrimination of the Framingham-Sp score in a Canadian cohort. Second, to assess whether its predictive ability varies with sex and socioeconomic status. Methods: This study was conducted in a 24-year prospective cohort of 7657 participants, aged 30 to 74 years and free of cardiovascular disease at entry. Incident coronary events were identified in medical databases with universal coverage. Cardiovascular disease risk factors included in the Framingham-Sp tool were assessed at recruitment. Calibration and discrimination were assessed over 10 and 24 years. Results: Over 10 years, there was no significant difference between the predicted and observed risk in the general population, similarly in both sexes and in all socioeconomic categories. Over 24 years, a large underestimation of risk was observed. It was -72.7% overall, -69% for men and -79% for women. The higher the socioeconomic status, the lower was this underestimation. The C-statistic was 0.79 over 10 years and 0.74 over 24 years. It was successively 0.78 versus 0.70 in men and 0.78 versus 0.71 in women over 10 years and over 24 years. Conclusion: The results suggest that the Framingham-Sp score is well calibrated and fairly discriminating in predicting 10-year coronary heart disease risk. Calibration over 24 years was, as expected, poor, particularly for women and people of low socioeconomic status. Discrimination, although slightly lower than that observed over 10 years, remains satisfactory.
16

Jugement clinique vs. évaluation actuarielle du risque de récidive criminelle : le cas mystérieux de la dérogation clinique

Fréchette, Julien 10 February 2024 (has links)
L’évaluation et la gestion du risque de récidive criminelle sont dorénavant des pratiques courantes dans les systèmes correctionnels occidentaux. Au Canada, le modèle de gestion du risque est fermement organisé selon les lignes directrices établies par le modèle de risque-besoins-réceptivité (RBR; Andrews, Bonta & Hoge, 1990). Différents outils ont été conçus afin d’encadrer les praticiens dans l’évaluation des composantes RBR, notamment le Level of Service and Case Management Inventory (LS/CMI; Andrews, Bonta & Wormith, 2004). Cet instrument est basé sur des principes d'évaluation du risque priorisant la méthode actuarielle au jugement clinique. Malgré tout, les concepteurs de l’outil ont autorisé, dans une certaine mesure, un jugement subjectif des évaluateurs pour ajuster le niveau de risque de récidive criminelle dans certaines circonstances. Cette discrétion accordée aux évaluateurs pour ajuster le risque actuariel est appelée dérogation clinique. Bien que la dérogation clinique représente un pouvoir discrétionnaire important au sein de l’appareil pénal, peu d’études ont été menées sur cette pratique. Pour l’instant, la majorité des études réalisées concernent la validité prédictive de celle-ci. Le regard limité des études antérieures sur la validité prédictive ne permet pas de comprendre les mécanismes entourant la dérogation. Ainsi, à la lumière des écrits, bien que la dérogation soit une pratique répandue, celle-ci reste méconnue en termes de prévalence et de contextes d’utilisation. À l’aide d’un échantillon incluant les détenus et les probationnaires québécois évalués à l'aide du LS/CMI entre 2008 et 2011 (n = 19 710), des analyses d’arbres décisionnels ont été réalisées pour identifier les profils de contrevenants faisant l’objet d’une dérogation du niveau de risque. Les résultats suggèrent que le choix de déroger est une décision rarissime, mais qui semble être majoritairement influencé par la nature de la condamnation au moment de l’évaluation LS/CMI et le score actuariel. / Assessing and managing criminal recidivism risk are now common practices in Western corrections. In Canada, the risk management model is firmly established along the guidelines set by the risk-needs-responsivity model (RNR; Andrews, Bonta & Hoge, 1990). Various tools have been designed to guide practitioners in the evaluation of RNR components, including the Level of Service and Case Management Inventory (LS/CMI; Andrews, Bonta & Wormith, 2004). This instrument is based on risk assessment principles prioritizing the actuarial method to clinical judgment. However, the tool's developers allowed, to some extent, a subjective judgment from the assessors to modify the criminal recidivism risk level in certain circumstances. This discretion granted to assessors to adjust actuarial risk is referred to as the clinical override. Although the clinical override represents an important discretion within the criminal justice system, few studies have been conducted on this practice. For the moment, studies carried out address almost exclusively its predictive validity. Indeed, the scope of previous studies limited to the predictive validity does not allow the understanding of mechanisms surrounding the riskbased override. In light of the scientific literature, although the override is a widespread practice, it remains unknown in terms of prevalence and utilization contexts. Using data from a sample of Quebec inmates and probationers assessed featuring the LS/CMI between 2008 and 2011 (n = 19,710), decision tree analyses were conducted to identify profiles of overridden offenders. The results suggest that the decision to override is extremely rare and seems to be mainly influenced by the nature of the index offense and the risk score prior to the override.
17

L'hypertension d'effort : un continuum clinique? : du syndrome métabolique au diabète de type 2 en passant par l'athlète : qu'en est-il de la réponse hémodynamique à l'effort, des anomalies métaboliques associées et de la modulation autonome cardiaque?

Gaudreault, Valérie 19 April 2018 (has links)
L'obésité est un fléau. Le nombre d‟adultes atteints d'obésité en Amérique du Nord ne cesse de croître. Le fléau touche même les adolescents et les enfants et se traduira par une augmentation de la morbidité et de la mortalité cardiovasculaires. La population de patients obèses n'est cependant pas homogène en termes de risques cardiovasculaires et des outils de stratification de la population des patients obèses sont nécessaires. L'hypertension d'effort est retrouvée de manière fréquente lors des épreuves d'effort et elle est associée avec une augmentation du risque de développer une hypertension de repos. Qui plus est, l'hypertension d'effort est associée à une augmentation du risque de morbidité et de mortalité cardiovasculaires. Le but de cette thèse est donc d'évaluer la prévalence d'hypertension d'effort chez les patients avec syndrome métabolique et les patients diabétiques. Nous avons également étudié les déterminants anthropométriques et métaboliques expliquant l'hypertension d'effort chez ces deux populations. Enfin, nous avons regardé l'impact de la pression artérielle à l'effort au sein d'une population de marathoniens.
18

Une étude métrologique des items du Level of Service/Case Management Inventory (LS/CMI) avec la contribution de la théorie classique des tests et de la théorie des réponses aux items chez les personnes contrevenantes du Québec

Giguère, Guy 18 April 2018 (has links)
Le dessein de tout instrument actuariel vise à générer un score ou un indice numérique qui permet de prédire le risque qu'un événement se produise. Le domaine de la criminologie s'intéresse tout particulièrement à ce type d'instrument afin de prédire d'une part, le risque qu'une personne contrevenante récidive et, d'autre part, d'identifier les besoins correctionnels en lien avec ce score de risque. La criminologie a produit un nombre considérable d'outils de ce type. L'un des plus connus est le Level Service Case Management Inventory (LS/CMI) qui est, en fait, un inventaire de niveau de service et de gestion des cas appartenant à la dernière génération des outils actuariels d'évaluation du risque. Depuis l'adoption le 7 mai 2002 de la Loi sur le système correctionnel du Québec (LSCQ), loi qui fut mise en vigueur le 5 février 2007, l'implantation d'un tel outil pour évaluer les personnes contrevenantes sous la responsabilité des Services correctionnels représente une première au Québec. En dépit des nombreuses études de validité prédictive réalisées sur des outils tels que le LSI-R et le LS/CMI, la question qui se pose réside dans la pertinence de connaître les qualités métrologiques des items qui les composent. L'analyse des items du LS/CMI vise à combler un vide dans les écrits spécialisés en exploitant les avancées scientifiques des théories de la mesure au profit de la criminologie. Donc, le but poursuivi par cette étude métrologique vise essentiellement à analyser en profondeur la structure interne du LS/CMI en mettant à profit deux théories de la mesure : la théorie classique des tests (TCT) et la théorie des réponses aux items (TRI). Les analyses réalisées dans le cadre de cette recherche portent essentiellement sur les 43 items qui ont été formulés afin d'opérationnaliser les huit dimensions de risque qui constituent la structure interne du LS/CMI. Cette recherche consacrée au LS/CMI tente d'apporter des éléments nouveaux concernant le score de risque. Nous espérons que ces analyses permettront de mieux comprendre et de faire évoluer les méthodes de calcul de la cote de risque tout en mettant à profit les nouvelles théories de la mesure. Les résultats obtenus devraient fournir une nouvelle assise métrologique susceptible de contribuer à l'essor de cette catégorie d'instrument de mesure. La thèse apporte une masse d'information reliée à la structure interne de l'outil. L'ensemble des analyses pourraient avoir une incidence sur la validité prédictive si des mesures correctives sont apportées aux items identifiés comme peu contributifs au score de risque de récidive. L'analyse métrologique réalisée à partir de la théorie classique des tests et de la théorie des réponses aux items a révélé de nombreux items jugés problématiques par la faiblesse soit des indices de difficulté ou des indices de discrimination. Cela dit, nous ne pouvons pas assurer que ces ajustements amélioreraient pour autant la validité prédictive. Par ailleurs, il a été constaté que la position relative des items classés en fonction des indices de difficulté et des pentes démontre une forte corrélation entre les détenus et ceux purgeant une peine dans la communauté. Ce constat fait en sorte qu'un système de normes commun aux deux groupes pourrait être envisagé. Enfin, l'étude de biais montre qu'un nombre substantiel d'items présente des fonctionnements différentiels entre le groupe de détenus et celui des personnes purgeant une peine dans la communauté. II est proposé de revoir les points de césure afin de diminuer les écarts observés entre les items lorsque les deux groupes à l'étude sont comparés sur une échelle de mesure commune.
19

Évaluation du risque radiologique des émetteurs alpha (actinides) dans l'environnement aqueux de Gentilly-2

Dubé, Martine 16 April 2018 (has links)
L'augmentation des besoins en énergie, causée entre autres choses par l'accroissement mondial de la population, fait augmenter l'intérêt pour les différentes sources d'énergie, dont l'énergie nucléaire. L'avantage de l'énergie nucléaire est de pouvoir produire une grande quantité de chaleur, et éventuellement d'électricité, à partir de très peu de matières premières. Malgré le fait que la production d'électricité à partir de la fission nucléaire soit vieille de plusieurs dizaines d'années, les études faites sur le sujet, sur ses impacts sur la population et l'environnement, traitent surtout des émetteurs P et des émetteurs y. Les impacts des émetteurs a sont très peu documentés. Bien sûr, la grande attention apportée aux émetteurs P et y s'explique par la plus grande proportion de ceux-ci dans l'environnement et aussi de leur plus grande radiotoxicité. Mais devrait-on accorder plus d'importance aux émetteurs a ? Ce projet vise donc à mieux évaluer le risque que représentent les émetteurs alpha dans l'environnement de la centrale nucléaire Gentilly-2. L'échantillonnage des actinides est très difficile. Les zones intéressantes à échantillonner, celles où les plus grandes concentrations se retrouvent, sont non-accessibles pour des raisons de radioprotection. Les risques radiologiques associés à ces prélèvements sont trop grands. Les échantillons disponibles proviennent donc d'un peu plus loin de la source. Ils proviennent des réservoirs de rejets liquides ou des piscines d'entreposage. Comme les concentrations mesurées sont faibles, les calculs de doses doivent se faire à l'aide de la modélisation. Les calculs de doses montrent que les émetteurs alpha, de par leur nature et leur concentration, ne présentent aucun risque radiologique pour l'environnement.
20

Quantification des ecdystéroïdes et acides rétinoïques chez la puce d’eau (D.magna) par chromatographie liquide couplée à la spectrométrie de masse en tandem

Venne, Philippe January 2015 (has links)
L’introduction de composé d’origine anthropogénique (produits pharmaceutiques, et de soin personnel, retardateur de flammes, plastifiants, etc.) par les stations de traitement des eaux usées municipales ainsi que le devenir de ses composés dans l’environnement est une problématique d’intérêt mondial. L’élimination de ses contaminants d’intérêt émergent des eaux usées s’effectue au niveau des stations de traitement des eaux usées qui, pour la plupart, ne sont pas conçues pour réaliser cette tâche. En effet, celles-ci présentent des niveaux très variables d’efficacité de dégradation/transformation de la plupart des contaminants émergents ce qui laisse dans l’effluent de ces stations des concentrations habituellement inférieures à quelques microgrammes par litres d’au moins plusieurs centaines de contaminants. Quelques études ont démontrés que l’exposition chronique à ces concentrations environnementales de différents CIE donne lieu à des effets toxiques chez le méné à tête de boule (effondrement de la population) et le gammare (diminution de l’activité). Cependant, les méthodes classiques utilisées pour l’évaluation de la toxicité ne sont pas suffisamment sensibles pour déceler des effets sublétaux aux concentrations environnementales observées dans les milieux recevant ces rejets de station d’épuration. Bien entendu, il est impossible de concevoir un procédé unique capable d’éliminer la totalité des contaminants d’intérêt émergent (présents ou futurs) des eaux usées. Il est donc nécessaire de créer des approches capables de prioriser et de cibler les composés qui doivent être éliminés. Ce projet de recherche met de l’avant l’hypothèse qu’une étude métabolomique ciblé serait capable de répondre à cette problématique. L’approche utilisée vise à ajouter un ou plusieurs points de terminaison (fluctuation des métabolites) au test de toxicité aiguë des effluents déjà effectué sur la puce d’eau (Daphnia magna) en quantifiant des molécules essentielles à la survie de cette espèce (ecdystéroïdes et acides rétinoïques). Les daphnies sont des modèles idéaux pour ce type d’étude puisqu’il s’agit d’organismes essentiels du zooplancton dans le monde entier. L’espèce D. magna est retrouvée dans l’hémisphère nord dans les lacs, rivières et étangs temporaires, elle se reproduit rapidement, est facile à cultiver et se reproduit par parthénogénèse. La quantification des ecdystéroïdes et acides rétinoïques aux concentrations observées chez la puce d’eau (picogramme par individus) est typiquement atteinte par dosage radio-immunologique (radioimmunoassay). Cependant, ce type de méthode ne permet pas d’identifier spécifiquement l’analyte ciblé, mais plutôt la somme de toutes molécules produisant une réaction immunologique similaire à celui-ci appelée "équivalent immunologique" et les résultats obtenus dépendent de l’anticorps, de la préparation effectuée et du lot de l’anticorps utilisé. Ce manque de sélectivité et variabilité des données obtenues pose problème pour la comparaison inter-laboratoires de résultats et a donc forcé le développement d’une nouvelle méthode analytique. Le présent document décrit le développement et la validation d’une méthode de quantification par chromatographie liquide couplée à un spectromètre de masse permettant d’atteindre des limites de quantification allant de 210 à 380 pg mL-1 pour trois ecdystéroïdes (20-hydroxyecdysone, ecdysone et ponasterone A) et de 5 ng mL-1 pour la somme des isomères de l’acide rétinoïque. La quantification de ces analytes aux faibles concentrations observées chez la puce d’eau a nécessité l’optimisation des paramètres instrumentaux, de la préparation d’échantillon et l’optimisation des conditions chromatographiques. Au final, la 20-hydroxyecdysone a pu être quantifiée à 19 ± 8 pg ind-1 pour les adultes (475 ± 200 pg mL-1, n=3) et à 3.6 ± 1.0 pg ind-1 pour les juvéniles (360 ± 10 pg mL-1, n=3), mais seulement détectée chez les néonates à 0.19 pg ind-1 (19 pg mL-1, n=3). L’ecdysone a également pu être détectée à 1.8 pg ind-1 chez les spécimens de taille adulte (180 pg mL-1, n=3). Le projet suivant vise à augmenter les connaissances sur l’effet de contaminants d’intérêt émergents sur l’environnement et sur le métabolisme de la puce d’eau D.magna ainsi que fournir une méthode potentiellement capable d’évaluer le risque d’exposition à des concentrations environnementales et permettre de prioriser les composés à être évaluer.

Page generated in 0.0857 seconds