• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 100
  • 100
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Epidémiologie des traumatismes: quelles contributions des (méthodes) statistiques aux approches descriptive et analytique?

Senterre, Christelle 28 November 2014 (has links)
L’épidémiologie de terrain peut être définie comme un ensemble de méthodes de collecte et de traitement de l’information combinant successivement les approches de l’épidémiologie descriptive mais aussi celles de l’épidémiologie analytique. La finalité de l’analyse descriptive sera de décrire et de quantifier la survenue du phénomène étudié dans une population donnée, permettant ainsi la formulation d’hypothèses préalables à la phase analytique. Phase, qui se focalisera sur les "associations" entre des "facteurs de risque" et la survenue du phénomène étudié. Dans la réponse aux questionnements posés ces deux phases les méthodes statistiques seront des outils incontournables. Afin que les résultats produits par ces analyses soient non seulement utiles mais aussi valables et utilisables, une bonne identification et une application adéquate des méthodes d’analyse s’avèreront primordiales. <p>A côté de ce constat méthodologique, il y a, dans le champ des traumatismes, tant en Belgique, qu’en pays en développement, la quasi absence d’informations pertinentes et rigoureuses pour documenter l’importance de cette problématique dans le champ de la santé. Pourtant, selon l’Organisation Mondiale de la Santé, plus de 5 millions de personnes décèdent des suites d’un traumatisme chaque année, avec 90% de ces décès survenant dans les pays à faible revenu ou à revenu intermédiaire. En Europe, les données montrent qu’une personne décède toutes les deux minutes des suites d’un traumatisme, et que pour chaque citoyen européen qui en meure, 25 personnes sont admises à l’hôpital, 145 sont traitées en ambulatoire et plus encore se font soigner ailleurs. <p> Au vu du double constat, qui est, d’une part, que les méthodes statistiques ne sont pas toujours exploitées correctement, et d’autre part, qu’il y a un manque d’informations appropriées et rigoureuses pour documenter l’ampleur du problème des traumatismes; ce travail de thèse poursuit l’objectif majeur, de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques (univariées, multivariables et multivariées) adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés, tant en pays industrialisés (exemple de la Belgique) qu’en pays en développement (exemple du Cameroun).<p>La partie classiquement appelée "résultats", correspond dans ce travail à deux chapitres distincts. Le premier fait la synthèse de ce qui a été objectivé par la revue de la littérature en termes de sources de données exploitées et de méthodes d’analyse statistique utilisées. Le second correspond à l’exploitation de quatre bases de données :une "généraliste et populationnelle" (First Health of Young People Survey - Cameroun), une "généraliste et hospitalière" (Résumé Hospitalier Minimum - Belgique), une "spécifique et populationnelle" (données issue de compagnies d’assurances belges), et une " spécifique et hospitalière" (Service SOS Enfants du CHU St Pierre - Belgique). <p>Les constats majeurs à l’issue de ce travail sont qu’il est possible de trouver dans le panel des méthodes statistiques "classiques", les méthodes nécessaires pour répondre aux questionnements de surveillance "en routine" en termes d’occurrence et de facteurs associés. L’accent devrait être mis sur une (meilleure) utilisation (justifiée, correcte et complète) de ces méthodes et sur une meilleure présentation (plus complète) des résultats. L’utilisation adéquate s’assurant d’une part, par une meilleure formation en méthodologie statistique pour les praticiens mais aussi par l’intégration, à part entière, des statisticiens dans les équipes de recherches. En ce qui concerne les sources de données utilisées, le potentiel d’information existe. Chaque source de données a ses avantages et ses inconvénients mais utilisées conjointement elles permettent d’avoir une vision plus globale du fardeau des traumatismes. L’accent devrait être mis sur l’amélioration de la disponibilité, la mise en commun mais aussi sur la qualité des données qui seraient disponibles. Dès lors, en vue de s’intégrer dans une dynamique de "Système de Surveillance des Traumatismes", une réflexion sur une utilisation globale (qu’elle soit couplée ou non) de ces différentes sources de données devrait être menée. <p>En Belgique, de nombreuses données, contenant de l’information sur les traumatismes, sont collectées en routine, au travers des données hospitalières, et ponctuellement, au travers de données d’enquêtes. Actuellement, ces données, dont la qualité reste discutable pour certaines, sont sous-utilisées dans le champ qui nous intéresse. Dans le futur, "plutôt que de ne rien savoir", il est important de continuer à exploiter l’existant pour produire et diffuser de l’information, mais cette exploitation et cette diffusion doivent s’accompagner non seulement de réflexion mais aussi d’action sur la qualité des données. En ce qui concerne l’utilisation des méthodes statistiques, nous préconisons une double approche :l’intégration et la formation. Par intégration, nous entendons le fait qu’il faut d’une part considérer le statisticien comme un professionnel ayant à la fois des compétences techniques pointues sur les méthodes, qui pourront être mises à disposition pour garantir le bon déroulement de la collecte et de l’analyse des données, mais aussi comme un chercheur capable de s’intéresser plus spécifiquement à des problématiques de santé publique, comme la problématique des traumatismes par exemple. Par formation, nous entendons le fait qu’il est essentiel d’augmenter et/ou de parfaire non seulement les connaissances des futurs professionnels de la santé (publique) en cours de formation mais aussi celles des praticiens déjà actifs sur le terrain et dès lors premiers acteurs de la collecte de l’information et de son utilisation dans une démarche de prise de décision, de détermination de priorité d’action et d’évaluation. <p>L’objectif majeur de ce travail de thèse était de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés. En ayant discuté de l’existence de plusieurs sources potentielles de données en Belgique et en ayant appliqué une série de méthodes statistiques univariées, multivariables et multivariées, sur quelques-unes de celles-ci, nous avons montré qu’il était possible de documenter le fardeau des traumatismes au-travers de résultats utiles mais aussi valables et utilisables dans une approche de santé publique.<p> / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished
32

Deep exploratory regression modelling of survey data. With applications to electoral survey data of the 2014 elections in Belgium.

Henry, Lionel 29 June 2020 (has links) (PDF)
This thesis contributes practical and conceptual tools for discovering and understanding the variation of quantitative patterns in social and political survey data. It uses regression modelling as an exploratory method with a focus on deep rather than wide model specifications, i.e. on interaction terms rather than control variables. Our main research question is how can we learn from survey data with an exploratory approach of regression modelling. We also seek to answer two more specific questions, what sort of quantitative variations should an exploratory approach seek to model, and how do we deal with statistical uncertainty within an exploratory approach. Our work shows how to use regression modelling for exploratory purposes by interpreting the results descriptively, and connecting these summaries to theory through an act of interpretation. Using data from the Partirep electoral survey of the 2014 elections in Belgium, we illustrate how the emphasis on group variations and interactions has both empirical and theoretical value. We propose to summarise the results of exploratory modelling in a notebook containing a series of increasingly disaggregated prediction graphs. These notebooks help researchers to increase their domain numeracy, i.e. develop a quantitative understanding of the patterns in the data. Regarding statistical uncertainty, we mitigate the risks of modelling sampling noise by using standard errors of binned averages as precision hints that serve as an indication of excessive disaggregation. We also lay out the path for regularising the estimates of the final results with Bayesian models by exploring methods of including the sampling weights in these models. / Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
33

Quantitative risk analysis for linear infrastructure supported by permafrost : methodology and computer program

Brooks, Heather 31 October 2019 (has links)
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit / Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.
34

Estimation de l'effet causal des groupes de trajectoires d'un traitement sur une issue

Diop, Awa 13 July 2023 (has links)
Titre de l'écran-titre (visionné le 3 juillet 2023) / Le travail réalisé dans cette thèse s'inscrit dans un projet à trois volets qui vise à étudier l'intérêt, en situation réelle, de prescrire des statines pour la prévention primaire des maladies cardiovasculaires (MCV). Les MCV sont en effet la première cause de décès dans le monde et la seconde au Canada. Un traitement assez répandu pour réduire les risques de MCV sont les statines, un traitement prescrit pour réduire le taux de cholestérol dans les vaisseaux sanguins. Il y a très peu d'évidence sur l'intérêt d'utiliser les statines chez les aînés pour la prévention primaire. Par ailleurs, il est connu que l'adhésion aux traitements en situation réelle est souvent inférieure à celle observée dans les essais contrôlés. Cependant, une faible adhésion aux statines peut induire un risque accru de MCV comparativement à une adhésion élevée. Ainsi, il est pertinent d'investiguer comment les différents profils d'adhésion aux statines observés en pratique affectent les risques d'événements cardiovasculaires. Dans cette optique, nous avons développé deux méthodologies qui combinent les méthodes d'analyses de trajectoires aux méthodes d'inférence causale. La première méthode est le LCGA-MSM pour latent class growth analysis et marginal structural model. Le LCGA-MSM est une approche à deux étapes. En premier, le LCGA permet de réduire le nombre de profils uniques d'adhésion au traitement en quelques groupes homogènes. Ensuite, les groupes sont liés à la réponse grâce au MSM. La deuxième méthode proposée est le LCGA-HRMSM où le HRMSM signifie history-restricted MSM. Cette approche est une extension du LCGA-MSM à une issue qui varie dans le temps. Pour l'estimation des paramètres d'intérêt, nous avons introduit trois approches : l'inverse de la probabilité, le calcul-g et l'estimation ciblée par le maximum de la vraisemblance longitudinale. Tant pour le LCGA-MSM que pour le LCGA-HRMSM, en plus de fournir un cadre théorique, nous avons mené des études de simulation avancées qui ont permis de démontrer la performance de nos approches. Nous avons aussi développé un package R trajMSM et écrit un tutoriel pour faciliter l'application des approches proposées. Nous avons appliqué les méthodes proposées à une population d'aînés québécois âgés de plus de 65 ans, nouveaux utilisateurs de statines. Les données utilisées sont longitudinales sur 5 ans et l'issue considérée est composite : évènement cardiovasculaire et décès toutes causes confondues. Dans les deux applications réalisées, les résultats suggèrent qu'une adhésion aux statines, même intermittente, favorise la réduction des risques d'évènement cardiovasculaire. / This thesis is part of a wider project that aims to study the effectiveness of statins for the primary prevention of cardiovascular disease (CVD), in real-life settings. CVD is the leading cause of death worldwide and the second in Canada. A common treatment to reduce the risk of CVD is statins, a treatment prescribed to reduce cholesterol levels in the blood vessels. There is very little evidence on the value of using statins among older adults for primary prevention. In addition, it is known that real-world adherence to treatment is often lower than that observed in randomized controlled trials. Yet, low adherence to statins may induce an increased risk of CVD compared with high adherence. It is therefore relevant to study how the different patterns of statin adherence observed in practice affect the risk of cardiovascular events. To this end, we have developed two methodologies that combine trajectory analysis with causal inference methods. The first method is LCGA-MSM for latent class growth analysis and marginal structural model. LCGA-MSM is a two-step approach. First, LCGA reduces the number of unique treatment adherence profiles into a few homogeneous groups. Then, in a second step, the clusters are related to the response using MSM. The second proposed method is LCGA-HRMSM, where HRMSM stands for history-restricted MSM. This approach is an extension of LCGA-MSM to a time-varying outcome. For estimating the parameters of interest, we introduced three approaches: inverse of probability, g-formula and longitudinal targeted maximum likelihood estimation, for both LCGA-MSM and LCGA-HRMSM. In addition of providing a theoretical framework, we conducted advanced simulation studies that demonstrated the performance of our approaches. We also developed an R package trajMSM and wrote a tutorial to facilitate the application of the proposed approaches. We applied our methods to a population of older Quebecers aged more than 65 years old and who were statin initiators. The data used are longitudinal over 5 years and the outcome considered is composite: cardiovascular event and death from all causes. In both applications, the results suggest that statin adherence, even intermittent, favors the reduction of the risk of cardiovascular event.
35

Évaluation statistique et prévision de la performance de gestionnaires d'actifs

Simard, Marie-Hélène 23 April 2018 (has links)
En finance, la gestion passive consiste à gérer un portefeuille d’actifs afin d’obtenir un rendement similaire à un indice de marché ciblé. La gestion active quant à elle vise à obtenir un rendement supérieur. Les coûts reliés à une gestion active et les risques associés sont plus élevés. Une compagnie d’assurance se pose la question si les gestionnaires d’actifs ont les capacités de battre l’indice de marché de façon statistiquement significative. Un modèle au coeur du type d’analyse permettant de répondre à cette question est le modèle d’évaluation des actifs financiers (MÉDAF). Dans ce mémoire, différents modèles de régression et deux approches ont été retenus pour évaluer la performance de ces gestionnaires dans le cadre du MÉDAF, soit une approche par critère et une approche par prévision. Nos résultats suggèrent que certains gestionnaires d’obligations ont les capacités de battre l’indice de marché de façon significative alors que ce n’est pas le cas pour les gestionnaires d’actions. / In finance, passive management is about managing assets to achieve a return similar to a targeted market index, whereas active management aims to achieve superior performance. The costs associated with active management and the associated risks are higher. An insurance company wants to know whether the asset managers have the ability to beat the market index, statistically speaking. The principal model to answer this question is the CAPM. In this thesis, different regression models and two approaches were used to evaluate the performance of these managers under the CAPM, an approach based on criteria and an approach based on forecasts. Our results suggest that some bond managers have the ability to beat the market index significantly, while this is not the case for stock managers.
36

Condition assessment of bridge structures using statistical analysis of wavelets

Shahsavari, Vahid 24 April 2018 (has links)
La surveillance à distance des structures a émergé comme une préoccupation importante pour les ingénieurs afin de maintenir la sécurité et la fiabilité des infrastructures civiles pendant leur durée de vie. Les techniques de surveillance structurale (SHM) sont de plus en plus populaires pour fournir un diagnostic de "l'état" des structures en raison de leur vieillissement, de la dégradation des matériaux ou de défauts survenus pendant leur construction. Les limites de l'inspection visuelle et des techniques non destructives, qui sont couramment utilisées pour détecter des défauts extrêmes sur les parties accessibles des structures, ont conduit à la découverte de nouvelles technologies qui évaluent d’un seul tenant l'état global d'une structure surveillée. Les techniques de surveillance globale ont été largement utilisées pour la reconnaissance d'endommagement dans les grandes infrastructures civiles, telles que les ponts, sur la base d'une analyse modale de la réponse dynamique structurale. Cependant, en raison des caractéristiques complexes des structures oeuvrant sous des conditions environnementales variables et des incertitudes statistiques dans les paramètres modaux, les techniques de diagnostic actuelles n'ont pas été concluantes pour conduire à une méthodologie robuste et directe pour détecter les incréments de dommage avant qu'ils n'atteignent un stade critique. C’est ainsi que des techniques statistiques de reconnaissance de formes sont incorporées aux méthodes de détection d'endommagement basées sur les vibrations pour fournir une meilleure estimation de la probabilité de détection des dommages dans des applications in situ, ce qui est habituellement difficile compte tenu du rapport bruit à signal élevé. Néanmoins, cette partie du SHM est encore à son stade initial de développement et, par conséquent, d'autres tentatives sont nécessaires pour parvenir à une méthodologie fiable de détection de l'endommagement. Une stratégie de détection de dommages basée sur des aspects statistiques a été proposée pour détecter et localiser de faibles niveaux incrémentiels d'endommagement dans une poutre expérimentale pour laquelle tant le niveau d'endommagement que les conditions de retenue sont réglables (par exemple ancastrée-ancastrée et rotulée-rotulée). Premièrement, des expériences ont été effectuées dans des conditions de laboratoire contrôlées pour détecter de faibles niveaux d'endommagement induits (par exemple une fissure correspondant à 4% de la hauteur d’une section rectangulaire équivalente) simulant des scénarios d'endommagement de stade précoce pour des cas réels. Différents niveaux d'endommagement ont été simulés à deux endroits distincts le long de la poutre. Pour chaque série d'endommagement incrémentiel, des mesures répétées (~ 50 à 100) ont été effectuées pour tenir compte de l'incertitude et de la variabilité du premier mode de vibration de la structure en raison d'erreurs expérimentales et du bruit. Une technique d'analyse par ondelette basée sur les modes a été appliquée pour détecter les changements anormaux survenant dans les modes propres causées par le dommage. La réduction du bruit ainsi que les caractéristiques des agrégats ont été obtenues en mettant en œuvre l'analyse des composantes principales (PCA) pour l'ensemble des coefficients d'ondelettes calculés à des nœuds (ou positions) régulièrement espacés le long du mode propre. En rejetant les composantes qui contribuent le moins à la variance globale, les scores PCA correspondant aux premières composantes principales se sont révélés très corrélés avec de faibles niveaux d'endommagement incrémentiel. Des méthodes classiques d'essai d'hypothèses ont été effectuées sur les changements des paramètres de localisation des scores pour conclure objectivement et statistiquement, à un niveau de signification donné, sur la présence du dommage. Lorsqu'un dommage statistiquement significatif a été détecté, un nouvel algorithme basé sur les probabilités a été développé pour déterminer l'emplacement le plus probable de l'endommagement le long de la structure. Deuxièmement, se basant sur l'approche probabiliste, une série de tests a été effectuée dans une chambre environnementale à température contrôlée pour étudier les contributions relatives des effets de l’endommagement et de la température sur les propriétés dynamiques de la poutre afin d’estimer un facteur de correction pour l'ajustement des scores extraits. Il s'est avéré que la température avait un effet réversible sur la distribution des scores et que cet effet était plus grand lorsque le niveau d'endommagement était plus élevé. Les résultats obtenus pour les scores ajustés indiquent que la correction des effets réversibles de la température peut améliorer la probabilité de détection et minimiser les fausses alarmes. Les résultats expérimentaux indiquent que la contribution combinée des algorithmes utilisés dans cette étude était très efficace pour détecter de faibles niveaux d'endommagement incrémentiel à plusieurs endroits le long de la poutre tout en minimisant les effets indésirables du bruit et de la température dans les résultats. Les résultats de cette recherche démontrent que l'approche proposée est prometteuse pour la surveillance des structures. Cependant, une quantité importante de travail de validation est attendue avant sa mise en œuvre sur des structures réelles. Mots-clés : Détection et localisation des dommages, Poutre, Mode propre, Ondelette, Analyse des composantes principales, Rapport de probabilité, Température / Remote monitoring of structures has emerged as an important concern for engineers to maintain safety and reliability of civil infrastructure during its service life. Structural Health Monitoring (SHM) techniques are increasingly becoming popular to provide ideas for diagnosis of the "state" of potential defects in structures due to aging, deterioration and fault during construction. The limitations of visual inspection and non-destructive techniques, which were commonly used to detect extreme defects on only accessible portions of structures, led to the discovery of new technologies which assess the "global state" of a monitored structure at once. Global monitoring techniques have been used extensively for the recognition of damage in large civil infrastructure, such as bridges, based on modal analysis of structural dynamic response. However, because of complicated features of real-life structures under varying environmental conditions and statistical uncertainties in modal parameters, current diagnosis techniques have not been conclusive in ascertaining a robust and straightforward methodology to detect damage increments before it reaches its critical stage. Statistical pattern recognition techniques are incorporated with vibration-based damage detection methods to provide a better estimate for the probability of the detection of damage in field applications, which is usually challenging given the high noise to signal ratio. Nevertheless, this part of SHM is still in its initial stage of development and, hence, further attempts are required to achieve a reliable damage detection methodology. A statistical-based damage detection strategy was proposed to detect and localize low levels of incremental damage in an experimental beam in which the level of damage and beam restraint conditions are adjustable (e.g. fixed-fixed and pinned-pinned). First, experiments were performed in controlled laboratory conditions to detect small levels of induced-damage (e.g. 4% crack height for an equivalent rectangular section) simulated for early stage damage scenarios in real cases. Various levels of damage were simulated at two distinct locations along the beam. For each sate of incremental damage, repeat measurements (~ 50 to 100) were performed to account for uncertainty and variability in the first vibration mode of the structure due to experimental errors and noise. A modal-based wavelet analysis technique was applied to detect abnormal changes occurring in the mode shapes caused by damage. Noise reduction as well as aggregate characteristics were obtained by implementing the Principal Component Analysis (PCA) into the set of wavelet coefficients computed at regularly spaced nodes along the mode shape. By discarding components that contribute least to the overall variance, the PCA scores corresponding to the first few PCs were found to be highly correlated with low levels of incremental damage. Classical hypothesis testing methods were performed on changes on the location parameters of the scores to conclude damage objectively and statistically at a given significance level. When a statistically significant damage was detected, a novel Likelihood-based algorithm was developed to determine the most likely location of damage along the structure. Secondly, given the likelihood approach, a series of tests were carried out in a climate-controlled room to investigate the relative contributions of damage and temperature effects on the dynamic properties of the beam and to estimate a correction factor for the adjustment of scores extracted. It was found that the temperature had a reversible effect on the distribution of scores and that the effect was larger when the damage level was higher. The resulted obtained for the adjusted scores indicated that the correction for reversible effects of temperature can improve the probability of detection and minimize false alarms. The experimental results indicate that the combined contribution of the algorithms used in this study were very efficient to detect small-scale levels of incremental damage at multiple locations along the beam, while minimizing undesired effects of noise and temperature in the results. The results of this research demonstrate that the proposed approach may be used as a promising tool for SHM of actual structures. However, a significant amount of challenging work is expected for implementing it on real structures. Key-words: Damage Detection and Localization, Beam, Mode Shape, Wavelet, Principal Component Analysis, Likelihood Ratio, Temperature
37

Analyse des facteurs explicatifs du commerce international de biens environnementaux : utilisation de modèles de gravité

Gbagbeu, Vramah Serge Marius 19 April 2018 (has links)
L’objectif de la présente étude est d’analyser les déterminants du commerce des biens environnementaux en particulier à partir du modèle de gravité de type CES et du modèle de gravité de type Translog inspiré des travaux de Novy (2012). Nos résultats d’estimation à partir de ces deux modèles permettent de dire d’une part que l’impact des variables explicatives est plus important sur le flux de commerce lorsqu’on utilise le modèle Translog mais cet impact n’est pas uniforme et d’autre part que cet impact est plus important sur le commerce des biens environnementaux par rapport au flux des échanges de l’ensemble des biens de façon générale. Enfin, la valeur des coefficients de régression ainsi celui de l’élasticité coût du commerce à partir du modèle Translog se trouvent au voisinage des résultats des études empiriques qui ont servi de cadre de référence. / The main objective of the present study is to analyze the determiners of the trade of goods generally and the environmental goods in particular from the models of gravity of type CES and Translog inspired by the works of Novy (2012). Our results of estimation from these two models allow to say on one hand that the impact of the explanatory variables is more important on the flow of trade when we use the model Translog but this impact is not uniform and on the other hand that this impact is more important on the trade of the environmental goods to compared with the flow of the exchanges of all the goods in a general way. Finally, the value of the coefficients of regression so that of the elasticity cost of the trade from the model Translog are in the neighborhood of the results of the empirical studies which served as reference frame.
38

Modèles de dépendance hiérarchique pour l'évaluation des passifs et la tarification en actuariat

Abdallah, Anas 24 April 2018 (has links)
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux. / The objective of this thesis is to propose innovative hierarchical approaches to model dependence within and between risks in non-life insurance in general, and in a loss reserving context in particular. One of the most critical problems in property/casualty insurance is to determine an appropriate reserve for incurred but unpaid losses. These provisions generally comprise most of the liabilities of a non-life insurance company. The global provisions are often determined under an assumption of independence between the lines of business. However, most risks are related to each other in practice, and this correlation needs to be taken into account. Recently, Shi and Frees (2011) proposed to include dependence between lines of business in a pairwise manner, through a copula that captures dependence between two equivalent cells of two different runoff triangles. In this thesis, we propose to generalize this model with two different approaches. Firstly, by using hierarchical Archimedean copulas to accommodate correlation within and between lines of business, and secondly by capturing this dependence through random effects. The first approach will be presented in chapters 2 and 3. In chapter 2, we use partially nested Archimedean copulas to capture dependence within and between two lines of business, through calendar year effects. In chapter 3, we use fully nested Archimedean copulas, to accommodate dependence between more than two lines of business. A copula-based risk aggregation model is also proposed to accommodate dependence. The inference for the dependence structure is performed with a rank-based methodology to bring more robustness to the estimation. In chapter 4, we introduce the Sarmanov family of bivariate distributions to a loss reserving context, and show that its flexibility proves to be very useful for modeling dependence between loss triangles. This dependence is captured by random effects, through calendar years, accident years or development periods. Closed-form expressions are given, and a real life illustration is shown again. In chapter 5, we use the Sarmanov family of bivariate distributions in a dynamic framework, where the random effects are considered evolutionary and evolve over time, to update the information and allow more weight to more recent claims. Hence, we propose an innovative way to jointly model the dependence between risks and over time with an illustration in a ratemaking context. Finally, a brief conclusion recalls the main contributions of this thesis and provides insights into future research and possible extensions to the proposed works.
39

Applications et comparaison de méthodes statistiques pour prédire la croissance du pin gris sur le territoire québécois

Julien, Pierre-Olivier 13 April 2018 (has links)
La modélisation de la croissance des arbres en milieu naturel est un élément clé de la gestion des forêts. Les unités d’observations sont des placettes, soit une surface de forêt circulaire de 400 m2. L’abondance des arbres sur une placette est caractérisée par leur nombre, la hauteur dominante, la surface terrière et le volume de bois. La prévision de la croissance de ces variables est donc un sujet d’intérêt pour les ingénieurs forestiers. On retrouve dans la littérature diverses méthodes de prédiction, entre autres, celles basées sur des modèles économétriques ou, plus récemment, sur des modèles de régression linéaire mixte multivariée. Ce mémoire est un compte rendu théorique et pratique de ces méthodes statistiques. Celles-ci sont appliquées et comparées à partir d’un jeu de données provenant du réseau de placettes échantillons permanentes du Ministère des Ressources naturelles et de la Faune du Québec, l’espèce d’arbre utilisé étant le pin gris. / The establishment of model for growth of trees in a natural environment is a key element to the management of forests. The units of observations are plots, which is a circular 400 m2 area of forest. The abundance of the trees on a plot is characterized by their number, the dominant height, the basal area and the volume. Forecasting of the growth of these variables is thus a subject of interest for the foresters. One finds in the literature various methods of prediction, those based on econometric models or, more recently, on multivariate mixed linear models. This essay is a theoretical and practical report of these statistical methods. Those are applied and compared starting from a data file coming from the network of permanent plots samples from ”le Ministère des Ressources naturelles et de la Faune du Québec”. The species of tree used here is the Jack pine.
40

Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées

Paris, Adéline 27 November 2020 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.

Page generated in 0.1035 seconds