• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 99
  • 99
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse géostatique quasi-3D des propriétés hydrauliques d'un noyau de barrage en remblai

Hébert, Étienne 24 April 2018 (has links)
La performance de l'effet de barrière hydraulique d'un noyau de barrage en remblai est hautement dépendante des conditions au compactage observées au cours de la construction, et conjointement aux propriétés géotechniques des matériaux, peuvent varier significativement dans l'espace. Des études récentes (Qin, 2015; Venkovic et al., 2013; Smith et Konrad, 2011) ont montré que les géostatistiques peuvent être utilisées pour modéliser la variabilité spatiale des propriétés géotechniques des barrages, tel que la conductivité hydraulique, à l'aide de données géoréférencées issus des essais de contrôle réalisés au cours de la construction. Ces études ont permis une meilleure compréhension de divers problèmes liées à nature stratifiée de la structure des barrages et ont élargi le champ d'application des géostatistiques dans le cadre de l'analyse des barrages en remblai. Ce mémoire porte sur l'amélioration de l'approche géostatistique utilisée pour modéliser la conductivité hydraulique du noyau en till compacté d'un barrage en remblai. Le site étudié est le barrage Sainte-Marguerite-3 (SM-3), érigé sur la rivière Sainte-Marguerite au nord-ouest de la ville de Sept-Îles au Québec. Une démarche de calcul faisant appel au taux d'agrégation des matériaux a d'abord été développée afinn d'obtenir une évaluation plus représentativede la conductivité hydraulique. Une structure d'interpolation spatiale quasi-3D a été utilisée dans le cadre de l'analyse géostatistique afin d'estimer la conductivité hydraulique du noyau en tout point de la structure. La priorité d'analyse des paramètres géotechniques utilisés dans le calcul de la conductivité hydraulique a ensuite été étudiée. Pour cet aspect du projet, les géostatistiques ont été utilisées pour analyser chaque paramètre individuellement, puis les estimations obtenues ont servi à calculer la conductivité hydraulique. Finalement, une analyse géostatistique par domaine a été réalisée dans le but de modéliser plus fidèlement l'importante variabilité spatiale des propriétés géotechniques, observées dans certaines zones du noyau, engendrée par la variation de l'origine des matériaux. Les résultats montrent que l'utilisation d'une structure d'interpolation spatiale quasi-3D est une alternative efficace à une analyse en 1D utilisée dans le cadre de travaux précédents et que ce type de structure d'interpolation respecte la continuité spatiale des matériaux. Les résultats montrent aussi qu'une analyse multi-paramétrique par domaine, motivée par la réalité du terrain, offre une meilleure estimation, particulièrement en ce qui concerne l'évaluation de l'influence des conditions au compactage. / The hydraulic barrier performance of the compacted till core of embankment dams is highly dependent on compaction conditions during construction, which alongside with basic geotechnical properties, may significantly vary spatially. Recent studies showed that geostatistics can be used to represent the spatial variability of the geotechnical properties of dam materials, such as hydraulic conductivity, using georeferenced construction control data. These studies led to advances in the understanding of various issues related to the stratified nature of dams' structure and broadened perspectives for geostatistical analyses of large embankment dams. This research focuses on the improvement of the geostatistical approach used to model the hydraulic conductivity of an embankment dam's compacted till core. The studied site is the Sainte-Marguerite-3 (SM-3) dam, built on the Sainte-Marguerite river, northwest to the city of Sept-Îles in Québec. A mathematical approach using an aggregation rate was first developed as a way to obtain a more representative assessment of the dam's hydraulic conductivity. A quasi-3D spatial interpolation structure was used for the geostatistical analysis to estimate the hydraulic conductivity for every location in the core. A priority analysis of the multiple geotechnical parameters used to compute hydraulic conductivity was then performed. For this aspect of the project, geostatistics were used to individually analyze the spatial variability of the parameters measured during construction, which were then used to compute the hydraulic conductivity. Finally, in order to provide a solution to a specific problem observed in the SM-3 dam, a geostatistical analysis using multiple domains was performed. This approach was used to accurately model the important spatial variability of the geotechnical parameters, observed in some areas of the dam, caused by variations in the origins of the materials. Results showed that the quasi-3D spatial interpolation structure used for this project is an effective alternative to a 1D analysis used in past projects and that this type of interpolation structure respects the materials' spatial continuity. The results also showed that a multi-parametric approach using domains, motivated by the terrain's reality, offers a better estimation, especially when it comes to assessing the influence of compaction conditions.
42

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
43

Multivariate statistical modeling of an anode backing furnace : Modélisation statistique multivariée du four à cuisson des anodes utilisées dans la fabrication d'aluminium primaire

Dufour, Amélie 24 April 2018 (has links)
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson. / The aluminum manufacturing process is highly influenced by the anode quality. Several factors affect the anode quality and the actual quality control strategy is inadequate to detect faulty anodes before setting them in the electrolytic cells. A soft-sensor model developed from historical carbon plant data and multivariate statistical methods was proposed in past work to obtain quick predictions of individual anode properties right after baking for quality control purposes. It could only be used for anodes baked at the coldest and hottest positions within the furnace due to the core sampling strategy used at the partner’s plant. To complement the soft-sensor, this work proposes a method for taking into account the thermal history of anodes baked at eventually any position and to allowing for the prediction of properties for all anodes. It is shown that combining categorical variables for pit and baking positions and routinely available firing equipment data is sufficient for predicting the temperature profiles of anodes baked in different positions (measured during pit surveys) and account for its impact on anode properties. Prediction results were validated using core sampling and good performance was obtained for LC, apparent and real density, compressive strength and air reactivity.
44

Sévérité des sanctions et récidive criminelle : identification au moyen d'une reforme canadienne

Raymond, Nicolas 29 March 2022 (has links)
Dans ce mémoire, nous étudions l'impact du projet de loi C-10 (« Tough on Crime ») implanté par le gouvernement fédéral conservateur en 2012 sur le risque de récidive instantané de la population carcérale. Nous cherchons à déterminer si des peines plus sévères allongent ou réduisent le temps entre deux condamnations. À cet effet, ce mémoire met en œuvre un modèle de durée à risques proportionnels de type Cox. Les variables d'intérêt tiennent compte des caractéristiques individuelles des détenus, mais aussi de certaines conditions économiques et démographiques. Ainsi, par le biais de données fournies par le ministère de la Sécurité publique, nous construisons une base de données qui nous permet de prendre en compte pour l'âge de l'individu, son sexe, s'il est autochtone ou non, son score LS/CMI, le nombre de personnes à sa charge, le type de crime commis et son état civil, en plus du taux de chômage et du rapport des sexes dans la région de sa libération, au moment de celle-ci. Nous trouvons que la période qui suit la mise en place des politiques « Tough on Crime » est caractérisée par un taux de risque inférieur pour tous les groupes à l'étude. Cette diminution du taux de risque se traduit par une augmentation de l'espérance de la période de survie entre deux condamnations de 298 jours pour les hommes, de 243 jours pour les femmes et de 264 jours pour les autochtones. L'effet est plus faible pour les individus n'ayant pas reçu de peine de plus de six mois, mais est toujours positif, soit une hausse de 42, 40 et 114 jours pour les hommes, les femmes et les autochtones respectivement. L'augmentation de la sévérité des sanctions aura donc allongé le temps entre deux récidives dans le contexte québécois.
45

Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis

Ghasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
46

Estimation de l'effet causal des groupes de trajectoires d'un traitement sur une issue

Diop, Awa 13 July 2023 (has links)
Titre de l'écran-titre (visionné le 3 juillet 2023) / Le travail réalisé dans cette thèse s'inscrit dans un projet à trois volets qui vise à étudier l'intérêt, en situation réelle, de prescrire des statines pour la prévention primaire des maladies cardiovasculaires (MCV). Les MCV sont en effet la première cause de décès dans le monde et la seconde au Canada. Un traitement assez répandu pour réduire les risques de MCV sont les statines, un traitement prescrit pour réduire le taux de cholestérol dans les vaisseaux sanguins. Il y a très peu d'évidence sur l'intérêt d'utiliser les statines chez les aînés pour la prévention primaire. Par ailleurs, il est connu que l'adhésion aux traitements en situation réelle est souvent inférieure à celle observée dans les essais contrôlés. Cependant, une faible adhésion aux statines peut induire un risque accru de MCV comparativement à une adhésion élevée. Ainsi, il est pertinent d'investiguer comment les différents profils d'adhésion aux statines observés en pratique affectent les risques d'événements cardiovasculaires. Dans cette optique, nous avons développé deux méthodologies qui combinent les méthodes d'analyses de trajectoires aux méthodes d'inférence causale. La première méthode est le LCGA-MSM pour latent class growth analysis et marginal structural model. Le LCGA-MSM est une approche à deux étapes. En premier, le LCGA permet de réduire le nombre de profils uniques d'adhésion au traitement en quelques groupes homogènes. Ensuite, les groupes sont liés à la réponse grâce au MSM. La deuxième méthode proposée est le LCGA-HRMSM où le HRMSM signifie history-restricted MSM. Cette approche est une extension du LCGA-MSM à une issue qui varie dans le temps. Pour l'estimation des paramètres d'intérêt, nous avons introduit trois approches : l'inverse de la probabilité, le calcul-g et l'estimation ciblée par le maximum de la vraisemblance longitudinale. Tant pour le LCGA-MSM que pour le LCGA-HRMSM, en plus de fournir un cadre théorique, nous avons mené des études de simulation avancées qui ont permis de démontrer la performance de nos approches. Nous avons aussi développé un package R trajMSM et écrit un tutoriel pour faciliter l'application des approches proposées. Nous avons appliqué les méthodes proposées à une population d'aînés québécois âgés de plus de 65 ans, nouveaux utilisateurs de statines. Les données utilisées sont longitudinales sur 5 ans et l'issue considérée est composite : évènement cardiovasculaire et décès toutes causes confondues. Dans les deux applications réalisées, les résultats suggèrent qu'une adhésion aux statines, même intermittente, favorise la réduction des risques d'évènement cardiovasculaire. / This thesis is part of a wider project that aims to study the effectiveness of statins for the primary prevention of cardiovascular disease (CVD), in real-life settings. CVD is the leading cause of death worldwide and the second in Canada. A common treatment to reduce the risk of CVD is statins, a treatment prescribed to reduce cholesterol levels in the blood vessels. There is very little evidence on the value of using statins among older adults for primary prevention. In addition, it is known that real-world adherence to treatment is often lower than that observed in randomized controlled trials. Yet, low adherence to statins may induce an increased risk of CVD compared with high adherence. It is therefore relevant to study how the different patterns of statin adherence observed in practice affect the risk of cardiovascular events. To this end, we have developed two methodologies that combine trajectory analysis with causal inference methods. The first method is LCGA-MSM for latent class growth analysis and marginal structural model. LCGA-MSM is a two-step approach. First, LCGA reduces the number of unique treatment adherence profiles into a few homogeneous groups. Then, in a second step, the clusters are related to the response using MSM. The second proposed method is LCGA-HRMSM, where HRMSM stands for history-restricted MSM. This approach is an extension of LCGA-MSM to a time-varying outcome. For estimating the parameters of interest, we introduced three approaches: inverse of probability, g-formula and longitudinal targeted maximum likelihood estimation, for both LCGA-MSM and LCGA-HRMSM. In addition of providing a theoretical framework, we conducted advanced simulation studies that demonstrated the performance of our approaches. We also developed an R package trajMSM and wrote a tutorial to facilitate the application of the proposed approaches. We applied our methods to a population of older Quebecers aged more than 65 years old and who were statin initiators. The data used are longitudinal over 5 years and the outcome considered is composite: cardiovascular event and death from all causes. In both applications, the results suggest that statin adherence, even intermittent, favors the reduction of the risk of cardiovascular event.
47

Analyse des facteurs explicatifs du commerce international de biens environnementaux : utilisation de modèles de gravité

Gbagbeu, Vramah Serge Marius 19 April 2018 (has links)
L’objectif de la présente étude est d’analyser les déterminants du commerce des biens environnementaux en particulier à partir du modèle de gravité de type CES et du modèle de gravité de type Translog inspiré des travaux de Novy (2012). Nos résultats d’estimation à partir de ces deux modèles permettent de dire d’une part que l’impact des variables explicatives est plus important sur le flux de commerce lorsqu’on utilise le modèle Translog mais cet impact n’est pas uniforme et d’autre part que cet impact est plus important sur le commerce des biens environnementaux par rapport au flux des échanges de l’ensemble des biens de façon générale. Enfin, la valeur des coefficients de régression ainsi celui de l’élasticité coût du commerce à partir du modèle Translog se trouvent au voisinage des résultats des études empiriques qui ont servi de cadre de référence. / The main objective of the present study is to analyze the determiners of the trade of goods generally and the environmental goods in particular from the models of gravity of type CES and Translog inspired by the works of Novy (2012). Our results of estimation from these two models allow to say on one hand that the impact of the explanatory variables is more important on the flow of trade when we use the model Translog but this impact is not uniform and on the other hand that this impact is more important on the trade of the environmental goods to compared with the flow of the exchanges of all the goods in a general way. Finally, the value of the coefficients of regression so that of the elasticity cost of the trade from the model Translog are in the neighborhood of the results of the empirical studies which served as reference frame.
48

Évaluation statistique et prévision de la performance de gestionnaires d'actifs

Simard, Marie-Hélène 23 April 2018 (has links)
En finance, la gestion passive consiste à gérer un portefeuille d’actifs afin d’obtenir un rendement similaire à un indice de marché ciblé. La gestion active quant à elle vise à obtenir un rendement supérieur. Les coûts reliés à une gestion active et les risques associés sont plus élevés. Une compagnie d’assurance se pose la question si les gestionnaires d’actifs ont les capacités de battre l’indice de marché de façon statistiquement significative. Un modèle au coeur du type d’analyse permettant de répondre à cette question est le modèle d’évaluation des actifs financiers (MÉDAF). Dans ce mémoire, différents modèles de régression et deux approches ont été retenus pour évaluer la performance de ces gestionnaires dans le cadre du MÉDAF, soit une approche par critère et une approche par prévision. Nos résultats suggèrent que certains gestionnaires d’obligations ont les capacités de battre l’indice de marché de façon significative alors que ce n’est pas le cas pour les gestionnaires d’actions. / In finance, passive management is about managing assets to achieve a return similar to a targeted market index, whereas active management aims to achieve superior performance. The costs associated with active management and the associated risks are higher. An insurance company wants to know whether the asset managers have the ability to beat the market index, statistically speaking. The principal model to answer this question is the CAPM. In this thesis, different regression models and two approaches were used to evaluate the performance of these managers under the CAPM, an approach based on criteria and an approach based on forecasts. Our results suggest that some bond managers have the ability to beat the market index significantly, while this is not the case for stock managers.
49

Condition assessment of bridge structures using statistical analysis of wavelets

Shahsavari, Vahid 24 April 2018 (has links)
La surveillance à distance des structures a émergé comme une préoccupation importante pour les ingénieurs afin de maintenir la sécurité et la fiabilité des infrastructures civiles pendant leur durée de vie. Les techniques de surveillance structurale (SHM) sont de plus en plus populaires pour fournir un diagnostic de "l'état" des structures en raison de leur vieillissement, de la dégradation des matériaux ou de défauts survenus pendant leur construction. Les limites de l'inspection visuelle et des techniques non destructives, qui sont couramment utilisées pour détecter des défauts extrêmes sur les parties accessibles des structures, ont conduit à la découverte de nouvelles technologies qui évaluent d’un seul tenant l'état global d'une structure surveillée. Les techniques de surveillance globale ont été largement utilisées pour la reconnaissance d'endommagement dans les grandes infrastructures civiles, telles que les ponts, sur la base d'une analyse modale de la réponse dynamique structurale. Cependant, en raison des caractéristiques complexes des structures oeuvrant sous des conditions environnementales variables et des incertitudes statistiques dans les paramètres modaux, les techniques de diagnostic actuelles n'ont pas été concluantes pour conduire à une méthodologie robuste et directe pour détecter les incréments de dommage avant qu'ils n'atteignent un stade critique. C’est ainsi que des techniques statistiques de reconnaissance de formes sont incorporées aux méthodes de détection d'endommagement basées sur les vibrations pour fournir une meilleure estimation de la probabilité de détection des dommages dans des applications in situ, ce qui est habituellement difficile compte tenu du rapport bruit à signal élevé. Néanmoins, cette partie du SHM est encore à son stade initial de développement et, par conséquent, d'autres tentatives sont nécessaires pour parvenir à une méthodologie fiable de détection de l'endommagement. Une stratégie de détection de dommages basée sur des aspects statistiques a été proposée pour détecter et localiser de faibles niveaux incrémentiels d'endommagement dans une poutre expérimentale pour laquelle tant le niveau d'endommagement que les conditions de retenue sont réglables (par exemple ancastrée-ancastrée et rotulée-rotulée). Premièrement, des expériences ont été effectuées dans des conditions de laboratoire contrôlées pour détecter de faibles niveaux d'endommagement induits (par exemple une fissure correspondant à 4% de la hauteur d’une section rectangulaire équivalente) simulant des scénarios d'endommagement de stade précoce pour des cas réels. Différents niveaux d'endommagement ont été simulés à deux endroits distincts le long de la poutre. Pour chaque série d'endommagement incrémentiel, des mesures répétées (~ 50 à 100) ont été effectuées pour tenir compte de l'incertitude et de la variabilité du premier mode de vibration de la structure en raison d'erreurs expérimentales et du bruit. Une technique d'analyse par ondelette basée sur les modes a été appliquée pour détecter les changements anormaux survenant dans les modes propres causées par le dommage. La réduction du bruit ainsi que les caractéristiques des agrégats ont été obtenues en mettant en œuvre l'analyse des composantes principales (PCA) pour l'ensemble des coefficients d'ondelettes calculés à des nœuds (ou positions) régulièrement espacés le long du mode propre. En rejetant les composantes qui contribuent le moins à la variance globale, les scores PCA correspondant aux premières composantes principales se sont révélés très corrélés avec de faibles niveaux d'endommagement incrémentiel. Des méthodes classiques d'essai d'hypothèses ont été effectuées sur les changements des paramètres de localisation des scores pour conclure objectivement et statistiquement, à un niveau de signification donné, sur la présence du dommage. Lorsqu'un dommage statistiquement significatif a été détecté, un nouvel algorithme basé sur les probabilités a été développé pour déterminer l'emplacement le plus probable de l'endommagement le long de la structure. Deuxièmement, se basant sur l'approche probabiliste, une série de tests a été effectuée dans une chambre environnementale à température contrôlée pour étudier les contributions relatives des effets de l’endommagement et de la température sur les propriétés dynamiques de la poutre afin d’estimer un facteur de correction pour l'ajustement des scores extraits. Il s'est avéré que la température avait un effet réversible sur la distribution des scores et que cet effet était plus grand lorsque le niveau d'endommagement était plus élevé. Les résultats obtenus pour les scores ajustés indiquent que la correction des effets réversibles de la température peut améliorer la probabilité de détection et minimiser les fausses alarmes. Les résultats expérimentaux indiquent que la contribution combinée des algorithmes utilisés dans cette étude était très efficace pour détecter de faibles niveaux d'endommagement incrémentiel à plusieurs endroits le long de la poutre tout en minimisant les effets indésirables du bruit et de la température dans les résultats. Les résultats de cette recherche démontrent que l'approche proposée est prometteuse pour la surveillance des structures. Cependant, une quantité importante de travail de validation est attendue avant sa mise en œuvre sur des structures réelles. Mots-clés : Détection et localisation des dommages, Poutre, Mode propre, Ondelette, Analyse des composantes principales, Rapport de probabilité, Température / Remote monitoring of structures has emerged as an important concern for engineers to maintain safety and reliability of civil infrastructure during its service life. Structural Health Monitoring (SHM) techniques are increasingly becoming popular to provide ideas for diagnosis of the "state" of potential defects in structures due to aging, deterioration and fault during construction. The limitations of visual inspection and non-destructive techniques, which were commonly used to detect extreme defects on only accessible portions of structures, led to the discovery of new technologies which assess the "global state" of a monitored structure at once. Global monitoring techniques have been used extensively for the recognition of damage in large civil infrastructure, such as bridges, based on modal analysis of structural dynamic response. However, because of complicated features of real-life structures under varying environmental conditions and statistical uncertainties in modal parameters, current diagnosis techniques have not been conclusive in ascertaining a robust and straightforward methodology to detect damage increments before it reaches its critical stage. Statistical pattern recognition techniques are incorporated with vibration-based damage detection methods to provide a better estimate for the probability of the detection of damage in field applications, which is usually challenging given the high noise to signal ratio. Nevertheless, this part of SHM is still in its initial stage of development and, hence, further attempts are required to achieve a reliable damage detection methodology. A statistical-based damage detection strategy was proposed to detect and localize low levels of incremental damage in an experimental beam in which the level of damage and beam restraint conditions are adjustable (e.g. fixed-fixed and pinned-pinned). First, experiments were performed in controlled laboratory conditions to detect small levels of induced-damage (e.g. 4% crack height for an equivalent rectangular section) simulated for early stage damage scenarios in real cases. Various levels of damage were simulated at two distinct locations along the beam. For each sate of incremental damage, repeat measurements (~ 50 to 100) were performed to account for uncertainty and variability in the first vibration mode of the structure due to experimental errors and noise. A modal-based wavelet analysis technique was applied to detect abnormal changes occurring in the mode shapes caused by damage. Noise reduction as well as aggregate characteristics were obtained by implementing the Principal Component Analysis (PCA) into the set of wavelet coefficients computed at regularly spaced nodes along the mode shape. By discarding components that contribute least to the overall variance, the PCA scores corresponding to the first few PCs were found to be highly correlated with low levels of incremental damage. Classical hypothesis testing methods were performed on changes on the location parameters of the scores to conclude damage objectively and statistically at a given significance level. When a statistically significant damage was detected, a novel Likelihood-based algorithm was developed to determine the most likely location of damage along the structure. Secondly, given the likelihood approach, a series of tests were carried out in a climate-controlled room to investigate the relative contributions of damage and temperature effects on the dynamic properties of the beam and to estimate a correction factor for the adjustment of scores extracted. It was found that the temperature had a reversible effect on the distribution of scores and that the effect was larger when the damage level was higher. The resulted obtained for the adjusted scores indicated that the correction for reversible effects of temperature can improve the probability of detection and minimize false alarms. The experimental results indicate that the combined contribution of the algorithms used in this study were very efficient to detect small-scale levels of incremental damage at multiple locations along the beam, while minimizing undesired effects of noise and temperature in the results. The results of this research demonstrate that the proposed approach may be used as a promising tool for SHM of actual structures. However, a significant amount of challenging work is expected for implementing it on real structures. Key-words: Damage Detection and Localization, Beam, Mode Shape, Wavelet, Principal Component Analysis, Likelihood Ratio, Temperature
50

Reconstruction des fluctuations turbulentes par une approche hybride RANS/LES

labourasse, emmanuel 11 December 2002 (has links) (PDF)
Les méthodes actuelles de calcul instationnaire des équations de Navier-Stokes (Simulation Numérique Directe (SND), Simulation des Grandes Echelles (SGE)) demandent encore un temps de calcul excessif pour pouvoir être utilisées à des fins industrielles. D'autre part, les méthodes statistiques (RANS) moins coûteuses, ne permettent pas de rendre compte des phénomènes à large bande fréquentielle, qui sont à l'origine, par exemple, des ondes acoustiques. Le développement de méthodes localement couplées permet de concilier les avantages des deux types d'approches précités (SGE et RANS). Une méthode originale de ce type à été développée sur la base de la Non-Linear Disturbance Equations (NLDE). Elle consiste à résoudre l'intégralité du champ grâce à un calcul statistique. Ensuite, aux endroits critiques, le complément fréquentiel est calculé en SGE, de manière à enrichir le champ. Le code a été implanté sur le NEC SX5 de l'ONERA et testé sur plusieurs cas d'application en incompressible (canal plan bi-périodique) et en compressible (aube de turbomachine, aile hypersustentée). Ses possibilités ont été testées et des conditions limites spécifiques ont été développées. La méthode se comporte bien dans tous ces cas d'application et peut être utilisée de façon locale, permettant ainsi une nette réduction du temps de calcul.

Page generated in 0.0988 seconds