• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 27
  • 6
  • 1
  • Tagged with
  • 117
  • 117
  • 106
  • 57
  • 54
  • 43
  • 33
  • 24
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Chimiométrie appliquée à la spectroscopie de plasma induit par laser (LIBS) et à la spectroscopie terahertz

El Haddad, Josette 13 December 2013 (has links) (PDF)
L'objectif de cette thèse était d'appliquer des méthodes d'analyse multivariées au traitement des données provenant de la spectroscopie de plasma induit par laser (LIBS) et de la spectroscopie térahertz (THz) dans le but d'accroître les performances analytiques de ces techniques.Les spectres LIBS provenaient de campagnes de mesures directes sur différents sites géologiques. Une approche univariée n'a pas été envisageable à cause d'importants effets de matrices et c'est pour cela qu'on a analysé les données provenant des spectres LIBS par réseaux de neurones artificiels (ANN). Cela a permis de quantifier plusieurs éléments mineurs et majeurs dans les échantillons de sol avec un écart relatif de prédiction inférieur à 20% par rapport aux valeurs de référence, jugé acceptable pour des analyses sur site. Dans certains cas, il a cependant été nécessaire de prendre en compte plusieurs modèles ANN, d'une part pour classer les échantillons de sol en fonction d'un seuil de concentration et de la nature de leur matrice, et d'autre part pour prédire la concentration d'un analyte. Cette approche globale a été démontrée avec succès dans le cas particulier de l'analyse du plomb pour un échantillon de sol inconnu. Enfin, le développement d'un outil de traitement par ANN a fait l'objet d'un transfert industriel.Dans un second temps, nous avons traité des spectres d'absorbance terahertz. Ce spectres provenaient de mesures d'absorbance sur des mélanges ternaires de Fructose-Lactose-acide citrique liés par du polyéthylène et préparés sous forme de pastilles. Une analyse semi-quantitative a été réalisée avec succès par analyse en composantes principales (ACP). Puis les méthodes quantitatives de régression par moindres carrés partiels (PLS) et de réseaux de neurons artificiels (ANN) ont permis de prédire les concentrations de chaque constituant de l'échantillon avec une valeur d'erreur quadratique moyenne inférieure à 0.95 %. Pour chaque méthode de traitement, le choix des données d'entrée et la validation de la méthode ont été discutés en détail.
102

Towards the identification of a neighbourhood park typology : a conceptual and methodological exploration

Bird, Madeleine 08 1900 (has links)
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel. / Few studies have characterized park features that may be appealing for youth physical activity (PA). This study assesses the reliability of a youth-oriented direct-observation park assessment tool; identifies park domains captured by the tool using an operationalized conceptual model of parks and PA, and identifies distinct park types. 576 parks were audited using a park observation tool; intra- and inter-rater reliability were estimated. Exploratory principal component analysis (PCA) was conducted and variables were retained if they loaded at 0.3 or higher. A cluster analysis (CA) was conducted using the principal components and park area. The tool was found to be reliable and PCA yielded ten principal components explaining 60% of the total variance. The CA yielded a nine-cluster outcome explaining 40% of the total variance. PCA and CA were found to be feasible methods to use with park data. The operationalization of the conceptual model helped interpret these results.
103

Sélection de modèles robuste : régression linéaire et algorithme à sauts réversibles

Gagnon, Philippe 10 1900 (has links)
No description available.
104

Mesure et Analyse Statistique Tout Temps du Spectre du Rayonnement Solaire / All Weather Solar Spectrum Measurement and Statistical Analysis

Tourasse, Guillaume 19 December 2016 (has links)
Ce document présente la mise en place d’un système de mesure des éclairements énergétiques spectraux solaires pour tout type de temps, sur 4 plans. Les 4 spectromètres mesurent au total 900 spectres/min et produisent chacun un spectre/min moyen et son écart type. Entre 2014 et 2015, 700 000 spectres ont été enregistrés sur un domaine compris entre 400 et 1000 nm avec un pas ≤1 nm. Un échantillon de 145 000 spectres représentatifs du climat lyonnais a été sélectionné pour une analyse statistique. Pour ce faire, l’échantillon a été réduit par partitionnement à 1175 spectres. Son domaine spectral a été étendu de 280 à 1500 nm à l’aide du RTM SMARTS. Une ACP de cet échantillon extrapolé a permis d’en réduire la description à 3 composantes et ainsi de réviser le modèle des illuminants D de la CIE. Enfin, la relation entre composition spectrale et paramètres environnementaux ou colorimétriques ouvre une voie vers des modèles statistiques de génération de spectres du rayonnement solaire. / This manuscript presents the design and setup of an all-weather spectral irradiance measurement system on 4 planes. The 4 spectrometers measure a total of 900 spectra/min to produce every minute, a mean spectral irradiance and its standard deviation. Between 2014 and 2015, this system recorded 700,000 spectra, for wavelengths ranging between 400 and 1,000 nm with a step ≤1 nm. A sample of 145,000 spectra representative of the Lyon climate was selected for statistical analysis. For this purpose, the sample was reduced in size by partitioning it in 1,175 spectra. Its spectral domain was extended to 280-1,500 nm by extrapolating the spectra with curve fitting using the SMARTS2 RTM. A PCA of the extrapolated sample reduced its description to only 3 components; hence, allowing a revision of the CIE’s illuminant D series. Finally, the relation between spectral power distribution and environmental or colorimetric parameters opens a way towards statistical models for generating solar spectra.
105

Towards the identification of a neighbourhood park typology : a conceptual and methodological exploration

Bird, Madeleine 08 1900 (has links)
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel. / Few studies have characterized park features that may be appealing for youth physical activity (PA). This study assesses the reliability of a youth-oriented direct-observation park assessment tool; identifies park domains captured by the tool using an operationalized conceptual model of parks and PA, and identifies distinct park types. 576 parks were audited using a park observation tool; intra- and inter-rater reliability were estimated. Exploratory principal component analysis (PCA) was conducted and variables were retained if they loaded at 0.3 or higher. A cluster analysis (CA) was conducted using the principal components and park area. The tool was found to be reliable and PCA yielded ten principal components explaining 60% of the total variance. The CA yielded a nine-cluster outcome explaining 40% of the total variance. PCA and CA were found to be feasible methods to use with park data. The operationalization of the conceptual model helped interpret these results.
106

Imputation multiple par analyse factorielle : Une nouvelle méthodologie pour traiter les données manquantes / Multiple imputation using principal component methods : A new methodology to deal with missing values

Audigier, Vincent 25 November 2015 (has links)
Cette thèse est centrée sur le développement de nouvelles méthodes d'imputation multiples, basées sur des techniques d'analyse factorielle. L'étude des méthodes factorielles, ici en tant que méthodes d'imputation, offre de grandes perspectives en termes de diversité du type de données imputées d'une part, et en termes de dimensions de jeux de données imputés d'autre part. Leur propriété de réduction de la dimension limite en effet le nombre de paramètres estimés.Dans un premier temps, une méthode d'imputation simple par analyse factorielle de données mixtes est détaillée. Ses propriétés sont étudiées, en particulier sa capacité à gérer la diversité des liaisons mises en jeu et à prendre en compte les modalités rares. Sa qualité de prédiction est éprouvée en la comparant à l'imputation par forêts aléatoires.Ensuite, une méthode d'imputation multiple pour des données quantitatives basée sur une approche Bayésienne du modèle d'analyse en composantes principales est proposée. Elle permet d'inférer en présence de données manquantes y compris quand le nombre d'individus est petit devant le nombre de variables, ou quand les corrélations entre variables sont fortes.Enfin, une méthode d'imputation multiple pour des données qualitatives par analyse des correspondances multiples (ACM) est proposée. La variabilité de prédiction des données manquantes est reflétée via un bootstrap non-paramétrique. L'imputation multiple par ACM offre une réponse au problème de l'explosion combinatoire limitant les méthodes concurrentes dès lors que le nombre de variables ou de modalités est élev / This thesis proposes new multiple imputation methods that are based on principal component methods, which were initially used for exploratory analysis and visualisation of continuous, categorical and mixed multidimensional data. The study of principal component methods for imputation, never previously attempted, offers the possibility to deal with many types and sizes of data. This is because the number of estimated parameters is limited due to dimensionality reduction.First, we describe a single imputation method based on factor analysis of mixed data. We study its properties and focus on its ability to handle complex relationships between variables, as well as infrequent categories. Its high prediction quality is highlighted with respect to the state-of-the-art single imputation method based on random forests.Next, a multiple imputation method for continuous data using principal component analysis (PCA) is presented. This is based on a Bayesian treatment of the PCA model. Unlike standard methods based on Gaussian models, it can still be used when the number of variables is larger than the number of individuals and when correlations between variables are strong.Finally, a multiple imputation method for categorical data using multiple correspondence analysis (MCA) is proposed. The variability of prediction of missing values is introduced via a non-parametric bootstrap approach. This helps to tackle the combinatorial issues which arise from the large number of categories and variables. We show that multiple imputation using MCA outperforms the best current methods.
107

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages / Penalization and data reduction of auxiliary variables in survey sampling

Shehzad, Muhammad Ahmed 12 October 2012 (has links)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires / Survey sampling techniques are quite useful in a way to estimate population parameterssuch as the population total when the large dimensional auxiliary data setis available. This thesis deals with the estimation of population total in presenceof ill-conditioned large data set.In the first chapter, we give some basic definitions that will be used in thelater chapters. The Horvitz-Thompson estimator is defined as an estimator whichdoes not use auxiliary variables. Along with, calibration technique is defined toincorporate the auxiliary variables for sake of improvement in the estimation ofpopulation totals for a fixed sample size.The second chapter is a part of a review article about ridge regression estimationas a remedy for the multicollinearity. We give a detailed review ofthe model-based, design-based and model-assisted scenarios for ridge estimation.These estimates give improved results in terms of MSE compared to the leastsquared estimates. Penalized calibration is also defined under survey sampling asan equivalent estimation technique to the ridge regression in the classical statisticscase. Simulation results confirm the improved estimation compared to theHorvitz-Thompson estimator.Another solution to the ill-conditioned large auxiliary data is given in terms ofprincipal components analysis in chapter three. Principal component regression isdefined and its use in survey sampling is explored. Some new types of principalcomponent calibration techniques are proposed such as calibration on the secondmoment of principal component variables, partial principal component calibrationand estimated principal component calibration to estimate a population total. Applicationof these techniques on real data advocates the use of these data reductiontechniques for the improved estimation of population totals
108

Nouvelles observations et techniques d'apprentissage automatique appliquées aux galaxies et aux amas de galaxies

Rhea, Carter 10 1900 (has links)
Les amas de galaxies sont l'une des plus grandes structures dans l'univers et jouent le rôle d'hôte de plusieurs phénomènes complexes. Bien qu'il existe beaucoup d'études portant sur leur formation et leur évolution, l'avènement récent de l'apprentissage automatique en astronomie nous permet d'investiguer des questions qui, jusqu'à maintenant, demeuraient sans réponse. Même si ce mémoire se concentre sur l'application de techniques d'apprentissage automatique aux observations en rayons X des amas de galaxies, nous explorons l'usage de ces techniques à son homologue à une échelle réduite : les galaxies elles-mêmes. Malgré le fait que les trois articles présentés dans ce mémoire se concentrent sur différents aspects de la physique, sur de différentes échelles et sur de différentes techniques, ils forment une base d'études que je continuerai pendant mon doctorat : l'usage des nouvelles techniques pour investiguer la physique des régions galactiques et extragalactiques. Dans le premier article, nous introduisons les premières observations en rayons X d'un amas de galaxies lointain qui détient des attributs particuliers comme une formation stellaire hors pair (∽ 900 M⊙/an). Dans cet article, nous employons les techniques traditionnelles en astronomie rayons X pour déterminer si ce taux de formation stellaire est dû à un courant de refroidissement désinhibé. Puisque l'objet est très lointain (z=1.7), il faut faire nos calculs sans beaucoup de photons et il faut donc utiliser les indices par procuration. Nous déterminons que la galaxie centrale est séparée d'une distance de plus de 50 kpc du coeur froid de l'amas. À cause de cette séparation, le trou noir supermassif central n'est pas alimenté et il ne peut pas prévenir le courant de refroidissement. Ceci est le premier exemple d'un amas de galaxies où nous observons l'échec de la rétroaction d'un trou noir supermassif. De plus, ceci nous fournit un autre mécanisme qui peut créer la lumière intra-amas. Dans le deuxième article présenté ici, nous examinons l'émission rayons X provenant du milieu intra-amas extrêmement chaud des amas de galaxies. Nous développons une méthode compréhensive qui détermine le nombre de composantes thermiques sous-jacentes dans un spectre de plasma. Notre nouvelle technique est basée sur une combinaison d'algorithmes d'apprentissage automatique non supervisé (analyse de composantes principales) et d'apprentissage automatique supervisé (arbre aléatoire). Nous créons un ensemble de 100 000 observations synthétiques et réalistes de Chandra qui représentent le gaz chaud dans les amas de galaxies voisines. Après la réduction de notre ensemble d'entraînement à ses 25 composantes principales, nous entraînons notre classificateur afin qu'il puisse déterminer le nombre de composantes thermiques sous-jacentes. Une fois l'étape d'entraînement terminée et l'optimisation des hyperparamètres terminée, nous appliquons la méthodologie à l'amas de galaxies de Persée. En plus de créer une carte de l'amas qui indique le nombre de composantes thermiques nécessaires afin de modéliser précisément l'émission du gaz chaud, nous avons développé un ensemble d'outils numériques qui calculent les températures associées. Nos résultats sont en accord avec plus d'une décennie d'études sur l'amas de galaxies de Persée et nous indiquent qu'il faut utiliser plusieurs composantes thermiques pour modéliser le milieu intra-amas correctement. Le troisième article présenté dans ce mémoire emploie de nouveau l'apprentissage automatique pour résoudre une question précédemment sans réponse nécessaire pour la caractérisation précise de la cinématique de gaz chaud dans les galaxies. Nous avons construit un réseau de neurones convolutif qui estime la vitesse et l'élargissement des raies d'émission d'un spectre de galaxies en visible. Une fois construit, nous l'appliquons aux données synthétiques qui répliquent les observations réelles de SITELLE du programme SIGNALS. En utilisant notre réseau bien entraîné, nous caractérisons l'émission d'une cible de SIGNALS : la galaxie M33. Nos résultats indiquent que notre algorithme surpasse les méthodes standards et s'adapte bien aux procédures d'ajustement spectral. En outre, notre méthodologie augmente la vitesse des calculs par plus d'un ordre de grandeur. Bien que l'algorithme soit entraîné spécifiquement pour SITELLE, on peut faire de petites modifications pour l'utiliser avec des autres interféromètres tels que MUSE et ses futurs analogues dans la prochaine génération de télescopes. Notez que j'ai mené à titre de premier auteur deux des trois articles présentés dans ce mémoire et apporté des contributions majeures au troisième. Les trois articles ont déjà été acceptés pour publication ou ont déjà été soumis et révisés une fois. / Galaxy clusters are one of the largest structures in the universe and host several complex physical phenomena. Although a wealth of knowledge already exists on their formation and evolution, the recent advent of machine learning in the astronomical sciences has allowed us to probe questions heretofore unanswered. While this thesis does focus heavily on the application of machine learning techniques to X-ray observations of galaxy clusters, it takes the techniques applied there to galaxy cluster's smaller counterparts: the individual galaxies themselves. Although the three papers presented here focus on distinct physics, scales, and techniques, they all form a basis of studies that I will continue during my doctorate: using new techniques to probe the underlying physics of galactic and extragalactic regions. The first paper introduced is a study of a galaxy cluster near the beginning of the epoch of cluster formation exhibiting peculiar attributes such as an elevated stellar formation rate (∽ 900M⊙/yr). In this paper, we employ traditional techniques in X-ray astronomy to determine whether or not the prodigious formation rate is due to an uninhibited cooling core. Since the object is so distant (z=1.7), we must execute our calculations with relatively few photons and thus rely on proxy measures. We determine that there exists a strong cooling flow offset by over 50 kpc from the central galaxy. Because of this offset, the AGN is not fueled and thus fails to heat up the cooling flow. This is the first example of a galaxy cluster in which we observe the failure of AGN feedback. Additionally, this provides another mechanism for the creation of intracluster light. The second article presented here focuses on X-ray emission from the hot intra-cluster medium within the galaxy cluster. We develop a comprehensive method for determining the number of underlying thermal components in the plasma's spectra. Our novel technique relies on a combination of an unsupervised learning algorithm (principal component analysis) and a supervised learning algorithm (random forest classification). We create a set of 100,000 realistic mock Chandra observations of the hot X-ray emitting gas in nearby galaxy clusters. After reducing our synthetic training set to its 25 most important principal components, we trained a random forest classifier to distinguish between the number of underlying thermal components. After successful testing and hyperparameter optimization, we applied the methodology third paper featured in this thesis once again employs machine learning to solve a previously undetermined question necessary for the accurate characterization of the kinematics of the warm gas in galaxies. We constructed a convolutional neural network to estimate the velocity and broadening parameters from the optical spectra of emission-line nebula and applied it to synthetic data replicating real SITELLE observations from the SIGNALS program. With a trained and optimized network in hand, we apply our methodology to a target of the SIGNALS program: the galaxy M33. Our results indicate our algorithm out-performs previous methods and nicely complements spectral fitting procedures. Moreover, the methodology increases calculation speeds by more than an order of magnitude -- thus greatly reducing the time needed to determine the kinematic parameters. Although the algorithm was trained for SITELLE data, this method can be readily ported to other IFUs such as MUSE. I have led two of the papers presented in this memoire and made major contributions to the third. All three papers have been either accepted for publication or have already been submitted and revised once. to the Perseus Cluster. In addition to creating a map of the cluster indicating the number of thermal components required to accurately model the thermal emission, we developed a suite of analysis routines to determine the temperatures of the underlying components. Our results are in agreement with over a decade of studies on the Perseus cluster and indicate that multiple temperature components are required for the accurate study of its intracluster medium.
109

Exposition des travailleurs du recyclage électronique à des ignifuges et association à des effets endocriniens.

Gravel, Sabrina 06 1900 (has links)
Les ignifuges sont ajoutés à divers produits afin de les rendre conformes aux normes d’inflammabilité. Les plus communs sont les polybromodiphényléthers (PBDE) et les esters d’organophosphorés (OPE), qui sont détectés en forte proportion dans la population générale. Quelques industries, comme celle du recyclage électronique, peuvent exposer les travailleurs à des niveaux élevés de ces ignifuges, dont certains sont soupçonnés d’être des perturbateurs endocriniens. L’objectif de cette thèse était d’évaluer l’exposition à des ignifuges chez les travailleurs et d’étudier les effets endocriniens associés. Trois types de données ont été utilisés. D’abord, deux bases de données populationnelles ont permis de déterminer les valeurs biologiques de base des PBDE chez les travailleurs des populations générales canadienne et états-unienne, et d’identifier les secteurs industriels les plus exposés. Ensuite, une revue systématique de littérature a recensé les niveaux d’exposition professionnelle aux ignifuges dans diverses industries en portant un regard critique sur les méthodes de prélèvement. Finalement, des prélèvements d’air en poste personnel, d’urine et de sang ont été réalisés auprès de 100 travailleurs dans six entreprises de recyclage électronique et une de recyclage commercial. Des modèles Tobit et des régressions de Cox inversées ont identifié les tâches les plus exposantes. L’association entre les mesures biologiques d’exposition et les niveaux d’hormones thyroïdiennes et sexuelles a été explorée avec des modèles Tobit et des régressions sur composantes principales. L’analyse des données populationnelles a révélé que les travailleurs canadiens, tous secteurs confondus, avaient des concentrations sériques de PBDE 10 à 20% plus élevées que celles des non-travailleurs. La revue systématique a identifié les milieux du recyclage électronique, de la fabrication de câbles, du transport aérien et des casernes d’incendie comme étant parmi les plus exposants aux ignifuges, particulièrement au BDE209. Cependant, les méthodes de prélèvement utilisées dans ces études étaient généralement peu appropriées pour les ignifuges. L’analyse des données de l’étude terrain a mis en évidence des concentrations d’ignifuges dans l’air plus élevées dans le recyclage électronique que dans le recyclage commercial, avec une concentration en BDE209 plus élevée que toutes les valeurs publiées à ce jour (moyenne géométrique [MG] : 5100 ng/m³). Les tâches de démantèlement et de compactage étaient respectivement associées à des expositions en moyenne 2,2 et 1,4 fois plus élevées que celle de supervision. Finalement, les concentrations sanguines de BDE209 (MG : 18 ng/g lipides) chez les travailleurs du recyclage électronique étaient plus élevées que dans le recyclage commercial (MG : 1,7 ng/g lipides), mais moins élevées que celles rapportées dans la fabrication de câbles (moyenne : 54 ng/g lipides). On a estimé chez l’homme des diminutions de 18% de la testostérone libre et totale pour un doublement de la concentration de tb-TPhP (métabolite OPE), et une augmentation de 16% de l’estradiol pour un doublement de la concentration de o-iPr-DPhP (métabolite OPE). Cette thèse montre que l’exposition aux ignifuges est très répandue, particulièrement chez les travailleurs de quelques industries. Les concentrations plus élevées de certains ignifuges dans le recyclage électronique par rapport aux autres industries, et l’association entre l’exposition aux OPE et les niveaux d’hormones sexuelles chez l’homme ont été identifiées pour la première fois. Bien que devant être reproduits, ces résultats justifient des efforts préventifs de maîtrise de l’exposition aux ignifuges dans cette industrie. / Flame retardants are added to various products to comply to flammability standards. The most common are polybrominated diphenyl ethers (PBDEs) and organophosphate esters (OPEs), which are detected in high proportion in the general population. A few industries, such as electronic recycling, can expose workers to high levels of flame retardants, some of which are suspected of being endocrine disruptors. The objective of this thesis was to evaluate the exposure to flame retardants in workers and to study the associated endocrine effects. Three types of data were used. First, two population databases were used to determine baseline PBDE levels for workers in the general population in Canada and the United States, and to identify the major industrial sectors that are exposed the most. Then, a systematic literature review identified levels of occupational exposure to flame retardants in various industries while critically examining sampling methods. Finally, personal air, urine and blood samples were collected from 100 workers in six electronic recycling and one commercial recycling companies. Tobit models and reverse Cox regressions identified the most exposing tasks. The association between biological concentrations of flame retardants and thyroid and sex hormone levels was explored with Tobit models and principal component regressions. The analysis of the population data revealed that Canadian workers, taking all sectors into consideration, had serum PBDE levels 10 to 20% higher than those of non-workers. The systematic review identified electronic recycling, cable manufacturing, air transport and fire stations as some of the workplaces where flame retardants were found in the highest concentrations, particularly BDE209. However, the sampling methods used in these studies were generally not optimal for flame retardants. Analysis of the field study data revealed higher air concentrations of flame retardants in electronic recycling than in commercial recycling, with a higher BDE209 concentration than all values published to date (geometric mean [MG]: 5100 ng/m³). Dismantling and bailing tasks were associated with exposures averaging 2.2 and 1.4 times higher than supervisory tasks, respectively. Finally, blood concentrations of BDE209 (MG: 18 ng/g lipid) in electronic recycling workers were higher than in commercial recycling (MG: 1.7 ng/g lipid), but lower than those reported in cable manufacturing (average: 54 ng/g lipid). Decreases of 18% in free and total testosterone were estimated in humans for a doubling of the concentration of tb-TPhP (OPE metabolite), and a 16% increase in estradiol for a doubling of the concentration of o-iPr-DPhP (OPE metabolite). This thesis shows that exposure to flame retardants is widespread, particularly among workers in a few industries. The higher concentrations of some flame retardants in electronic recycling compared with other industries, and the association between exposure to OPEs and sex hormone levels in humans were identified for the first time. Although these results must be reproduced, they justify preventive efforts to control exposure to flame retardants in this industry.
110

Essays in functional econometrics and financial markets

Tsafack-Teufack, Idriss 07 1900 (has links)
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter. / In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.

Page generated in 0.1518 seconds