• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 13
  • Tagged with
  • 65
  • 65
  • 27
  • 26
  • 15
  • 11
  • 11
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Characterization of PLA-Talc films using NIR chemical imaging and multivariate image analysis techniques

Amirabadi, Seyedshahabaldin 25 May 2018 (has links)
L’emballage joue un rôle important dans l’industrie alimentaire afin de maintenir la qualité des produits le plus longtemps possible. Les films de polymère sont largement utilisés dans l’emballage alimentaire et sont attrayants pour leurs propriétés exceptionnelles. Puisque les polymères à base de pétrole apportent des préoccupations environnementales, les polymères biodégradables tel que le PLA sont étudiés plus intensivement depuis quelques années considérant leurs propriétés écologiques. L’application de films renforcés permet, comparativement aux films simples, d’atteindre des fonctions spécifiques et d’améliorer leurs propriétés tel que l’étanchéité aux gaz. Toutefois, puisque la structure de ces films est plus complexe, le contrôle de qualité de ces derniers est plus difficile. Dans l’industrie, des méthodes hors-ligne sont très souvent utilisées pour effectuer le contrôle de qualité des films produits. Le contrôle est nécessaire puisque la variabilité de la matière première ainsi que le changement des conditions opératoires amènent des modifications qui changent considérablement les propriétés du film. Par conséquent, une inspection en temps réel ainsi qu’un contrôle des films de polymère est nécessaire sur la ligne de production afin d’obtenir un contrôle de qualité s’approchant de l’analyse en temps réel. Un système d’imagerie proche infrarouge (NIR) rapide et non-destructif est proposé pour caractériser les films biodégradables d’acide polylactique contenant du talc produits par extrusion-soufflage et utilisés pour l’emballage. Le but ultime est d’utiliser le système pour faire un contrôle de qualité sur la ligne d’extrusion ainsi qu’après le post-traitement termique, soit le recuit. Un ensemble d’échantillon de film de PLA contenant différentes concentrations en talc ont été fabriqués. Ces derniers ont ensuite été soumis à différentes conditions de recuit. Des images NIR ont été collectées avant la caractérisation des propriétés physiques et mécaniques ainsi que l’étanchéité aux gaz. Des techniques d’imagerie multivariées ont été appliquées aux images hyperspectrales. Celles-ci ont montré que la quantité de talc peut être déterminée et que l’information du spectre NIR permet de prédire les propriétés du film. Dans tous les cas, la méthode proposée permet de déterminer les variations dans les propriétés du film avec une bonne précision. / Food packaging plays a great role in the food industry to maintain food products quality as long as possible. Polymer films are widely used in food packaging and also attract attention because of their outstanding advantages. Since petroleum-based polymers are known to cause environmental concerns, biodegradable polymers like PLA were studied more intensively in recent years due to their environmentally friendly properties. The application of reinforced films exceeds simple ones in achieving specific functions and enhancing their properties such as barrier properties. Since the films structures are more complex, quality control is more challenging. In industry, off-line methods are vastly used for quality control of the produced films while variability in raw materials and processing conditions substantially change the film specifications. Consequently, real-time inspection and monitoring of polymer films is needed on the production line to achieve a real-time quality control of the films. A fast and non-invasive near-infrared (NIR) imaging system is proposed to characterize biodegradable polylactic acid (PLA) films containing talc, and produced by extrusion film-blowing for packaging applications. The ultimate goal is to use the system for quality control on the extrusion line, and after a post-processing via thermal treatment (annealing). A set of PLA-talc films with varying talc contents were produced and submitted to annealing under different conditions. NIR images of the films were collected after which the samples were characterized for their physical, mechanical, and gas barrier properties. Multivariate imaging techniques were then applied to the hyperspectral images. It is shown that various talc loadings can be distinguished, and the information contained in the NIR spectra allows predicting the film properties. In all cases, the proposed approach was able to track the variation in film properties with good accuracy
32

Phénoménologie des neutrinos dans une théorie de matrices aléatoires

Giasson, Nicolas 08 February 2019 (has links)
Le mécanisme permettant d’expliquer l’origine de la masse des neutrinos demeure, encore aujourd’hui, un mystère complet dont la résolution est susceptible de modifier considérablement la structure du modèle standard en physique des particules élémentaires. Dans la littérature, plusieurs candidats potentiels sont donc proposés afin de combler cette lacune et, ainsi, faire la lumière sur certaines des propriétés les plus étranges des neutrinos. Parmi ceux-ci, les mécanismes seesaw de type I, II et III constituent sans doute les approches les plus attrayantes et les plus étudiées. Cependant, bien que ces mécanismes offrent un cadre de travail simple et élégant pour expliquer la faible masse des neutrinos (l’ordre de grandeur), ceux-ci n’offrent aucune prédiction sur les paramètres fondamentaux caractérisant le phénomène d’oscillation, soit les angles de mélange, les phases complexes et la hiérarchie des masses. Afin d’obtenir des prédictions concrètes sur la phénoménologie des neutrinos, certaines hypothèses de travail supplémentaires doivent donc être formulées pour contraindre la structure des matrices de masse obtenue. Dans ce travail, l’hypothèse anarchique propre au secteur des neutrinos est adoptée. Les matrices de masse générées par les trois mécanismes seesaw dans la limite des basses énergies sont traitées dans le contexte d’une théorie de matrices aléatoires, ce qui permet de définir et d’analyser de nouveaux ensembles matriciels aléatoires appelés ensembles seesaw. Un cadre théorique unifié est donc présenté pour la construction de ces ensembles. Grâce au formalisme élaboré, qui repose sur les outils traditionnels relevant de la théorie des matrices aléatoires, les densités de probabilité jointes caractérisant ces ensembles sont obtenues de façon analytique. Une étude détaillée de leurs propriétés est alors réalisée, ce qui permet d’extraire les tendances dominantes propres à ces mécanismes de masse et d’analyser leurs conséquences pour le secteur des neutrinos du modèle standard étendu. En ce qui concerne le spectre de masse, les résultats obtenus indiquent que les mécanismes seesaw de type I et de type III sont plus adéquats pour reproduire les observations expérimentales. De plus, une forte préférence pour la différence de masses associée à la hiérarchie normale est observée. En contrepartie, il est également démontré que pour une différence de masses donnée entre les trois générations, toutes les permutations des masses sont équiprobables, ce qui rend hors de portée toute prédiction concernant la hiérarchie du spectre (normale ou inverse) sous l’hypothèse anarchique. En ce qui concerne les variables du groupe de symétrie (les angles de mélange et les phases complexes), on constate, d’une part, que la notion de mélange quasi-maximal est naturellement favorisée et, d’autre part, que la matrice PMNS peut être décrite comme une matrice unitaire générique tirée au hasard d’un ensemble matriciel caractérisé par la mesure de Haar du groupe de Lie correspondant. Par ailleurs, il est également démontré que ces conclusions sont indépendantes du mécanisme de masse considéré. / The neutrino mass generation mechanism remains, to this day, a complete mystery which is likely to play an important role in understanding the foundations of the Standard Model of particle physics. In an effort to fill this gap and, ultimately, shed some light on some of the most intriguing properties of neutrinos, many theoretical models are proposed in the literature. Among the many candidates, the type I, type II and type III seesaw mechanisms may very well be the most attractive and the most studied propositions. However, despite the fact that these mechanisms provide a simple and elegant framework for explaining the smallness of neutrino masses (the order of magnitude), no prediction can be made on the fundamental parameters governing neutrino oscillations (the mixing angles, the CP-violating phases and the mass differences). Thus, to obtain concrete results regarding neutrino phenomenology, additional working assumptions must be made in order to constrain the structure of the corresponding mass matrices. In this work, the anarchy hypothesis relevant to the neutrino sector is investigated. The mass matrices generated by the three seesaw mechanisms in the low-energy limit are studied within the framework of random matrix theory, which leads to the development and the analysis of the seesaw ensembles. A unified and precise theoretical formalism, based on the usual tools of random matrix theory, is presented for the construction of these new random matrix ensembles. Using this formalism, the joint probability density functions characterizing these ensembles are obtained analytically, thus paving the way for a detailed study of their properties. This study is then carried out, revealing the underlying trends in these ensembles and, thereby, offering a thorough analysis of their consequences for the neutrino sector of the seesaw-extended Standard Model. Regarding the mass spectrum, it is found that the type I and type III seesaw mechanisms are better suited to accommodate experimental data. Moreover, the results indicate a strong preference for the mass splitting associated to normal hierarchy. However, since all permutations of the masses are found to be equally probable for a particular mass splitting between the three generations, predictions concerning the hierarchy of the mass spectrum (normal or inverted) remains out of reach in the framework of anarchy. Regarding the group variables (the mixing angles an CP-violating phases), it is found that near-maximal mixing is naturally favored by these ensembles and, that the PMNS matrix can be described as a generic unitary matrix drawn at random from a matrix ensemble characterized by the Haar measure of the corresponding Lie group. Furthermore, these conclusions are found to be independent of the mass mechanism considered.
33

Extraction des connaissances en imagerie microspectrométrique par analyse chimiométrique : application à la caractérisation des constituants d'un calcul urinaire

Elmi Rayaleh, Waïss 27 June 2006 (has links) (PDF)
L'imagerie spectroscopique classique utilisant la sélection d'une bande spectrale d'absorption spécifique pour chaque composé d'un mélange a atteint ses limites lors d'analyse d'échantillons complexes naturels ou industriels. Les méthodes chimiométriques sont alors un précieux outil pour s'affranchir à la fois des limitations dues aux recouvrements spectraux et certaines limitations instrumentales. Cependant une optimisation et une adaptation des méthodologies de résolution aux cas concrets sous analyse sont nécessaires. Notre étude a ciblé les différents traitements chimiométriques permettant de mieux extraire les images microspectrométriques des constituants d'un mélange. Dans une première étape, une optimisation est effectuée sur des données synthétiques pour un ensemble des méthodes de résolution multivariées. Parmi celles-ci, OPA(var) (Orthogonal Projection Approach par sélection des variables) s'est révélée être le plus efficace qualitativement. Puis, la démarche originale mettant en oeuvre le couplage des méthodes chimiométriques de l'optimisation avec MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares) a été réalisée. La capacité de résolution de MCR-ALS se trouve considérablement renforcée par ce couplage. Ensuite, au niveau du pixel, les contraintes liées au rang local ont été spécifiées et appliquées. La pertinence du couplage réalisé et l'efficacité d'extraction par les contraintes du rang local ont été mises en évidence dans les nombreux cas étudiés. L'application de cette méthodologie d'analyse, mise en place, sur des données réelles issues de la micro- spectrométrie Raman a abouti d'une manière concluante. Les constituants d'un calcul urinaire sont identifiés par leurs spectres respectifs grâce à une bibliothèque de référence. Chaque image extraite indique la répartition du composé correspondant dans la partie analysée par l'intermédiaire d'une échelle de couleur adaptée. En effet, dans ce type de pathologie, une bonne identification de la chronologie de formation de différents constituants permet un meilleur diagnostic et un traitement médical adapté. Dans notre étude, la reproduction efficace des images microspectrométriques de grande qualité par les méthodes chimiométriques est prouvée même dans un cas réel complexe.
34

Méthodes d’analyse fonctionnelle et multivariée appliquées à l’étude du fonctionnement écologique des assemblages phytoplanctoniques de l’étang de Berre

Malkassian, Anthony 03 December 2012 (has links)
L'étude de la relation entre les variations d'abondance du phytoplancton et les facteurs environnementaux (naturels ou anthropiques) dans les zones saumâtres peu profondes est essentielle à la compréhension et à la gestion de cet écosystème complexe. Les relations existant entre les variables physico-chimiques (température, salinité et les nutriments) et les assemblages de phytoplancton de l'étang de Berre ont été analysées à partir d'un suivi écologique mensuel de 16 années (1994-2010). A l'aide des données recueillies par cette étude à long terme, des questions en relation avec la gestion de ce milieu ont été abordées grâce à l'application d'analyses statistiques et à la représentation originale des données. Depuis 2004, la nouvelle politique de relargage d'eau douce a provoqué de forts changements dans la salinité globale de la lagune : une diminution de la stratification et une raréfaction des phénomènes d'anoxie dans sa partie la plus profonde. Un changement dans la structure de la communauté phytoplanctonique a également été observé en association avec l'évolution des conditions environnementales. Une augmentation de la richesse spécifique phytoplanctonique, et plus précisément, l'émergence d'espèces à affinité marine a permis de mettre en évidence la première étape d'une marinisation de la lagune. Ces résultats soulignent l'impact significatif d'un nouvelle politique de gestion de cette zone côtière particulière. Nous nous sommes ensuite intéressés à la dynamique du phytoplancton à l'échelle de la journée reflet des variations rapides de l'environnement. / The study of the relationship between variations in phytoplankton abundance and environmental forces (natural or anthropogenic) in shallow brackish areas is essential to both understanding and managing this complex ecosystem. Over a 16 year (1994-2011) monthly monitoring program the relationships between physicochemical variables (temperature, salinity and nutrients) and phytoplankton assemblages of the Berre Lagoon were analyzed. Using data collected from this long-term study, we have addressed environmental management issues through the application of advanced statistical analyses and original data displays. These analyses and data displays can readily be applied to other data sets related to the environment, with the aim of informing both researcher and practitioner. Since 2004, a new policy for freshwater discharge has induced strong changes in the global salinity of the lagoon : a weakened stratification and a rarefaction of anoxia phenomena in its deepest part. A shift in the structure of the phytoplankton community has been observed in association with changes in environmental conditions. An increase of phytoplanktonic species richness, and more precisely, the emergence of species with marine affinity highlights the first step of a marinization of the lagoon. The results underline the significant impact of a new management policy in this specific coastal zone. We then focused on the response of phytoplankton to quick environmental variations. An original approach for automated high frequency analysis of phytoplankton was adopted with the use of an autonomous flow cytometer (CytoSense).
35

Etude du comportement hydraulique, physico-chimique et microbiologique d'un système de récupération d'eaux de toiture. Evaluation de l'empreinte environnementale / Hydraulic, physicochemical and microbiological study of a roof runoff harvesting system and environmental assessment

Vialle, Claire 21 October 2011 (has links)
L'objectif de ces travaux est de contribuer à augmenter la connaissance sur la réutilisation des eaux de ruissellement de toiture. Une maison individuelle située en zone rurale et équipée d'une toiture en tuiles, et un bâtiment collectif situé en zone périurbaine avec une toiture terrasse bitumée, ont été étudiés. Les eaux de pluie collectées sont réutilisées dans l'habitat pour l'alimentation des chasses d'eau. Un suivi analytique a permis l'étude de la qualité de l'eau en plusieurs points des systèmes. Les eaux stockées sont clairement non potables et révèlent une contamination microbiologique très variable. Des pathogènes ont été quantifiés à plusieurs reprises. La qualité de l'eau distribuée ne peut donc pas être garantie au cours de l'année, d'où la recommandation d'une désinfection de l'eau avant distribution. Un suivi hydraulique a permis de déterminer les volumes d'eau potable substitués et les taux de couverture de besoins en eau. Un modèle du comportement hydraulique a été développé puis utilisé pour discuter le dimensionnement des cuves. En présence d'une désinfection, les installations ne sont économiquement pas rentables. En l'absence de désinfection, le bilan économique est positif mais la période de retour sur investissement supérieure à la durée de vie de l'installation. Une première analyse de cycle de vie a été réalisée pour comparer les deux échelles étudiées. Dans les deux cas, les processus les plus impactants sont liés aux consommations électriques de l'éventuelle désinfection ultra-violet et des pompes. En présence d'une désinfection, l'échelle du bâtiment collectif présente des impacts plus faibles. Une deuxième analyse de cycle de vie a été réalisée pour étudier la pertinence de la substitution de l'eau du réseau d'eau public par de l'eau de pluie à l'échelle d'un particulier. Elle n'est pas probante d'un point de vue environnemental. / The aim of this work is to contribute to knowledge on roof runoff reuse. A private house located in rural area with a tiled sloping roof and a research building located in suburban zone with a bituminous flat roof were studied. The collected rainwater is reused for toilet flushing. An analytical monitoring allowed the study of water quality in several points of the systems. Stored rainwater is clearly non drinkable and reveals a very variable microbiological contamination. Pathogenic agents were quantified on several occasions. Distributed water quality cannot thus be guaranteed over the year and a disinfection before distribution is recommended. A hydraulic follow-up made it possible to determine substituted volumes of drinking water by collected rainwater and water saving efficiencies. A model of the hydraulic behaviour of systems was developed then used to discuss dimensioning of the tanks. In the presence of disinfection, the installations are economically not profitable. In the absence of disinfection, the economic assessment is positive but the payback period is longer than the lifespan of the installation. A first life cycle assessment was carried out to compare the two studied scales. In both cases, the more impacting processes are related to electricity consumptions of possible ultra-violet disinfection and the pumps. In the presence of disinfection, the scale of the building presents weaker impacts. A second life cycle assessment was carried out to study the relevance of the substitution of drinking water by rainwater on a private individual scale. It is not convincing of an environmental point of view.
36

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye De Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité pour les innovations d'un modèle ARMA( p,q ) de tendance et moyenne connues, basé sur l'approche du test lisse dépendant des données et simple à appliquer. Une vaste étude de simulation est menée pour étudier ce test pour des tailles échantillonnales modérées. Notre approche est en général plus puissante que les tests existants. Le niveau est tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats théoriques montrant la supériorité de l'approche du test lisse dépendant des données dans des contextes similaires. Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans supposer la normalité jointe de ces marginales. La statistique de test est une fonctionnelle de type Cramér-von Mises d'un processus défini à partir de la fonction caractéristique empirique. Ce processus est défini de façon similaire à celui de Ghoudi et al. (2001) construit à partir de la fonction de répartition empirique et utilisé pour tester l'indépendance entre des marginales univariées. La statistique de test peut être représentée comme une V-statistique. Il est convergent pour détecter toute forme de dépendance. La convergence faible du processus est établie. La distribution asymptotique des fonctionnelles de Cramér-von Mises est approchée par la méthode de Cornish-Fisher au moyen d'une formule de récurrence pour les cumulants et par le calcul numérique des valeurs propres dans la formule d'inversion. La statistique de test est comparée avec celle de Wilks pour l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à un facteur avec effets aléatoires.
37

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique

Le Floch, Edith 28 September 2012 (has links) (PDF)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
38

Proposition de modes de visualisation et d'interaction innovants pour les grandes masses de données et/ou les données structurées complexes en prenant en compte les limitations perceptives des utilisateurs / Proposal of innovative visualization and interaction metaphors for huge amount of data and / or complex data by taking into account perceptual

Cantu, Alma 15 February 2018 (has links)
Suite à l’amélioration des outils de capture et de stockage des données, ces dernières années ont vu les quantités de données à traiter croître énormément. De nombreux travaux, allant du traitement automatique à la visualisation d’information, ont alors été mis en place, mais certains domaines sont encore trop spécifiques pour en profiter. C’est le cas du Renseignement d’Origine ÉlectroMagnétique (ROEM). Ce domaine ne fait pas uniquement face à de grandes quantités de données mais doit aussi gérer des données et des usages complexes ainsi que des populations d’utilisateurs ayant de moins en moins d’expérience. Dans cette thèse nous nous sommes intéressés à l’usage de l’existant et des nouvelles technologies appliquées à la visualisation pour proposer des solutions à la combinaison de problématiques comme les données en grandes quantité et les données complexes. Nous commençons par présenter une analyse du domaine du ROEM qui a permis d’extraire les problématiques auxquelles il doit faire face. Nous nous intéressons ensuite aux solutions gérant les combinaisons de telles problématiques. L’existant ne contenant pas directement de telles solutions, nous nous intéressons alors à la description des problématiques de visualisation et proposons une caractérisation de ces problématiques. Cette caractérisation nous permet de décrire les représentations existantes et de mettre en place un outil de recommandation des représentations basé sur la façon dont l’existant résout les problématiques. Enfin nous nous intéressons à identifier de nouvelles métaphores pour compléter l’existant et proposons une représentation immersive permettant de résoudre les problématiques du ROEM. Ces contributions permettent d’analyser et d’utiliser l’existant et approfondissent l’usage des représentations immersives pour la visualisation d’information. / As a result of the improvement of data capture and storage, recent years have seen the amount of data to be processed increase dramatically. Many studies, ranging from automatic processing to information visualization, have been performed, but some areas are still too specific to take advantage of. This is the case of ELectromagnetic INTelligence(ELINT). This domain does not only deal with a huge amount of data but also has to handle complex data and usage as well as populations of users with less and less experience. In this thesis we focus on the use of existing and new technologies applied to visualization to propose solutions to the combination of issues such as huge amount and complex data. We begin by presenting an analysis of the ELINT field which made it possible to extract the issues that it must faces. Then, we focus on the visual solutions handling the combinations of such issues but the existing work do not contain directly such solutions. Therefore, we focus on the description of visual issues and propose a characterization of these issues. This characterization allows us to describe the existing representations and to build a recommendation tool based on how the existing work solves the issues. Finally, we focus on identifying new metaphors to complete the existing work and propose an immersive representation to solve the issues of ELINT. These contributions make it possible to analyze and use the existing and deepen the use of immersive representations for the visualization of information.
39

Performance of the Electromagnetic Calorimeter of AMS-02 on the International Space Station ans measurement of the positronic fraction in the 1.5 – 350 GeV energy range. / Performances du calorimètre électromagnétique d'AMS02 sur la station spatiale internationale et mesure du rapport positronique dans le domaine en énergie 1.5-350 giga électron volt

Basara, Laurent 05 May 2014 (has links)
L'expérience AMS-02 est un détecteur de particules installé sur la station spatiale internationale (ISS) depuis mai 2011, date à partir de laquelle il mesure les caractéristiques des rayons cosmiques afin d'apporter des réponses aux problématiques soulevées par la physique des astroparticules depuis quelques décennies, en particulier l'étude indirecte de la matière sombre et la recherche d'antimatière. Les aspects phénoménologiques de la physique des rayons cosmiques sont revus dans la première partie. Une deuxième décrit les performances en vol des différents sous-détecteurs d'AMS-02, en particulier du calorimètre électromagnétique. Il est montré, en utilisant les particules au minimum d'ionisation (MIPs), qui constituent l'essentiel du rayonnement cosmique, que le calorimètre fonctionne comme prévu, et que l'on retrouve les mêmes performances qu'au sol. Cette étude est utilisée pour suivre au cours du temps l'évolution des performances du détecteur. Elle permet également de développer un estimateur de charge pour les noyaux utilisant le calorimètre. Une troisième et dernière partie s'attache enfin à déterminer le rapport positronique. La principale difficulté de cette mesure est d'identifier les positons en rejetant les protons grâce aux caractéristiques des gerbes dans la calorimètre. Après avoir défini des variables pertinentes pour cette séparation, nous construisons un estimateur via une analyse multivariée, en nous appuyant sur des simulations Monte-Carlo d'électrons pour les plus hautes énergies. Au-delà de 100 GeV, nous obtenons un taux de réjection de l'ordre de 10 000 pour 90% d'efficacité. Après avoir estimé la confusion de charge, cet estimateur nous permet finalement, de déterminer le rapport positronique pour les données acquises pendant les 18 premiers mois et pour des énergies allant de 1.5 à 350 GeV. / The AMS-02 experiment is a particle detector installed on the International Space Station (ISS) since May 2011, which measures the characteristics of the cosmic rays to bring answers to the problematics risen by the astroparticle physics since a few decades, in particular the study of dark matter and the search of antimatter. The phenomenological aspects of the physics of cosmic rays are reviewed in a first part. A second one describes the in-flight performances of the different subdetectors of AMS-02, in particular the electromagnetic calorimeter. It is shown, using particles at the ionizing minimum (MIPs), accounting for the main part of cosmic rays, that the calorimeter works as expected, and we find the same performances as on ground. This study is used to follow in time the evolution of the detector performances. It also allows to develop a charge estimator for the nuclei using the calorimeter. A third and final part, deals with the determination of the positronic fraction. The main difficulty of this measurement is to identify the positrons by rejecting the protons thanks to the characteristics of the showers in the calorimeter. After having defined variables relevant for this separation, we build an estimator using a multivariate analysis and Monte-Carlo simulations of electrons for the higher energies. Above 100 GeV, we obtain a rejection factor of about 10 000 at a 90% efficiency. After having estimated the charge confusion, this estimator, finally, allows us to determine the positronic ratio for the first 18 months of data and energies ranging from 1.5 to 350 GeV.
40

Spectral factor model for time series learning

Alexander Miranda, Abhilash 24 November 2011 (has links)
Today's computerized processes generate<p>massive amounts of streaming data.<p>In many applications, data is collected for modeling the processes. The process model is hoped to drive objectives such as decision support, data visualization, business intelligence, automation and control, pattern recognition and classification, etc. However, we face significant challenges in data-driven modeling of processes. Apart from the errors, outliers and noise in the data measurements, the main challenge is due to a large dimensionality, which is the number of variables each data sample measures. The samples often form a long temporal sequence called a multivariate time series where any one sample is influenced by the others.<p>We wish to build a model that will ensure robust generation, reviewing, and representation of new multivariate time series that are consistent with the underlying process.<p><p>In this thesis, we adopt a modeling framework to extract characteristics from multivariate time series that correspond to dynamic variation-covariation common to the measured variables across all the samples. Those characteristics of a multivariate time series are named its 'commonalities' and a suitable measure for them is defined. What makes the multivariate time series model versatile is the assumption regarding the existence of a latent time series of known or presumed characteristics and much lower dimensionality than the measured time series; the result is the well-known 'dynamic factor model'.<p>Original variants of existing methods for estimating the dynamic factor model are developed: The estimation is performed using the frequency-domain equivalent of the dynamic factor model named the 'spectral factor model'. To estimate the spectral factor model, ideas are sought from the asymptotic theory of spectral estimates. This theory is used to attain a probabilistic formulation, which provides maximum likelihood estimates for the spectral factor model parameters. Then, maximum likelihood parameters are developed with all the analysis entirely in the spectral-domain such that the dynamically transformed latent time series inherits the commonalities maximally.<p><p>The main contribution of this thesis is a learning framework using the spectral factor model. We term learning as the ability of a computational model of a process to robustly characterize the data the process generates for purposes of pattern matching, classification and prediction. Hence, the spectral factor model could be claimed to have learned a multivariate time series if the latent time series when dynamically transformed extracts the commonalities reliably and maximally. The spectral factor model will be used for mainly two multivariate time series learning applications: First, real-world streaming datasets obtained from various processes are to be classified; in this exercise, human brain magnetoencephalography signals obtained during various cognitive and physical tasks are classified. Second, the commonalities are put to test by asking for reliable prediction of a multivariate time series given its past evolution; share prices in a portfolio are forecasted as part of this challenge.<p><p>For both spectral factor modeling and learning, an analytical solution as well as an iterative solution are developed. While the analytical solution is based on low-rank approximation of the spectral density function, the iterative solution is based on the expectation-maximization algorithm. For the human brain signal classification exercise, a strategy for comparing similarities between the commonalities for various classes of multivariate time series processes is developed. For the share price prediction problem, a vector autoregressive model whose parameters are enriched with the maximum likelihood commonalities is designed. In both these learning problems, the spectral factor model gives commendable performance with respect to competing approaches.<p><p>Les processus informatisés actuels génèrent des quantités massives de flux de données. Dans nombre d'applications, ces flux de données sont collectées en vue de modéliser les processus. Les modèles de processus obtenus ont pour but la réalisation d'objectifs tels que l'aide à la décision, la visualisation de données, l'informatique décisionnelle, l'automatisation et le contrôle, la reconnaissance de formes et la classification, etc. La modélisation de processus sur la base de données implique cependant de faire face à d’importants défis. Outre les erreurs, les données aberrantes et le bruit, le principal défi provient de la large dimensionnalité, i.e. du nombre de variables dans chaque échantillon de données mesurées. Les échantillons forment souvent une longue séquence temporelle appelée série temporelle multivariée, où chaque échantillon est influencé par les autres. Notre objectif est de construire un modèle robuste qui garantisse la génération, la révision et la représentation de nouvelles séries temporelles multivariées cohérentes avec le processus sous-jacent.<p><p>Dans cette thèse, nous adoptons un cadre de modélisation capable d’extraire, à partir de séries temporelles multivariées, des caractéristiques correspondant à des variations - covariations dynamiques communes aux variables mesurées dans tous les échantillons. Ces caractéristiques sont appelées «points communs» et une mesure qui leur est appropriée est définie. Ce qui rend le modèle de séries temporelles multivariées polyvalent est l'hypothèse relative à l'existence de séries temporelles latentes de caractéristiques connues ou présumées et de dimensionnalité beaucoup plus faible que les séries temporelles mesurées; le résultat est le bien connu «modèle factoriel dynamique». Des variantes originales de méthodes existantes pour estimer le modèle factoriel dynamique sont développées :l'estimation est réalisée en utilisant l'équivalent du modèle factoriel dynamique au niveau du domaine de fréquence, désigné comme le «modèle factoriel spectral». Pour estimer le modèle factoriel spectral, nous nous basons sur des idées relatives à la théorie des estimations spectrales. Cette théorie est utilisée pour aboutir à une formulation probabiliste, qui fournit des estimations de probabilité maximale pour les paramètres du modèle factoriel spectral. Des paramètres de probabilité maximale sont alors développés, en plaçant notre analyse entièrement dans le domaine spectral, de façon à ce que les séries temporelles latentes transformées dynamiquement héritent au maximum des points communs.<p><p>La principale contribution de cette thèse consiste en un cadre d'apprentissage utilisant le modèle factoriel spectral. Nous désignons par apprentissage la capacité d'un modèle de processus à caractériser de façon robuste les données générées par le processus à des fins de filtrage par motif, classification et prédiction. Dans ce contexte, le modèle factoriel spectral est considéré comme ayant appris une série temporelle multivariée si la série temporelle latente, une fois dynamiquement transformée, permet d'extraire les points communs de façon fiable et maximale. Le modèle factoriel spectral sera utilisé principalement pour deux applications d'apprentissage de séries multivariées :en premier lieu, des ensembles de données sous forme de flux venant de différents processus du monde réel doivent être classifiés; lors de cet exercice, la classification porte sur des signaux magnétoencéphalographiques obtenus chez l'homme au cours de différentes tâches physiques et cognitives; en second lieu, les points communs obtenus sont testés en demandant une prédiction fiable d'une série temporelle multivariée étant donnée l'évolution passée; les prix d'un portefeuille d'actions sont prédits dans le cadre de ce défi.<p><p>À la fois pour la modélisation et pour l'apprentissage factoriel spectral, une solution analytique aussi bien qu'une solution itérative sont développées. Tandis que la solution analytique est basée sur une approximation de rang inférieur de la fonction de densité spectrale, la solution itérative est basée, quant à elle, sur l'algorithme de maximisation des attentes. Pour l'exercice de classification des signaux magnétoencéphalographiques humains, une stratégie de comparaison des similitudes entre les points communs des différentes classes de processus de séries temporelles multivariées est développée. Pour le problème de prédiction des prix des actions, un modèle vectoriel autorégressif dont les paramètres sont enrichis avec les points communs de probabilité maximale est conçu. Dans ces deux problèmes d’apprentissage, le modèle factoriel spectral atteint des performances louables en regard d’approches concurrentes. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished

Page generated in 0.0556 seconds