Spelling suggestions: "subject:"analyse multivariable""
31 |
La régression non paramétrique multidimensionnelle. Théorie et application à une étude portant sur la densité mammaireVandal, Nathalie 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / La régression non paramétrique est un outil statistique permettant de décrire la relation entre une variable dépendante et une ou plusieurs variables explicatives, sans spécifier de forme stricte pour cette relation. Dans ce mémoire, on présente d'abord la théorie entourant la régression non paramétrique univariée ainsi que différentes méthodes d'estimation, en mettant l'accent sur les fonctions de lissage loess et les splines de régression. On traite ensuite de l'ajustement de relations multidimensionnelles, en s'intéressant plus particulièrement aux méthodes GAM, polyMARS et MARS. On ap- plique finalement ces dernières à une étude portant sur la relation entre la densité mammaire et deux facteurs de croissance analogues à l'insuline, IGF-I et IGFBP-3, ce qui permet de mettre en évidence les avantages de la régression non paramétrique, mais aussi les difficultés rencontrées lors de son application.
|
32 |
Prévision adaptative et désaisonnalisation par le filtre AEP de Carbone-LonginiBilongo, Robert, Bilongo, Robert 27 March 2024 (has links)
« Nous avons présenté dans cette étude une nouvelle méthodologie pour l'étude des phénomènes saisonniers, basée sur l'approche AEP de Carbone-Longini. On retrouve en général dans la littérature deux réponses aux problèmes posés par la saisonnalité des séries chronologiques: un effort de modélisation en vue de la prévision, et la désaisonnalisation pour fin d'interprétation. Nous avons présenté une nouvelle modélisation, GUNIAEP pour les séries chronologiques, dans laquelle la variation systématique est expliquée par une évaluation associée au long terme, au court terme et à la saisonnalité respectivement. Le modèle est estimé par le filtre adaptatif AEP, et les paramètres en vigueur au dernier point, origine de prévision, servent à calculer les valeurs extrapolées. L'observation de ce modèle sur plusieurs exemples nous a permis de voir qu'il permet de reconnaître l'existence et l'ampleur des variations saisonnières à l'aide des coefficients saisonniers. Cette propriété permet de simplifier la phase d'identification qui peut facilement être programmée, tout en fournissant une performance satisfaisante. C'est dans ces conditions que nous avons appliqué le modèle, pour comparer sa précision à celle des méthodes reconnues les plus précises. Cette comparaison s'est faite sur un échantillon de 111 séries, et a révélé que cette méthode était très compétitive, si non la meilleure. Cette nouvelle formulation est donc meilleure que le modèle auto-régressif simple qui avait initialement exploité le filtre AEP. La robustesse des coefficients saisonniers nous a ensuite encouragés à utiliser ce modèle pour dériver une nouvelle méthode de désaisonnalisation: DESAEP. Une interprétation appropriée des composantes a permis de développer une heuristique pour décomposer une série chronologique en composantes saisonnière, irrégulière et tendance-cycle, puis fournir une série désaisonnalisée. Une étude empirique sur 33 séries réelles impliquant les méthodes Xll-ARIMA et SIGEX a permis de voir que dans le long terme les séries désaisonnalisées produites par DESAEP ne seront pas très différentes de celles des autres méthodes, cependant les différences sont plus fortes pour les valeurs les plus récentes. On a vu que généralement, l'ampleur des révisions augmente avec le niveau de bruit existant dans la série, mais qu'en utilisant DESAEP, ces révisions sont d'une ampleur nettement inférieure à celles produites par les deux autres méthodes. »--Pages i-ii
|
33 |
Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariatMtalai, Itre 19 December 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues. / Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
|
34 |
Extraction des connaissances en imagerie microspectrométrique par analyse chimiométrique : application à la caractérisation des constituants d'un calcul urinaireElmi Rayaleh, Waïss 27 June 2006 (has links) (PDF)
L'imagerie spectroscopique classique utilisant la sélection d'une bande spectrale d'absorption spécifique pour chaque composé d'un mélange a atteint ses limites lors d'analyse d'échantillons complexes naturels ou industriels. Les méthodes chimiométriques sont alors un précieux outil pour s'affranchir à la fois des limitations dues aux recouvrements spectraux et certaines limitations instrumentales. Cependant une optimisation et une adaptation des méthodologies de résolution aux cas concrets sous analyse sont nécessaires. Notre étude a ciblé les différents traitements chimiométriques permettant de mieux extraire les images microspectrométriques des constituants d'un mélange. Dans une première étape, une optimisation est effectuée sur des données synthétiques pour un ensemble des méthodes de résolution multivariées. Parmi celles-ci, OPA(var) (Orthogonal Projection Approach par sélection des variables) s'est révélée être le plus efficace qualitativement. Puis, la démarche originale mettant en oeuvre le couplage des méthodes chimiométriques de l'optimisation avec MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares) a été réalisée. La capacité de résolution de MCR-ALS se trouve considérablement renforcée par ce couplage. Ensuite, au niveau du pixel, les contraintes liées au rang local ont été spécifiées et appliquées. La pertinence du couplage réalisé et l'efficacité d'extraction par les contraintes du rang local ont été mises en évidence dans les nombreux cas étudiés. L'application de cette méthodologie d'analyse, mise en place, sur des données réelles issues de la micro- spectrométrie Raman a abouti d'une manière concluante. Les constituants d'un calcul urinaire sont identifiés par leurs spectres respectifs grâce à une bibliothèque de référence. Chaque image extraite indique la répartition du composé correspondant dans la partie analysée par l'intermédiaire d'une échelle de couleur adaptée. En effet, dans ce type de pathologie, une bonne identification de la chronologie de formation de différents constituants permet un meilleur diagnostic et un traitement médical adapté. Dans notre étude, la reproduction efficace des images microspectrométriques de grande qualité par les méthodes chimiométriques est prouvée même dans un cas réel complexe.
|
35 |
Méthodes d’analyse fonctionnelle et multivariée appliquées à l’étude du fonctionnement écologique des assemblages phytoplanctoniques de l’étang de BerreMalkassian, Anthony 03 December 2012 (has links)
L'étude de la relation entre les variations d'abondance du phytoplancton et les facteurs environnementaux (naturels ou anthropiques) dans les zones saumâtres peu profondes est essentielle à la compréhension et à la gestion de cet écosystème complexe. Les relations existant entre les variables physico-chimiques (température, salinité et les nutriments) et les assemblages de phytoplancton de l'étang de Berre ont été analysées à partir d'un suivi écologique mensuel de 16 années (1994-2010). A l'aide des données recueillies par cette étude à long terme, des questions en relation avec la gestion de ce milieu ont été abordées grâce à l'application d'analyses statistiques et à la représentation originale des données. Depuis 2004, la nouvelle politique de relargage d'eau douce a provoqué de forts changements dans la salinité globale de la lagune : une diminution de la stratification et une raréfaction des phénomènes d'anoxie dans sa partie la plus profonde. Un changement dans la structure de la communauté phytoplanctonique a également été observé en association avec l'évolution des conditions environnementales. Une augmentation de la richesse spécifique phytoplanctonique, et plus précisément, l'émergence d'espèces à affinité marine a permis de mettre en évidence la première étape d'une marinisation de la lagune. Ces résultats soulignent l'impact significatif d'un nouvelle politique de gestion de cette zone côtière particulière. Nous nous sommes ensuite intéressés à la dynamique du phytoplancton à l'échelle de la journée reflet des variations rapides de l'environnement. / The study of the relationship between variations in phytoplankton abundance and environmental forces (natural or anthropogenic) in shallow brackish areas is essential to both understanding and managing this complex ecosystem. Over a 16 year (1994-2011) monthly monitoring program the relationships between physicochemical variables (temperature, salinity and nutrients) and phytoplankton assemblages of the Berre Lagoon were analyzed. Using data collected from this long-term study, we have addressed environmental management issues through the application of advanced statistical analyses and original data displays. These analyses and data displays can readily be applied to other data sets related to the environment, with the aim of informing both researcher and practitioner. Since 2004, a new policy for freshwater discharge has induced strong changes in the global salinity of the lagoon : a weakened stratification and a rarefaction of anoxia phenomena in its deepest part. A shift in the structure of the phytoplankton community has been observed in association with changes in environmental conditions. An increase of phytoplanktonic species richness, and more precisely, the emergence of species with marine affinity highlights the first step of a marinization of the lagoon. The results underline the significant impact of a new management policy in this specific coastal zone. We then focused on the response of phytoplankton to quick environmental variations. An original approach for automated high frequency analysis of phytoplankton was adopted with the use of an autonomous flow cytometer (CytoSense).
|
36 |
Etude du comportement hydraulique, physico-chimique et microbiologique d'un système de récupération d'eaux de toiture. Evaluation de l'empreinte environnementale / Hydraulic, physicochemical and microbiological study of a roof runoff harvesting system and environmental assessmentVialle, Claire 21 October 2011 (has links)
L'objectif de ces travaux est de contribuer à augmenter la connaissance sur la réutilisation des eaux de ruissellement de toiture. Une maison individuelle située en zone rurale et équipée d'une toiture en tuiles, et un bâtiment collectif situé en zone périurbaine avec une toiture terrasse bitumée, ont été étudiés. Les eaux de pluie collectées sont réutilisées dans l'habitat pour l'alimentation des chasses d'eau. Un suivi analytique a permis l'étude de la qualité de l'eau en plusieurs points des systèmes. Les eaux stockées sont clairement non potables et révèlent une contamination microbiologique très variable. Des pathogènes ont été quantifiés à plusieurs reprises. La qualité de l'eau distribuée ne peut donc pas être garantie au cours de l'année, d'où la recommandation d'une désinfection de l'eau avant distribution. Un suivi hydraulique a permis de déterminer les volumes d'eau potable substitués et les taux de couverture de besoins en eau. Un modèle du comportement hydraulique a été développé puis utilisé pour discuter le dimensionnement des cuves. En présence d'une désinfection, les installations ne sont économiquement pas rentables. En l'absence de désinfection, le bilan économique est positif mais la période de retour sur investissement supérieure à la durée de vie de l'installation. Une première analyse de cycle de vie a été réalisée pour comparer les deux échelles étudiées. Dans les deux cas, les processus les plus impactants sont liés aux consommations électriques de l'éventuelle désinfection ultra-violet et des pompes. En présence d'une désinfection, l'échelle du bâtiment collectif présente des impacts plus faibles. Une deuxième analyse de cycle de vie a été réalisée pour étudier la pertinence de la substitution de l'eau du réseau d'eau public par de l'eau de pluie à l'échelle d'un particulier. Elle n'est pas probante d'un point de vue environnemental. / The aim of this work is to contribute to knowledge on roof runoff reuse. A private house located in rural area with a tiled sloping roof and a research building located in suburban zone with a bituminous flat roof were studied. The collected rainwater is reused for toilet flushing. An analytical monitoring allowed the study of water quality in several points of the systems. Stored rainwater is clearly non drinkable and reveals a very variable microbiological contamination. Pathogenic agents were quantified on several occasions. Distributed water quality cannot thus be guaranteed over the year and a disinfection before distribution is recommended. A hydraulic follow-up made it possible to determine substituted volumes of drinking water by collected rainwater and water saving efficiencies. A model of the hydraulic behaviour of systems was developed then used to discuss dimensioning of the tanks. In the presence of disinfection, the installations are economically not profitable. In the absence of disinfection, the economic assessment is positive but the payback period is longer than the lifespan of the installation. A first life cycle assessment was carried out to compare the two studied scales. In both cases, the more impacting processes are related to electricity consumptions of possible ultra-violet disinfection and the pumps. In the presence of disinfection, the scale of the building presents weaker impacts. A second life cycle assessment was carried out to study the relevance of the substitution of drinking water by rainwater on a private individual scale. It is not convincing of an environmental point of view.
|
37 |
Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMALafaye De Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité pour les innovations d'un modèle ARMA( p,q ) de tendance et moyenne connues, basé sur l'approche du test lisse dépendant des données et simple à appliquer. Une vaste étude de simulation est menée pour étudier ce test pour des tailles échantillonnales modérées. Notre approche est en général plus puissante que les tests existants. Le niveau est tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats théoriques montrant la supériorité de l'approche du test lisse dépendant des données dans des contextes similaires. Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans supposer la normalité jointe de ces marginales. La statistique de test est une fonctionnelle de type Cramér-von Mises d'un processus défini à partir de la fonction caractéristique empirique. Ce processus est défini de façon similaire à celui de Ghoudi et al. (2001) construit à partir de la fonction de répartition empirique et utilisé pour tester l'indépendance entre des marginales univariées. La statistique de test peut être représentée comme une V-statistique. Il est convergent pour détecter toute forme de dépendance. La convergence faible du processus est établie. La distribution asymptotique des fonctionnelles de Cramér-von Mises est approchée par la méthode de Cornish-Fisher au moyen d'une formule de récurrence pour les cumulants et par le calcul numérique des valeurs propres dans la formule d'inversion. La statistique de test est comparée avec celle de Wilks pour l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à un facteur avec effets aléatoires.
|
38 |
Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétiqueLe Floch, Edith 28 September 2012 (has links) (PDF)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
|
39 |
Proposition de modes de visualisation et d'interaction innovants pour les grandes masses de données et/ou les données structurées complexes en prenant en compte les limitations perceptives des utilisateurs / Proposal of innovative visualization and interaction metaphors for huge amount of data and / or complex data by taking into account perceptualCantu, Alma 15 February 2018 (has links)
Suite à l’amélioration des outils de capture et de stockage des données, ces dernières années ont vu les quantités de données à traiter croître énormément. De nombreux travaux, allant du traitement automatique à la visualisation d’information, ont alors été mis en place, mais certains domaines sont encore trop spécifiques pour en profiter. C’est le cas du Renseignement d’Origine ÉlectroMagnétique (ROEM). Ce domaine ne fait pas uniquement face à de grandes quantités de données mais doit aussi gérer des données et des usages complexes ainsi que des populations d’utilisateurs ayant de moins en moins d’expérience. Dans cette thèse nous nous sommes intéressés à l’usage de l’existant et des nouvelles technologies appliquées à la visualisation pour proposer des solutions à la combinaison de problématiques comme les données en grandes quantité et les données complexes. Nous commençons par présenter une analyse du domaine du ROEM qui a permis d’extraire les problématiques auxquelles il doit faire face. Nous nous intéressons ensuite aux solutions gérant les combinaisons de telles problématiques. L’existant ne contenant pas directement de telles solutions, nous nous intéressons alors à la description des problématiques de visualisation et proposons une caractérisation de ces problématiques. Cette caractérisation nous permet de décrire les représentations existantes et de mettre en place un outil de recommandation des représentations basé sur la façon dont l’existant résout les problématiques. Enfin nous nous intéressons à identifier de nouvelles métaphores pour compléter l’existant et proposons une représentation immersive permettant de résoudre les problématiques du ROEM. Ces contributions permettent d’analyser et d’utiliser l’existant et approfondissent l’usage des représentations immersives pour la visualisation d’information. / As a result of the improvement of data capture and storage, recent years have seen the amount of data to be processed increase dramatically. Many studies, ranging from automatic processing to information visualization, have been performed, but some areas are still too specific to take advantage of. This is the case of ELectromagnetic INTelligence(ELINT). This domain does not only deal with a huge amount of data but also has to handle complex data and usage as well as populations of users with less and less experience. In this thesis we focus on the use of existing and new technologies applied to visualization to propose solutions to the combination of issues such as huge amount and complex data. We begin by presenting an analysis of the ELINT field which made it possible to extract the issues that it must faces. Then, we focus on the visual solutions handling the combinations of such issues but the existing work do not contain directly such solutions. Therefore, we focus on the description of visual issues and propose a characterization of these issues. This characterization allows us to describe the existing representations and to build a recommendation tool based on how the existing work solves the issues. Finally, we focus on identifying new metaphors to complete the existing work and propose an immersive representation to solve the issues of ELINT. These contributions make it possible to analyze and use the existing and deepen the use of immersive representations for the visualization of information.
|
40 |
Performance of the Electromagnetic Calorimeter of AMS-02 on the International Space Station ans measurement of the positronic fraction in the 1.5 – 350 GeV energy range. / Performances du calorimètre électromagnétique d'AMS02 sur la station spatiale internationale et mesure du rapport positronique dans le domaine en énergie 1.5-350 giga électron voltBasara, Laurent 05 May 2014 (has links)
L'expérience AMS-02 est un détecteur de particules installé sur la station spatiale internationale (ISS) depuis mai 2011, date à partir de laquelle il mesure les caractéristiques des rayons cosmiques afin d'apporter des réponses aux problématiques soulevées par la physique des astroparticules depuis quelques décennies, en particulier l'étude indirecte de la matière sombre et la recherche d'antimatière. Les aspects phénoménologiques de la physique des rayons cosmiques sont revus dans la première partie. Une deuxième décrit les performances en vol des différents sous-détecteurs d'AMS-02, en particulier du calorimètre électromagnétique. Il est montré, en utilisant les particules au minimum d'ionisation (MIPs), qui constituent l'essentiel du rayonnement cosmique, que le calorimètre fonctionne comme prévu, et que l'on retrouve les mêmes performances qu'au sol. Cette étude est utilisée pour suivre au cours du temps l'évolution des performances du détecteur. Elle permet également de développer un estimateur de charge pour les noyaux utilisant le calorimètre. Une troisième et dernière partie s'attache enfin à déterminer le rapport positronique. La principale difficulté de cette mesure est d'identifier les positons en rejetant les protons grâce aux caractéristiques des gerbes dans la calorimètre. Après avoir défini des variables pertinentes pour cette séparation, nous construisons un estimateur via une analyse multivariée, en nous appuyant sur des simulations Monte-Carlo d'électrons pour les plus hautes énergies. Au-delà de 100 GeV, nous obtenons un taux de réjection de l'ordre de 10 000 pour 90% d'efficacité. Après avoir estimé la confusion de charge, cet estimateur nous permet finalement, de déterminer le rapport positronique pour les données acquises pendant les 18 premiers mois et pour des énergies allant de 1.5 à 350 GeV. / The AMS-02 experiment is a particle detector installed on the International Space Station (ISS) since May 2011, which measures the characteristics of the cosmic rays to bring answers to the problematics risen by the astroparticle physics since a few decades, in particular the study of dark matter and the search of antimatter. The phenomenological aspects of the physics of cosmic rays are reviewed in a first part. A second one describes the in-flight performances of the different subdetectors of AMS-02, in particular the electromagnetic calorimeter. It is shown, using particles at the ionizing minimum (MIPs), accounting for the main part of cosmic rays, that the calorimeter works as expected, and we find the same performances as on ground. This study is used to follow in time the evolution of the detector performances. It also allows to develop a charge estimator for the nuclei using the calorimeter. A third and final part, deals with the determination of the positronic fraction. The main difficulty of this measurement is to identify the positrons by rejecting the protons thanks to the characteristics of the showers in the calorimeter. After having defined variables relevant for this separation, we build an estimator using a multivariate analysis and Monte-Carlo simulations of electrons for the higher energies. Above 100 GeV, we obtain a rejection factor of about 10 000 at a 90% efficiency. After having estimated the charge confusion, this estimator, finally, allows us to determine the positronic ratio for the first 18 months of data and energies ranging from 1.5 to 350 GeV.
|
Page generated in 0.1032 seconds