Spelling suggestions: "subject:"multivariée"" "subject:"multivariable""
1 |
Approaches to inverse problems in chemical imaging : applications in super-resolution and spectral unmixing / Approches aux problèmes inverses en imagerie chimique : application aux images de fluorescence super-résolue et images hyperspectralesHugelier, Siewert 01 December 2017 (has links)
L’imagerie chimique permet d’accéder à la distribution spatiale des espèces chimiques. Nous distinguerons dans cette thèse deux types d’images différents: les images spatiales-temporelles et les images spatiales-spectrales.La microscopie de fluorescence super-résolue a commencé avec un faible nombre de fluorophores actifs par image. Actuellement, ça a évolué vers l’imagerie en haute densité qui requiert de nouvelles façons d’analyse. Nous proposons SPIDER, une approche de déconvolution par moindres carrés pénalisés. La considération de plusieurs pénalités permet de traduire les propriétés des émetteurs utilisés dans l'imagerie de fluorescence super-résolue. L'utilisation de cette méthode permet d'étudier des changements structuraux et morphologiques dans les échantillons biologiques. La méthode a été appliquée à l’imagerie sur cellules vivantes d’une cellule HEK-293T encodée par la protéine fluorescente DAKAP-Dronpa. On a pu obtenir une résolution spatiale de 55nm pour un temps d’acquisition de 0.5s.La résolution d'images hyperspectrales avec MCR-ALS fournit des informations spatiales et spectrales des contributions individuelles dans le mélange. Néanmoins, le voisinage des pixels est perdu du fait du dépliement du cube de données hyperspectrales sous forme d’une matrice bidirectionnelle. L’implémentation de contraintes spatiales n’est donc pas possible en MCR-ALS. Nous proposons une approche alternative dans laquelle une étape de repliement/dépliement est effectuée à chaque itération qui permet d’ajouter des fonctionnalités spatiales globales à la palette des contraintes. Nous avons développé plusieurs contraintes et on montre leur application aux données expérimentales. / Besides the chemical information, chemical imaging also offers insights in the spatial distribution of the samples. Within this thesis, we distinguish between two different types of images: spatial-temporal images (super-resolution fluorescence microscopy) and spatial-spectral images (unmixing). In early super-resolution fluorescence microscopy, a low number of fluorophores were active per image. Currently, the field evolves towards high-density imaging that requires new ways of analysis. We propose SPIDER, an image deconvolution approach with multiple penalties. These penalties directly translate the properties of the blinking emitters used in super-resolution fluorescence microscopy imaging. SPIDER allows investigating highly dynamic structural and morphological changes in biological samples with a high fluorophore density. We applied the method on live-cell imaging of a HEK-293T cell labeled with DAKAP-Dronpa and demonstrated a spatial resolution down to 55 nm and a time sampling of 0.5 s. Unmixing hyperspectral images with MCR-ALS provides spatial and spectral information of the individual contributions in the mixture. Due to loss of the pixel neighborhood during the unfolding of the hyperspectral data cube to a two-way matrix, spatial information cannot be added as a constraint during the analysis We therefore propose an alternative approach in which an additional refolding/unfolding step is performed in each iteration. This data manipulation allows global spatial features to be added to the palette of MCR-ALS constraints. From this idea, we also developed several constraints and show their application on experimental data.
|
2 |
Méthodes de résolution dédiées à l'étude spectroscopique de processus photoinduits : adaptation aux spécificités des spectres résolus en temps / Resolution methods dedicated to spectroscopic study of photoinduced process : adaptation to the specificities of time resolved spectra / Análisis multivariante de espectros resueltos en el tiempoBlanchet, Lionel 27 November 2008 (has links)
L'analyse pertinente de l'information contenue dans les mesures instrumentales modernes nécessite le développement de méthodes algorithmiques performantes. La spectroscopie n'échappant pas à cette règle, nombre d'outils chimiométriques d'analyse multivariée ont été mis au point en conséquence. L'objectif de cette thèse est de participer à ces développements pour caractériser les spectres et les profils de concentration des composés intervenant lors de réactions photoinduites suivies en spectroscopique résolue en temps. Un premier travail concerne l'analyse du rang de données de différence. Une déficience de rang systématique de ces données a été mise en évidence. Une approche basée sur un algorithme de modélisation hybride est proposée en réponse à ce problème. En effet l'introduction d'un modèle cinétique compense cette déficience de rang des données. Le deuxième travail se rapporte à la caractérisation de l'influence du bruit (d'une part sur la mesure et d'autre part sur la résolution multivariée). Une analyse de la structure de corrélation du bruit permet d'expliquer les phénomènes de surajustement des méthodes de modélisation souple. Un second algorithme résout ce problème en pondérant les données en fonction d'une estimation de l'erreur de mesure. Ces points sont illustrés par deux applications; premièrement une contribution à l'analyse du centre réactionnel de la bactérie Rhodobacter sphaeroides par spectroscopie lRTF et ensuite l'étude de la photorelaxation de la benzophénone par spectroscopie d'absorption transitoire. / Pertinent analysis of the information embedded in modern instrumental measurements requires the development of efficient mathematical and statistical tools. ln spectroscopy, various tools have been proposed in such purpose. The aim of this thesis is to participate to these developments in order to characterize the spectra and concentration profiles of the compounds involved in photoinduced reactions monitored by time-resolved spectroscopy. A first part of this work is related to the rank analysis of difference data. A systematic rank deficiency has been demonstrated in this case. An approach based on a hybrid algorithm is proposed as a solution to this problem. lndeed the introduction of a kinetic model compensates this rank deficiency. A second part of the work deals with the characterisation of the noise influence (firstly on measurement and then on multivariate resolution). An analysis of the correlations structure of the noise permit to explain the overfitting phenomenon observed with soft modelling methods. A second algorithm solves this problem through a weighting scheme involving an estimation of the measurement error.These points are illustrated by two applications: first, a contribution to the analysis of the reaction centre of Rhodobacter sphaeroides by FTIR spectroscopy; then the study of the benzophenone photorelaxation by transient absorption spectroscopy.
|
3 |
Approche métabolomique par résonance magnétique nucléaire du proton dans l'évaluation des hépatopathies stéatosiques non alcooliques et dans le suivi d'un traitement curatif du carcinome hépatocellulaire / 1H NMR-Metabolomics approaches in the assessment of the non-alcoholic fatty liver diseases and in the follow-up of the hepatocellular cacinoma curative treatmentGoossens, Corentine 10 December 2015 (has links)
Les atteintes hépatiques, asymptomatiques pour la plupart d’entre elles et pouvant évoluer vers des complications sévères telles que le carcinome hépatocellulaire (CHC) sont responsables de plus de 15 000 décès par an en France. Le manque de marqueurs cliniques et biologiques fiables pour déterminer le degré de sévérité de l’hépatopathie ainsi que pour reconnaître les stades précoces du CHC constitue actuellement un obstacle majeur à une prise en charge optimale de la maladie. Grâce aux approches de type métabolomique et aux techniques analytiques telles que la résonance magnétique nucléaire, il est désormais possible d’obtenir une véritable cartographie des métabolites d’un individu. L’objectif de ce travail a été d’explorer, par une approche RMN métabolomique, les changements métaboliques dans le foie et dans le sérum causés par différentes pathologies hépatiques afin de proposer de nouvelles pistes dans l’amélioration du diagnostic et de la prise en charge de ces maladies. Une attention particulière a également été donnée à l’étude de la validité des paramètres de qualité des modèles de discrimination réalisés lors des analyses statistiques des données multivariées. / Most liver diseases nowadays remain symptomless and tend to lead to hepatocellular carcinoma responsible for more than 15.000 patient deaths per year in France. Liver diseases are therefore a major concern for public health.Clinicians lack of non-invasive biomarkers allowing them to enhance identification of liver diseases stages in order to efficiently target the first HCC signs and accordingly improve clinical prognosis.Identification of new biomarkers set new challenges in translational research in order torefine the prognosis and adapt therapeutic procedures.Proton nuclear magnetic resonance spectroscopy-based metabolomics enable to identifyand quantify such metabolites by defining individual metabolic fingerprints.First part of this work was to explore the metabolic modifications of liver tissue to further establish diseases stages profiles.Second part was focused on the assessment of metabolic variations in HCC patients, by analyzing sequential serums taking, before and after a radiofrequency ablation curative treatment.Third and last part was centered on the validation of the quality parameters of the discriminant models used in multivariate statistical analysis.
|
4 |
Prévisions robustes pour séries temporelles multivariéesGagné, Christian January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
5 |
Les populations du Néolithique moyen autour du Bassin lémanique : une approche anthropométrique / Middle neolithic populations around Lemanic basin : an anthropomometrical approachCivetta, Aude 15 January 2010 (has links)
Le Néolithique moyen (4500-3500 av. J.-C) est une période transitoire entre deux phases importantes de la préhistoire récente : la néolithisation des territoires occidentaux de l’Europe au Néolithique ancien et la multiplication des identités culturelles au Néolithique final. Longtemps considérée comme une période de « stabilisation » des groupes humains, les recherches archéologiques ont montré la complexité de cette période particulière de la Préhistoire récente. Les Alpes se situent à la confluence de plusieurs aires chronoculturelles et présentent à ce niveau un intéressant terrain d’étude. Notre étude se porte sur plusieurs populations appartenant à cette phase chronologique. Plusieurs analyses statistiques univariées et multivariées ont été effectuées à partir des données métriques crâniennes et infracrâniennes des groupes appartenant à la région du Bassin lémanique afin de percevoir leur variabilité diachronique. Puis, ils ont été comparés à des populations chronologiquement similaires, mais appartenant à d’autres aires chronoculturelles voisines. La morphologie crânienne ne nous a pas permis de mettre en évidence de variations dans les groupes lémaniques au cours du millénaire considéré, qui paraissent ainsi présenter une certaine stabilité morphologique. Toutefois, un gradient morphologique est perceptible entre les différentes populations occidentales considérées dans notre échantillon. La forme et le format infracrâniens nous ont permis d’avancer plusieurs hypothèses quant aux conditions et modes de vie de ces différentes populations. Ils remettent en question la définition initiale des populations du Néolithique moyen à savoir une réduction du format et une tendance à la gracilisation et montrent, au contraire, une certaine variation des caractères de forme et de format qui semble dépendante du contexte environnemental dans lequel évoluaient ces groupes humains. / The mid Neolithic period (4500-3500 BC) is a transitional one, between two important phases of recent prehistory: neolithization of western Europe’s territories in the ancient neolithic period and the multiplication of cultural identities in the final Neolithic period. For a long time, it has been considered the « stabilisation » period of the human groups. Archaeological research has shown the complexity of this particular period of recent prehistory. The Alps are located at the confluence of several chronocultural eras and are thus an interesting study ground. Our study deals with several populations of this particular chronological period. Several statistical analysis, univariate and multivariate, were carried out using cranial and infracranial metric based data on groups from the Geneva lake Basin to determine their diachronic variability. Then they were compared to other similar populations of the same period, from neighbouring areas. The cranial morphology based findings did not highlight any variations in Geneva Basin groups during the millennium studied which seems to prove a morphological stability. However, a morphological gradient is discernible between the different western populations sampled. Infracranial shapes and sizes have allowed us to put forward several hypotheses about the conditions and way of life during that period of time. They question the initial definition of middle Neolithic population, i.e. format reduction and a tendency to slenderness, but show on the contrary a certain form and size variation, which seem to be dependant on the environmental context in which these human groups were living.
|
6 |
Recherche du boson de Higgs standard léger dans le canal WH avec la statistique finale de l'expérience DØ au Tevatron / Search for a standard Higgs boson in the WH associated production channel with the final statistics of the Tevatron DØ experimentMiconi, Florian 20 June 2012 (has links)
Le mécanisme de Higgs, introduit en 1964, propose une solution à un problème majeur du modèle standard de la physique des particules : l'origine de la masse. Ce mécanisme prédit l'existence d'un boson scalaire, de masse non prédite par la théorie et qui n'a encore jamais été observé expérimentalement (Juin 2012). Le Tevatron, un accélérateur hadronique basé à Fermi National Accelerator Laboratory près de Chicago, a permis la prise de données à l'aide des deux détecteurs CDF et DØ depuis 1983 jusqu'en septembre 2011. Accumulant une statistique de près de 10fb-1 à analyser. La production associée du Higgs et d'un boson vecteur est le canal principal de recherche pour un Higgs standard léger. A l'aide des données collectées par DØ, nous recherchons ce mode de production. La production du boson de Higgs étant très rare, nous avons développé des techniques sophistiquées de manière à améliorer la sensibilité au signal, telles que l'identification des jets de quarks beaux ou encore des méthodes basées sur des discriminants multivariés. Au final, une approche statistique nous permet de poser une limite supérieure sur le taux de production du Higgs observé (resp. attendu) rapporté aux prédictions du modèle standard. Les résultats obtenus dans le canal WH avec la statistique finale de l'expérience DØ au Tevatron sont de 3.15 (resp. 3.97) pour un boson de Higgs de 115 GeV/C2. / Higgs mechanism, introduced in 1964, gives a satisfactory solution to a major problem of the standard model of elementary particles : the origin of the mass. It predicts the existence of the Higgs scalar boson, which mass is not defined by the theory and which has not been discovered experimentally yet (June 2012). The Tevatron, a hadron accelerator based at Fermi National Accelerator Laboratory near Chicago, took data with its two multi-purpose detectors CDF and DØ since 1983 up to september 2011. Leaving about 10 fb-1 of statistics to analyze. Associated production of Higgs and vector gauge boson is the main search channel for a light standard Higgs boson. Using data collected by DØ, we are looking for this production mode taking advantage of sophisticated techniques to improve the signal sensitivity like b-jet identification and multivariate discriminants. In the end, a statistical approach allows us to set an upper limit on the ratio between the observed (resp. expected) Higgs production and its theoretical cross section. The results obtained in the WH channel using 9.7 fb-1 at DØ is 3;15 (resp. 3.96) for a 115 GeV/c2 Higgs boson.
|
7 |
Analyses de macrophages : de la lipidomique à l'oxylipidomique / Macrophages analysis : from lipidomic to oxylipidomicSayet, Guillaume 21 September 2018 (has links)
L’athérosclérose est un phénomène inflammatoire caractérisé par un dépôt sur les artères de macrophages gorgés de cholestérol également appelés cellules spumeuses. Actuellement, trois principales molécules membranaires sont décrites comme assurant la sortie du cholestérol libre, dont l’ABCA1 (ATP Binding Cassette A1) qui joue un rôle physiologique important. Le but de ce travail est d’étudier l’impact de l’incorporation d’acides gras ω3 et celui de LDL modifiées sur la composition des phospholipides membranaires et d’établir des liens entre la modification de composition des phospholipides et l’altération du fonctionnement de l’ABCA1. Une étude lipidomique a été menée, en utilisant des méthodes de chromatographie couplées à la spectrométrie de masse. Les analyses ont été réalisées au moyen d’un système de chromatographie liquide en phase normale (NP-LC) permettant la séparation des différents phospholipides. La détection a été réalisée à l’aide de spectromètres de masse (MS) basse et ultra-haute résolution, ainsi que d’un détecteur à aérosol chargé. La chromatographie en phase gazeuse permet de connaître les proportions relatives d’acides gras. Ces techniques ont été utilisées pour réaliser une étude sur les paramètres de prétraitement (en amont du traitement des signaux analytiques), de décrire le lipidome de différents types de macrophages et d’établir les modifications de composition des phospholipides lors d’ajout chronique d’acides gras ω3 et/ou de LDL modifiées. Les résultats obtenus ont permis de définir une méthode de prétraitement de données LC-MS, d’évaluer la composition de trois types de macrophages et de modéliser les variations de l’efflux du cholestérol avec les modifications phospholipidiques observées pour les macrophages non spumeux. A partir de ces éléments, des thématiques communes, chimie biologie, ont pu aussi être identifiées comme l’analyse de «l’oxylipidome». / Atherosclerosis is an inflammatory disease characterized by a deposit on the arteries of macrophages full of cholesterol also called foam cells. Currently, three main membrane molecules are described as ensuring the release of free cholesterol, of which ABCA1 (ATP Binding Cassette A1) plays an important physiological role. The purpose of this work is to study the impact of the incorporation of ω3 fatty acids and modified LDL on membrane phospholipids composition and to establish the relationship between modification of the phospholipid composition and functionality of ABCA1. A lipidomic study was conducted using chromatographic methods coupled with mass spectrometry. Analyzes were carried out using normal phase liquid chromatography (NP-LC) allowing the separation of the different phospholipid classes. Detection was performed using low and ultra-high resolution mass spectrometers (MS) and a charged aerosol detector. Gas chromatography is used to determine fatty acids proportions. These techniques were used to study pretreatment parameters, to describe different macrophages lipidome and to establish phospholipid modifications during ω3 fatty acids chronic addition and / or modified LDL. The results obtained made it possible to define a method for LC-MS data pretreatment, to evaluate the composition of three types of macrophages, to model the variations of cholesterol efflux with the phospholipid modifications observed for non-foamy macrophages. From these elements, common themes, chemistry biology, could also be identified as the analysis of "oxylipidome".
|
8 |
A consistent test of independence between random vectorsBoglioni Beaulieu, Guillaume 11 1900 (has links)
Tester l’indépendance entre plusieurs vecteurs aléatoires est une question importante
en statistique. Puisqu’il y a une infinité de manières par lesquelles une
quantité aléatoire X peut dépendre d’une autre quantité aléatoire Y , ce n’est pas
une question triviale, et plusieurs tests “classiques” comme Spearman [33], Wilks
[40], Kendall [18] ou Puri and Sen [24] sont inefficaces pour détecter plusieurs
formes de dépendance. De significatifs progrès dans ce domaine ont été réalisés
récemment, par exemple dans Székely et al. [34], Gretton et al. [14] ou Heller
et al. [15]. Cela dit, la majorité des tests disponibles détectent l’indépendance
entre deux quantités aléatoires uniquement. L’indépendance par paires ne garantissant
pas l’indépendance mutuelle, il est pertinent de développer des méthodes
testant l’hypothèse d’indépendance mutuelle entre n’importe quel nombre de variables.
Dans cette recherche nous proposons un test non-paramétrique et toujours
convergent, applicable à un nombre quelconque de vecteurs aléatoires.
Précisément, nous étendons la méthode décrite dans Heller et al. [15] de deux
manières. Premièrement, nous proposons d’appliquer leur test aux rangs des observations,
plutôt qu’aux observations elles-mêmes. Ensuite, nous étendons leur
méthode pour qu’elle puisse tester l’indépendance entre un nombre quelconque
de vecteurs. La distribution de notre statistique de test étant inconnue, nous
utilisons une méthode de permutations pour calculer sa valeur-p. Des simulations
sont menées pour obtenir la puissance du test, que nous comparons à celles
d’autres test décrits dans Genest and Rémillard [10], Gretton et al. [14], Székely
et al. [34], Beran et al. [3] et Heller et al. [15]. Nous investiguons divers exemples
et dans plusieurs de ceux-ci la puissance de notre test est meilleure que celle des
autres tests. En particulier, lorsque les variables aléatoires sont Cauchy notre test
performe bien mieux que les autres. Pour le cas de vecteurs aléatoires strictement
discrets, nous présentons une preuve que notre test est toujours convergent. / Testing for independence between random vectors is an important question in statistics.
Because there is an infinite number of ways by which a random quantity
X can be dependent of another random quantity Y , it is not a trivial question.
It has been found that classical tests such has Spearman [33],Wilks [40], Kendall
[18] or Puri and Sen [24] are ineffective to detect many forms of dependence.
Recent, significant results on the topic include Székely et al. [35], Gretton et al.
[14] or Heller et al. [15]. However, most of the available tests can only detect dependence
between two random quantities. Because pairwise independence does
not guarantee mutual independence, techniques testing the hypothesis of mutual
independence between any number of random quantities are required. In this
research we propose a non-parametric and universally consistent test of independence,
applicable to any number of random vectors of any size.
Precisely, we extend the procedure described in Heller et al. [15] in two ways.
Firstly, we propose to use the ranks of the observations instead of the observations
themselves. Secondly, we extend their method to test for independence between
any number of random vectors. As the distribution of our test statistic is not
known, a permutation method is used to compute p−values. Then, simulations
are performed to obtain the power of the test. We compare the power of our new
test to that of other tests, namely those in Genest and Rémillard [10], Gretton
et al. [14], Székely et al. [34], Beran et al. [3] and Heller et al. [15]. Examples featuring
random variables and random vectors are considered. For many examples
investigated we find that our new test has similar or better power than that of
the other tests. In particular, when the random variables are Cauchy, our new
test outperforms the others. In the case of strictly discrete random vectors, we
present a proof that our test is universally consistent.
|
9 |
Les friches agricoles herbacées et arbustives du sud-ouest québécois étudiées par une approche écologique et sociologique inspirée de l'écologie du paysageBenjamin, Karyne January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
10 |
Recherche du boson de Higgs standard léger dans le canal WH avec la statistique finale de l'expérience DØ au TevatronMiconi, Florian 20 June 2012 (has links) (PDF)
Le mécanisme de Higgs, introduit en 1964, propose une solution à un problème majeur du modèle standard de la physique des particules : l'origine de la masse. Ce mécanisme prédit l'existence d'un boson scalaire, de masse non prédite par la théorie et qui n'a encore jamais été observé expérimentalement (Juin 2012). Le Tevatron, un accélérateur hadronique basé à Fermi National Accelerator Laboratory près de Chicago, a permis la prise de données à l'aide des deux détecteurs CDF et DØ depuis 1983 jusqu'en septembre 2011. Accumulant une statistique de près de 10fb-1 à analyser. La production associée du Higgs et d'un boson vecteur est le canal principal de recherche pour un Higgs standard léger. A l'aide des données collectées par DØ, nous recherchons ce mode de production. La production du boson de Higgs étant très rare, nous avons développé des techniques sophistiquées de manière à améliorer la sensibilité au signal, telles que l'identification des jets de quarks beaux ou encore des méthodes basées sur des discriminants multivariés. Au final, une approche statistique nous permet de poser une limite supérieure sur le taux de production du Higgs observé (resp. attendu) rapporté aux prédictions du modèle standard. Les résultats obtenus dans le canal WH avec la statistique finale de l'expérience DØ au Tevatron sont de 3.15 (resp. 3.97) pour un boson de Higgs de 115 GeV/C2.
|
Page generated in 0.0632 seconds