301 |
Contributions to robust methods in nonparametric frontier modelsBruffaerts, Christopher 10 September 2014 (has links)
Les modèles de frontières sont actuellement très utilisés par beaucoup d’économistes, gestionnaires ou toute personne dite « decision-maker ». Dans ces modèles de frontières, le but du chercheur consiste à attribuer à des unités de production (des firmes, des hôpitaux ou des universités par exemple) une mesure de leur efficacité en terme de production. Ces unités (dénotées DMU-Decision-Making Units) utilisent-elles à bon escient leurs « inputs » et « outputs »? Font-elles usage de tout leur potentiel dans le processus de production? <p>L’ensemble de production est l’ensemble contenant toutes les combinaisons d’inputs et d’outputs qui sont physiquement réalisables dans une économie. De cet ensemble contenant p inputs et q outputs, la notion d’efficacité d ‘une unité de production peut être définie. Celle-ci se définie comme une distance séparant le DMU de la frontière de l’ensemble de production. A partir d’un échantillon de DMUs, le but est de reconstruire cette frontière de production afin de pouvoir y évaluer l’efficacité des DMUs. A cette fin, le chercheur utilise très souvent des méthodes dites « classiques » telles que le « Data Envelopment Analysis » (DEA).<p><p>De nos jours, le statisticien bénéficie de plus en plus de données, ce qui veut également dire qu’il n’a pas l’opportunité de faire attention aux données qui font partie de sa base de données. Il se peut en effet que certaines valeurs aberrantes s’immiscent dans les jeux de données sans que nous y fassions particulièrement attention. En particulier, les modèles de frontières sont extrêmement sensibles aux valeurs aberrantes et peuvent fortement influencer l’inférence qui s’en suit. Pour éviter que certaines données n’entravent une analyse correcte, des méthodes robustes sont utilisées.<p><p>Allier le côté robuste au problème d’évaluation d’efficacité est l’objectif général de cette thèse. Le premier chapitre plante le décor en présentant la littérature existante dans ce domaine. Les quatre chapitres suivants sont organisés sous forme d’articles scientifiques. <p>Le chapitre 2 étudie les propriétés de robustesse d’un estimateur d’efficacité particulier. Cet estimateur mesure la distance entre le DMU analysé et la frontière de production le long d’un chemin hyperbolique passant par l’unité. Ce type de distance très spécifique s’avère très utile pour définir l’efficacité de type directionnel. <p>Le chapitre 3 est l’extension du premier article au cas de l’efficacité directionnelle. Ce type de distance généralise toutes les distances de type linéaires pour évaluer l’efficacité d’un DMU. En plus d’étudier les propriétés de robustesse de l’estimateur d’efficacité de type directionnel, une méthode de détection de valeurs aberrantes est présentée. Celle-ci s’avère très utile afin d’identifier les unités de production influençantes dans cet espace multidimensionnel (dimension p+q). <p>Le chapitre 4 présente les méthodes d’inférence pour les efficacités dans les modèles nonparamétriques de frontière. En particulier, les méthodes de rééchantillonnage comme le bootstrap ou le subsampling s’avère être très utiles. Dans un premier temps, cet article montre comment améliorer l’inférence sur les efficacités grâce au subsampling et prouve qu’il n’est pas suffisant d’utiliser un estimateur d’efficacité robuste dans les méthodes de rééchantillonnage pour avoir une inférence qui soit fiable. C’est pourquoi, dans un second temps, cet article propose une méthode robuste de rééchantillonnage qui est adaptée au problème d’évaluation d’efficacité. <p>Finalement, le dernier chapitre est une application empirique. Plus précisément, cette analyse s’intéresse à l ‘efficacité des universités américaines publiques et privées au niveau de leur recherche. Des méthodes classiques et robustes sont utilisées afin de montrer comment tous les outils étudiés précédemment peuvent s’appliquer en pratique. En particulier, cette étude permet d’étudier l’impact sur l’efficacité des institutions américaines de certaines variables telles que l’enseignement, l’internationalisation ou la collaboration avec le monde de l’industrie.<p> / Doctorat en sciences, Orientation statistique / info:eu-repo/semantics/nonPublished
|
302 |
Bayesian multiple hypotheses testing with quadratic criterion / Test bayésien entre hypothèses multiples avec critère quadratiqueZhang, Jian 04 April 2014 (has links)
Le problème de détection et localisation d’anomalie peut être traité comme le problème du test entre des hypothèses multiples (THM) dans le cadre bayésien. Le test bayésien avec la fonction de perte 0−1 est une solution standard pour ce problème, mais les hypothèses alternatives pourraient avoir une importance tout à fait différente en pratique. La fonction de perte 0−1 ne reflète pas cette réalité tandis que la fonction de perte quadratique est plus appropriée. L’objectif de cette thèse est la conception d’un test bayésien avec la fonction de perte quadratique ainsi que son étude asymptotique. La construction de ce test est effectuée en deux étapes. Dans la première étape, un test bayésien avec la fonction de perte quadratique pour le problème du THM sans l’hypothèse de base est conçu et les bornes inférieures et supérieures des probabilités de classification erronée sont calculées. La deuxième étape construit un test bayésien pour le problème du THM avec l’hypothèse de base. Les bornes inférieures et supérieures des probabilités de fausse alarme, des probabilités de détection manquée, et des probabilités de classification erronée sont calculées. A partir de ces bornes, l’équivalence asymptotique entre le test proposé et le test standard avec la fonction de perte 0−1 est étudiée. Beaucoup d’expériences de simulation et une expérimentation acoustique ont illustré l’efficacité du nouveau test statistique / The anomaly detection and localization problem can be treated as a multiple hypotheses testing (MHT) problem in the Bayesian framework. The Bayesian test with the 0−1 loss function is a standard solution for this problem, but the alternative hypotheses have quite different importance in practice. The 0−1 loss function does not reflect this fact while the quadratic loss function is more appropriate. The objective of the thesis is the design of a Bayesian test with the quadratic loss function and its asymptotic study. The construction of the test is made in two steps. In the first step, a Bayesian test with the quadratic loss function for the MHT problem without the null hypothesis is designed and the lower and upper bounds of the misclassification probabilities are calculated. The second step constructs a Bayesian test for the MHT problem with the null hypothesis. The lower and upper bounds of the false alarm probabilities, the missed detection probabilities as well as the misclassification probabilities are calculated. From these bounds, the asymptotic equivalence between the proposed test and the standard one with the 0-1 loss function is studied. A lot of simulation and an acoustic experiment have illustrated the effectiveness of the new statistical test
|
303 |
Sélection de modèles parcimonieux pour l’apprentissage statistique en grande dimension / Model selection for sparse high-dimensional learningMattei, Pierre-Alexandre 26 October 2017 (has links)
Le déferlement numérique qui caractérise l’ère scientifique moderne a entraîné l’apparition de nouveaux types de données partageant une démesure commune : l’acquisition simultanée et rapide d’un très grand nombre de quantités observables. Qu’elles proviennent de puces ADN, de spectromètres de masse ou d’imagerie par résonance nucléaire, ces bases de données, qualifiées de données de grande dimension, sont désormais omniprésentes, tant dans le monde scientifique que technologique. Le traitement de ces données de grande dimension nécessite un renouvellement profond de l’arsenal statistique traditionnel, qui se trouve inadapté à ce nouveau cadre, notamment en raison du très grand nombre de variables impliquées. En effet, confrontée aux cas impliquant un plus grand nombre de variables que d’observations, une grande partie des techniques statistiques classiques est incapable de donner des résultats satisfaisants. Dans un premier temps, nous introduisons les problèmes statistiques inhérents aux modelés de données de grande dimension. Plusieurs solutions classiques sont détaillées et nous motivons le choix de l’approche empruntée au cours de cette thèse : le paradigme bayésien de sélection de modèles. Ce dernier fait ensuite l’objet d’une revue de littérature détaillée, en insistant sur plusieurs développements récents. Viennent ensuite trois chapitres de contributions nouvelles à la sélection de modèles en grande dimension. En premier lieu, nous présentons un nouvel algorithme pour la régression linéaire bayésienne parcimonieuse en grande dimension, dont les performances sont très bonnes, tant sur données réelles que simulées. Une nouvelle base de données de régression linéaire est également introduite : il s’agit de prédire la fréquentation du musée d’Orsay à l’aide de données vélibs. Ensuite, nous nous penchons sur le problème de la sélection de modelés pour l’analyse en composantes principales (ACP). En nous basant sur un résultat théorique nouveau, nous effectuons les premiers calculs exacts de vraisemblance marginale pour ce modelé. Cela nous permet de proposer deux nouveaux algorithmes pour l’ACP parcimonieuse, un premier, appelé GSPPCA, permettant d’effectuer de la sélection de variables, et un second, appelé NGPPCA, permettant d’estimer la dimension intrinsèque de données de grande dimension. Les performances empiriques de ces deux techniques sont extrêmement compétitives. Dans le cadre de données d’expression ADN notamment, l’approche de sélection de variables proposée permet de déceler sans supervision des ensembles de gènes particulièrement pertinents. / The numerical surge that characterizes the modern scientific era led to the rise of new kinds of data united in one common immoderation: the simultaneous acquisition of a large number of measurable quantities. Whether coming from DNA microarrays, mass spectrometers, or nuclear magnetic resonance, these data, usually called high-dimensional, are now ubiquitous in scientific and technological worlds. Processing these data calls for an important renewal of the traditional statistical toolset, unfit for such frameworks that involve a large number of variables. Indeed, when the number of variables exceeds the number of observations, most traditional statistics becomes inefficient. First, we give a brief overview of the statistical issues that arise with high-dimensional data. Several popular solutions are presented, and we present some arguments in favor of the method utilized and advocated in this thesis: Bayesian model uncertainty. This chosen framework is the subject of a detailed review that insists on several recent developments. After these surveys come three original contributions to high-dimensional model selection. A new algorithm for high-dimensional sparse regression called SpinyReg is presented. It compares favorably to state-of-the-art methods on both real and synthetic data sets. A new data set for high-dimensional regression is also described: it involves predicting the number of visitors in the Orsay museum in Paris using bike-sharing data. We focus next on model selection for high-dimensional principal component analysis (PCA). Using a new theoretical result, we derive the first closed-form expression of the marginal likelihood of a PCA model. This allows us to propose two algorithms for model selection in PCA. A first one called globally sparse probabilistic PCA (GSPPCA) that allows to perform scalable variable selection, and a second one called normal-gamma probabilistic PCA (NGPPCA) that estimates the intrinsic dimensionality of a high-dimensional data set. Both methods are competitive with other popular approaches. In particular, using unlabeled DNA microarray data, GSPPCA is able to select genes that are more biologically relevant than several popular approaches.
|
304 |
Intercomparaison et développement de modèles statistiques pour la régionalisation du climat / Intercomparison and developement of statistical models for climate downscalingVaittinada ayar, Pradeebane 22 January 2016 (has links)
L’étude de la variabilité du climat est désormais indispensable pour anticiper les conséquences des changements climatiques futurs. Nous disposons pour cela de quantité de données issues de modèles de circulation générale (GCMs). Néanmoins, ces modèles ne permettent qu’une résolution partielle des interactions entre le climat et les activités humaines entre autres parce que ces modèles ont des résolutions spatiales souvent trop faibles. Il existe aujourd’hui toute une variété de modèles répondant à cette problématique et dont l’objectif est de générer des variables climatiques à l’échelle locale àpartir de variables à grande échelle : ce sont les modèles de régionalisation ou encore appelés modèles de réduction d’échelle spatiale ou de downscaling en anglais.Cette thèse a pour objectif d’approfondir les connaissances à propos des modèles de downscaling statistiques (SDMs) parmi lesquels on retrouve plusieurs approches. Le travail s’articule autour de quatre objectifs : (i) comparer des modèles de réduction d’échelle statistiques (et dynamiques), (ii) étudier l’influence des biais des GCMs sur les SDMs au moyen d’une procédure de correction de biais, (iii) développer un modèle de réduction d’échelle qui prenne en compte la non-stationnarité spatiale et temporelle du climat dans un contexte de modélisation dite spatiale et enfin, (iv) établir une définitiondes saisons à partir d’une modélisation des régimes de circulation atmosphérique ou régimes de temps.L’intercomparaison de modèles de downscaling a permis de mettre au point une méthode de sélection de modèles en fonction des besoins de l’utilisateur. L’étude des biais des GCMs révèle une influence indéniable de ces derniers sur les sorties de SDMs et les apports de la correction des biais. Les différentes étapes du développement d’un modèle spatial de réduction d’échelle donnent des résultats très encourageants. La définition des saisons par des régimes de temps se révèle être un outil efficace d’analyse et de modélisation saisonnière.Tous ces travaux de “Climatologie Statistique” ouvrent des perspectives pertinentes, non seulement en termes méthodologiques ou de compréhension de climat à l’échelle locale, mais aussi d’utilisations par les acteurs de la société. / The study of climate variability is vital in order to understand and anticipate the consequences of future climate changes. Large data sets generated by general circulation models (GCMs) are currently available and enable us to conduct studies in that direction. However, these models resolve only partially the interactions between climate and human activities, namely du to their coarse resolution. Nowadays there is a large variety of models coping with this issue and aiming at generating climate variables at local scale from large-scale variables : the downscaling models.The aim of this thesis is to increase the knowledge about statistical downscaling models (SDMs) wherein there is many approaches. The work conducted here pursues four main goals : (i) to discriminate statistical (and dynamical) downscaling models, (ii) to study the influences of GCMs biases on the SDMs through a bias correction scheme, (iii) to develop a statistical downscaling model accounting for climate spatial and temporal non-stationarity in a spatial modelling context and finally, (iv) to define seasons thanks to a weather typing modelling.The intercomparison of downscaling models led to set up a model selection methodology according to the end-users needs. The study of the biases of the GCMs reveals the impacts of those biases on the SDMs simulations and the positive contributions of the bias correction procedure. The different steps of the spatial SDM development bring some interesting and encouraging results. The seasons defined by the weather regimes are relevant for seasonal analyses and modelling.All those works conducted in a “Statistical Climatologie” framework lead to many relevant perspectives, not only in terms of methodology or knowlegde about local-scale climate, but also in terms of use by the society.
|
305 |
Enseignement et apprentissage des tests d'hypothèses paramétriques difficultés rencontrées par des étudiants en sciences humaines : une contribution à l'éducation statistiqueZendrera, Noëlle January 2010 (has links)
Les tests statistiques constituent un appréciable outil d'aide à la décision dans nombre de domaines. Dans le champ de l'éducation statistique, cette thèse étudie les difficultés de compréhension suscitées lors de l'apprentissage des tests d'hypothèses.Les objectifs visent à cerner, d'une part, les conceptions au regard des concepts et procédures impliqués dans un test de comparaison d'une moyenne à une norme et, d'autre part, les raisonnements élaborés lors de la résolution de ce test inductif. Auprès d'étudiants en sciences humaines, futurs psychologues et praticiens des tests, l'étude contribue à élucider les conceptions vis-à-vis des concepts d'échantillon, moyenne échantillonnale, population parente, moyenne parentale, population de référence, norme, latéralité, hypothèses, statistique de test, seuil, valeur critique, décision et conclusion, ainsi qu'à éclairer les raisonnements résolutifs. Ces questions rejoignent certains travaux (Batanero, 2000; Birnbaum, 1982 Lecoutre et al., 2003 ; Poitevineau, 2004 ; Vallecillos, 1997), plutôt ciblés sur un concept isolé et recueillant par questionnaire fermé ; peu d'études ont visé les idées des apprenants lors d'une"résolution complète et libre". Ce travail tente de contribuer à combler cette lacune, en sollicitant une résolution"complète" et en utilisant deux outils de recueil : une épreuve écrite (90 sujets) puis des entretiens individuels à résolution de problème (10 sujets). L'analyse des résultats confirme l'existence d'une grande variété de conceptions et dévoile de multiples"conceptions erronées", voire des"absences de conceptualisation" ; les résultats les plus notoires concernent les concepts de"population parente" et de"moyenne de la population parente" ainsi que la logique inductive attendue, qui ont suscité des difficultés chez la quasi-totalité des étudiants. Cette thèse apporte une explication multicausale à ces difficultés et soulève l'éventuelle existence d'un"obstacle à l'apprentissage" (Brousseau, 1998) en le signifié du terme"parente".Les apports de cette recherche, probablement généralisables à tout le milieu estudiantin, pourront être utiles dans l'enseignement des tests et la recherche en éducation statistique, pour la construction de dispositifs d'enseignement plus favorables à l'apprenant et au praticien.
|
306 |
Développement d'algorithmes de reconstruction statistique appliqués en tomographie rayons-X assistée par ordinateurThibaudeau, Christian January 2010 (has links)
La tomodensitométrie (TDM) permet d'obtenir, et ce de façon non invasive, une image tridimensionnelle de l'anatomie interne d'un sujet. Elle constitue l'évolution logique de la radiographie et permet l'observation d'un volume sous différents plans (sagittal, coronal, axial ou n'importe quel autre plan). La TDM peut avantageusement compléter la tomographie d'émission par positrons (TEP), un outil de prédilection utilisé en recherche biomédicale et pour le diagnostic du cancer. La TEP fournit une information fonctionnelle, physiologique et métabolique, permettant la localisation et la quantification de radiotraceurs à l'intérieur du corps humain. Cette dernière possède une sensibilité inégalée, mais peut néanmoins souffrir d'une faible résolution spatiale et d'un manque de repère anatomique selon le radiotraceur utilisé. La combinaison, ou fusion, des images TEP et TDM permet d'obtenir cette localisation anatomique de la distribution du radiotraceur. L'image TDM représente une carte de l'atténuation subie par les rayons-X lors de leur passage à travers les tissus. Elle permet donc aussi d'améliorer la quantification de l'image TEP en offrant la possibilité de corriger pour l'atténuation. L'image TDM s'obtient par la transformation de profils d'atténuation en une image cartésienne pouvant être interprétée par l'humain. Si la qualité de cette image est fortement influencée par les performances de l'appareil, elle dépend aussi grandement de la capacité de l'algorithme de reconstruction à obtenir une représentation fidèle du milieu imagé. Les techniques de reconstruction standards, basées sur la rétroprojection filtrée (FBP, filtered back-projection), reposent sur un modèle mathématiquement parfait de la géométrie d'acquisition. Une alternative à cette méthode étalon est appelée reconstruction statistique, ou itérative. Elle permet d'obtenir de meilleurs résultats en présence de bruit ou d'une quantité limitée d'information et peut virtuellement s'adapter à toutes formes de géométrie d'acquisition. Le présent mémoire se consacre à l'étude de ces algorithmes statistiques en imagerie TDM et à leur implantation logicielle. Le prototype d'imageur TEP/TDM basé sur la technologie LabPET[indice supérieur TM] de l'Université de Sherbrooke possède tous les pré-requis pour bénéficier de ces nombreux avantages.
|
307 |
Bloc batterie li-ion pour véhicules électriques : méthode de classement novatrice en temps réel des paramètres électriques des cellulesTessier, Alexandre Oliver January 2015 (has links)
Avec l’arrivée en masse des véhicules à traction électrique, la puissance sollicitée à des blocs de cellules chimiques ne cesse d’augmenter. Les nouvelles technologies développées pour répondre à la demande exposent un nouveau problème jamais observé sur les assemblages multi-cellules : la disparité des paramètres internes. Une étude a démontré que ces faibles variations de capacité ou de résistance interne causeront une dégradation prématurée si elles ne sont pas prises
en comptes. La littérature sur le sujet comprend plusieurs travaux qui tentent de palier à ce problème cependant très peu d’information n’est disponible pour quantifier ces divergences de paramètres internes. Ceux qui proposent des solutions viables le font généralement dans un contexte non transférable aux véhicules électriques ou hybrides.
Ce document présente une étude complète de l’état de l’art sur l’utilisation et la gestion des batteries au lithium-ion ainsi que l’analyse d’un nouvel outil de mesure pour système de gestion de batteries permettant de mesurer et d’utiliser ces dispersions de paramètres internes des cellules. L’algorithme de mesure sera basé sur un système de classement des données recueillies novateur permettant de répertorié les données selon les conditions de conduites vécues lors de la mesure plutôt qu’en fonction du temps. La conception d’un système de gestion de batteries capable de mettre en œuvre cet outil de mesure dans un contexte de véhicule électrique ainsi que l’élaboration de partons de charge/décharge des cellules, afin de les plonger dans des conditions similaires à celles vécues par un bloc batterie de véhicule électrique, seront aussi exposées. La distribution des résistances internes des 16 cellules étudiées et une discussion de ces résultats complètera ce document.
|
308 |
Caractérisation expérimentale et numérique de la transmission acoustique de structures aéronautique : effets du couplage et de l'excitationCherif, Raef January 2015 (has links)
La prédiction du bruit intérieur d’un habitacle typique d’un avion nécessite la modélisation vibroacoustique de l’ensemble fuselage et la compréhension des mécanismes gouvernant la transmission acoustique à travers ces structures. Ce projet a pour objectifs de développer et mettre en place un modèle hybride expérimentale-numérique rapide et précis permettant de prédire la transmission acoustique à travers ces structures soumises à des excitations aériennes et solidiennes. Le but est d’élucider les mécanismes de transmission acoustique afin de réduire la transmission solidienne de vibrations mécaniques ainsi que diminuer la transmission acoustique du bruit dans la cabine. À ce propos, une double-parois représentative d’avion est modélisée par la méthode de l’analyse statistique énergétique (SEA). Le modèle utilisé est basé sur la connaissance des différents indicateurs vibroacoustique; spécifiquement le nombre d'onde, la densité modale, le facteur de perte par amortissement, le facteur de perte par couplage et l’efficacité par rayonnement. La tâche est rendue davantage difficile par les complexités mécaniques et physiques mises en jeu.
Une première partie porte sur la caractérisation expérimentale du facteur de perte par amortissement des structures sandwich composites. Une nouvelle méthode expérimentale de mesure de l’amortissement dénommée IWM (Inverse Wave Method) est mise en place. Elle se base sur la mesure du nombre d’ondes complexe. Il ressort que la méthode développée présente plus de stabilité dans les résultats obtenus tant numériques qu’expérimentaux.
La deuxième partie de cette étude est totalement dédiée à l’efficacité de rayonnement. La mesure de l’efficacité de rayonnement est étudiée par une approche énergétique statistique des structures suspendues en libre libre et non bafflée dans une chambre réverbérante. La mesure est validée sur une large bande de fréquences pour plusieurs types de constructions.
La troisième partie porte sur une validation expérimentale détaillée d'un modèle sandwich (General Laminate Model). À partir des propriétés mécaniques des structures aéronautiques étudiées, le modèle sandwich permet de prédire leurs comportements vibroacoustique. La précision de ce modèle est étudiée sur une large bande de fréquences.
Enfin, la transmission acoustique d’une double paroi avec des connexions structurales entre les deux panneaux est étudiée. Les voies de transmission dominantes sont identifiées dans la gamme de fréquences entre 100 Hz et 10 kHz pour des doubles parois sous champ diffus. La transmission non-résonante est plus importante en basses fréquences alors que les parties structurale et aérienne dominent respectivement en moyennes et hautes fréquences. Une validation avec des résultats expérimentaux montre que le modèle est capable de prédire les changements au niveau de la transmission, causés par les différents couplages structuraux (couplage rigide, couplage souple). L’objectif final étant évidemment de réduire le niveau de bruit dans la cabine.
|
309 |
Développement d’un outil d’évaluation de la pertinence écologique et statistique d’indicateurs de suivi de l’intégrité écologique dans les parcs nationaux du QuébecTrottier, Simon January 2014 (has links)
En date d’avril 2014, il existe au Québec 25 parcs nationaux dédiés à la conservation. La gestion de 23 de ces parcs, situés au sud du 50e parallèle, est assurée par la Société des établissements de plein air du Québec (Sépaq). En 2004, les gestionnaires de la Sépaq ont mis en place le Programme de suivi de l'intégrité écologique (PSIE) dans 22 des parcs nationaux afin de les aider dans leur mission de protection et de conservation des parcs. Ce projet de recherche s’inscrit dans la démarche des gestionnaires de la Sépaq d’améliorer certains aspects du PSIE. L’objectif principal est de développer un outil géomatique permettant d’évaluer la pertinence écologique et statistique des indicateurs d’intégrité écologique du PSIE. L’outil développé porte le nom de Bilan des indicateurs pour l’optimisation du PSIE (BIOPSIE). Dans le cadre du projet, le BIOPSIE a été testé sur les parcs nationaux de Frontenac, de la Jacques-Cartier et du Bic. La méthodologie se divise en trois axes dont les résultats s’analysent en parallèle : l’élaboration d’une cartographie des écosystèmes de parc ainsi que l’évaluation écologique et statistique des indicateurs utilisés. Le BIOPSIE utilise des notions de modèles conceptuels d’écosystèmes, d’échantillonnage par tessellation et de calculs de puissance statistique. Les résultats des calculs de puissance statistique réalisés pour 29 indicateurs, qui réfèrent à la probabilité qu’un changement réel soit décelé dans les données, varient en fonction des paramètres de période de suivi, de changement à déceler et de degré de signification (α) utilisés lors de la simulation. En situation contraignante d’échantillonnage (10 ans, - 2 %, α = 0,1), la puissance des indicateurs étudiés est élevée (supérieure à 80 %) pour quatre d’entre eux, moyenne (entre 50 % et 80 %) pour deux et faible (inférieure à 50 %) pour les 23 autres. En situation plus permissive (20 ans, - 5 %, α = 0,2), la puissance des indicateurs étudiés est élevée pour 23 d’entre eux, moyenne pour quatre et faible pour les deux autres. Le développement du BIOPSIE permet de doter les gestionnaires de la Sépaq d’un outil d’évaluation des indicateurs du PSIE balisé et reproductible. À court terme, la méthodologie développée sera appliquée à l’ensemble des parcs du réseau de la Sépaq. Les résultats obtenus permettront aux gestionnaires de la Sépaq d’améliorer la portée scientifique du PSIE et d’en apprécier les résultats avec plus de réalisme.
|
310 |
Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectraleNoyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
|
Page generated in 0.0315 seconds