Spelling suggestions: "subject:"statistique"" "subject:"qtatistique""
351 |
Développement d’un outil d’évaluation de la pertinence écologique et statistique d’indicateurs de suivi de l’intégrité écologique dans les parcs nationaux du QuébecTrottier, Simon January 2014 (has links)
En date d’avril 2014, il existe au Québec 25 parcs nationaux dédiés à la conservation. La gestion de 23 de ces parcs, situés au sud du 50e parallèle, est assurée par la Société des établissements de plein air du Québec (Sépaq). En 2004, les gestionnaires de la Sépaq ont mis en place le Programme de suivi de l'intégrité écologique (PSIE) dans 22 des parcs nationaux afin de les aider dans leur mission de protection et de conservation des parcs. Ce projet de recherche s’inscrit dans la démarche des gestionnaires de la Sépaq d’améliorer certains aspects du PSIE. L’objectif principal est de développer un outil géomatique permettant d’évaluer la pertinence écologique et statistique des indicateurs d’intégrité écologique du PSIE. L’outil développé porte le nom de Bilan des indicateurs pour l’optimisation du PSIE (BIOPSIE). Dans le cadre du projet, le BIOPSIE a été testé sur les parcs nationaux de Frontenac, de la Jacques-Cartier et du Bic. La méthodologie se divise en trois axes dont les résultats s’analysent en parallèle : l’élaboration d’une cartographie des écosystèmes de parc ainsi que l’évaluation écologique et statistique des indicateurs utilisés. Le BIOPSIE utilise des notions de modèles conceptuels d’écosystèmes, d’échantillonnage par tessellation et de calculs de puissance statistique. Les résultats des calculs de puissance statistique réalisés pour 29 indicateurs, qui réfèrent à la probabilité qu’un changement réel soit décelé dans les données, varient en fonction des paramètres de période de suivi, de changement à déceler et de degré de signification (α) utilisés lors de la simulation. En situation contraignante d’échantillonnage (10 ans, - 2 %, α = 0,1), la puissance des indicateurs étudiés est élevée (supérieure à 80 %) pour quatre d’entre eux, moyenne (entre 50 % et 80 %) pour deux et faible (inférieure à 50 %) pour les 23 autres. En situation plus permissive (20 ans, - 5 %, α = 0,2), la puissance des indicateurs étudiés est élevée pour 23 d’entre eux, moyenne pour quatre et faible pour les deux autres. Le développement du BIOPSIE permet de doter les gestionnaires de la Sépaq d’un outil d’évaluation des indicateurs du PSIE balisé et reproductible. À court terme, la méthodologie développée sera appliquée à l’ensemble des parcs du réseau de la Sépaq. Les résultats obtenus permettront aux gestionnaires de la Sépaq d’améliorer la portée scientifique du PSIE et d’en apprécier les résultats avec plus de réalisme.
|
352 |
Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectraleNoyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
|
353 |
Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteusesBarbillon, Pierre 22 November 2010 (has links) (PDF)
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
|
354 |
Micro-manipulation de l'ADN Vers une visualisation directe par microscopie de fluorescenceMeglio, Adrien 01 April 2010 (has links) (PDF)
Dans ce travail, nous proposons un nouvel appareillage, destiné à aider à la détermination du mécanisme de certaines protéines. Cet outil, qui combine un appareil de pinces magnétiques, et un microscope de fluorescence en ondes évanescentes, a été conçu pour permettre à la fois la manipulation mécanique et l'observation de l'activité d'ADN translocases à l'échelle de la molécule unique. Nous présentons d'abord ici la conception, la réalisation et l'expérimentation de ce montage. Nous montrons que, d'une part, il se compare favorablement à ses composants séparés (pinces magnétiques et microscope de fluorescence), et que d'autre part leur réunion dans un appareil unique permet d'obtenir des résultats d'un type nouveau. Nous avons orienté l'étude des ADN translocases avec cet appareil sur l'exemple de deux protéines : le moteur FtsK de Escherichia coli et l'ARN Polymérase de T7. Nous détaillons dans cette étude les questions importantes encore en suspens concernant le mécanisme et présentons les expériences que nous avons envisagées pour y répondre. Nous relatons ensuite également la difficulté que nous avons rencontrée à obtenir des substrats protéiques adaptés aux expériences que nous avons envisagées, et les solutions que nous avons mises en oeuvre pour y remédier. Enn, nous analysons les résultats obtenus dans des expériences en volume ou en pinces magnétiques seules, qui ont permis de mettre en valeur de nouveaux comportements et de préparer la réalisation de nouvelles expériences sur notre montage combiné.
|
355 |
Sélection de corpus en traduction automatique statistiqueAbdul Rauf, Sadaf 17 January 2012 (has links) (PDF)
Dans notre monde de communications au niveau international, la traduction automatique est devenue une technologie clef incontournable. Plusieurs approches existent, mais depuis quelques années la dite traduction automatique statistique est considérée comme la plus prometteuse. Dans cette approche, toutes les connaissances sont extraites automatiquement à partir d'exemples de traductions, appelés textes parallèles, et des données monolingues en langue cible. La traduction automatique statistique est un processus guidé par les données. Ceci est communément avancé comme un grand avantage des approches statistiques puisque l'intervention d'être humains bilingues n'est pas nécessaire, mais peut se retourner en un problème lorsque ces données nécessaires au développement du système ne sont pas disponibles, de taille insuffisante ou dont le genre ne convient pas. Les recherches présentées dans cette thèse sont une tentative pour surmonter un des obstacles au déploiement massif de systèmes de traduction automatique statistique : le manque de corpus parallèles. Un corpus parallèle est une collection de phrases en langues source et cible qui sont alignées au niveau de la phrase. La plupart des corpus parallèles existants ont été produits par des traducteurs professionnels. Ceci est une tâche coûteuse, en termes d'argent, de ressources humaines et de temps. Dans la première partie de cette thèse, nous avons travaillé sur l'utilisation de corpus comparables pour améliorer les systèmes de traduction statistique. Un corpus comparable est une collection de données en plusieurs langues, collectées indépendamment, mais qui contiennent souvent des parties qui sont des traductions mutuelles. La taille et la qualité des contenus parallèles peuvent variées considérablement d'un corpus comparable à un autre, en fonction de divers facteurs, notamment la méthode de construction du corpus. Dans tous les cas, il n'est pas aisé d'identifier automatiquement des parties parallèles. Dans le cadre de cette thèse, nous avons développé une telle approche qui est entièrement basée sur des outils librement disponibles. L'idée principale de notre approche est l'utilisation d'un système de traduction automatique statistique pour traduire toutes les phrases en langue source du corpus comparable. Chacune de ces traductions est ensuite utilisée en tant que requête afin de trouver des phrases potentiellement parallèles. Cette recherche est effectuée à l'aide d'un outil de recherche d'information. En deuxième étape, les phrases obtenues sont comparées aux traductions automatiques afin de déterminer si elles sont effectivement parallèles à la phrase correspondante en langue source. Plusieurs critères ont été évalués tels que le taux d'erreur de mots ou le "translation edit rate (TER)". Nous avons effectué une analyse expérimentale très détaillée afin de démontrer l'intérêt de notre approche. Les corpus comparables utilisés se situent dans le domaine des actualités, plus précisément, des dépêches d'actualités des agences de presse telles que "Agence France Press (AFP)", "Associate press" ou "Xinua News". Ces agences publient quotidiennement des actualités en plusieurs langues. Nous avons pu extraire des textes parallèles à partir de grandes collections de plus de trois cent millions de mots pour les paires de langues français/anglais et arabe/anglais. Ces textes parallèles ont permis d'améliorer significativement nos systèmes de traduction statistique. Nous présentons également une comparaison théorique du modèle développé dans cette thèse avec une autre approche présentée dans la littérature. Diverses extensions sont également étudiées : l'extraction automatique de mots inconnus et la création d'un dictionnaire, la détection et suppression 1 d'informations supplémentaires, etc. Dans la deuxième partie de cette thèse, nous avons examiné la possibilité d'utiliser des données monolingues afin d'améliorer le modèle de traduction d'un système statistique...
|
356 |
Apprentissage a contrario et architecture efficace pour la détection d'évènements visuels significatifsBurrus, Nicolas 08 December 2008 (has links) (PDF)
Pour assurer la robustesse d'un algorithme de détection, il est nécessaire de maîtriser son point de fonctionnement, et en particulier son taux de fausses alarmes. Cette tâche est particulièrement difficile en vision artificielle à cause de la grande variabilité des images naturelles, qui amène généralement à introduire des paramètres choisis a priori qui limitent la portée et la validité des algorithmes. Récemment, l'approche statistique a contrario a montré sa capacité à détecter des structures visuelles sans autre paramètre libre que le nombre moyen de fausses alarmes tolérées, en recherchant des entités dont certaines propriétés sont statistiquement trop improbables pour être le fruit du hasard. Les applications existantes reposent toutefois sur un cadre purement analytique qui requiert un travail important de modélisation, rend difficile l'utilisation de caractéristiques multiples et limite l'utilisation d'heuristiques de recherche dirigées par les données. Nous proposons dans cette thèse d'assouplir ces restrictions en ayant recours à de l'apprentissage pour les quantités non calculables analytiquement. Nous illustrons l'intérêt de la démarche à travers trois applications : la détection de segments, la segmentation en régions homogènes et la détection d'objets à partir d'une base de photos. Pour les deux premières applications, nous montrons que des seuils de détection robustes peuvent être appris à partir d'images de bruit blanc. Pour la dernière, nous montrons que quelques exemples d'images naturelles ne contenant pas d'objets de la base suffisent pour obtenir un algorithme de détection fiable. Enfin, nous remarquons que la monotonicité du raisonnement a contrario permet d'intégrer incrémentalement des informations partielles. Cette propriété nous conduit à proposer une architecture "anytime" pour la détection d'objets, c'est-à-dire capable de fournir des détections progressivement au cours de son exécution, en commençant par les objets les plus saillants.
|
357 |
Détection des valeurs aberrantes dans un échantillon gaussien multidimensionnelGarel, Bernard 28 June 1976 (has links) (PDF)
.
|
358 |
Au sujet de quelques modèles stochastiques appliqués à la biologieDemongeot, Jacques 27 June 1975 (has links) (PDF)
.
|
359 |
Etude des structures statistiques associées aux lois de Von MisesDégerine, Serge 12 March 1975 (has links) (PDF)
Le travail que nous présentons ici concerne un domaine très particulier de la statistique : celui dans lequel les observations sont des directions
|
360 |
Identification multi-échelle du champ d'élasticité apparent stochastique de microstructures hétérogènes : application à un tissu biologiqueNguyen, Manh Tu, Nguyen, Manh Tu 08 October 2013 (has links) (PDF)
Dans le cadre de l'élasticité linéaire 3D des microstructures complexes qui ne peuvent pas être simplement décrites en terme de constituants telles que des tissus biologiques, nous proposons, dans ce travail de recherche, une méthodologie d'identification expérimentale multi-échelle du champ stochastique d'élasticité apparent de la microstructure à l'échelle mésoscopique en utilisant des mesures de champ de déplacements aux échelles macroscopique et mésoscopique. On peut alors utiliser cette méthodologie dans le cadre de changement d'échelle pour obtenir des propriétés mécaniques à l'échelle macroscopique. Dans ce contexte, la question majeure est celle de l'identification expérimentale par résolution d'un problème statistique inverse de la modélisation stochastique introduite pour le champ d'élasticité apparent à l'échelle mésoscopique. Cette identification expérimentale permet non seulement de valider la modélisation mais encore de la rendre utile pour des matériaux existants ayant une microstructure complexe. Le présent travail de recherche est une contribution proposée dans ce cadre pour lequel l'expérimentation et validation expérimentale basée sur des mesures simultanées d'imagerie de champ aux échelles macroscopique et mésoscopique sont faites sur de l'os cortical
|
Page generated in 0.05 seconds