• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • Tagged with
  • 11
  • 11
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sélection d’attributs de texture couleur pour la classification d’images : Application à l’identification de défauts sur les décors verriers imprimés par sérigraphie / Color texture feature selection for image classification : Application to flaw identification on decorated glasses printing by a silk-screen process

Porebski, Alice 20 November 2009 (has links)
Dans le cadre du contrôle qualité de décors verriers par analyse d’image, nous proposons une méthodologie originale de classification supervisée de textures couleur pour identifier les défauts d’aspect présents sur les décors. Cette méthodologie consiste à construire un espace d’attributs de texture couleur discriminant de dimension réduite lors d’un apprentissage hors ligne afin d’y représenter les textures à classer en ligne. Afin de satisfaire aux contraintes exigées par une application industrielle en termes de qualité de résultats et de temps de calcul, l’originalité de notre approche consiste à sélectionner automatiquement un nombre réduit d’attributs qui, d’une part sont évalués à partir d’images codées dans plusieurs espaces couleur exploitant des propriétés différentes et d’autre part, tiennent compte des relations spatiales intra et inter-composantes existant au sein de ces espaces. Nous montrons alors que les indices d’Haralick extraits des matrices de co-occurrences chromatiques sont des attributs répondant à ces objectifs lorsque le nombre de couleurs de l’image est réduit grâce à une sous-quantification des composantes couleur et qu’un voisinage isotropique est utilisé. L’approche proposée est d’abord appliquée à trois bases d’images de textures couleur de référence afin de montrer l’apport de l’approche multi-espaces couleur et le bénéfice que présente la sélection d’attributs, avant d’être appliquée au contrôle qualité des décors verriers. Pour répondre au problème de sous-représentativité des prototypes lié à cette application, nous introduisons une approche originale basée sur la génération d’images de synthèse présentant les défauts à détecter. / In the framework of decorated glasses quality control by image analysis, we propose an original methodology of supervised color texture classification in order to identify aspect flaws on patterns. This methodology consists in determining a low dimensional discriminating color texture feature space during an off-line learning stage in order to perform an on-line texture classification in this selected feature space. To satisfy constraints required by industrial applications about processing time and quality of texture classification, the originality of our approach consists in automatically selecting a reduced number of features which, on one hand are evaluated from images coded in several color spaces with different properties and on the other hand, which take into account the spatial relationships within and between the color components of each space. Then, we show that Haralick features extracted from color cooccurrence matrices answer to these goals when the number of colors in the image is reduced thanks to a quantization of color components and when an isotropic neighborhood is used. The proposed approach is firstly applied on three color texture benchmark databases in order to show the contribution of the multi color space approach and the advantage of feature selection. The method is then applied to decorated glasses quality control. In order to answer to the lack of prototypes, we introduce an original approach based on the generation of synthetic images where aspect flaws are present.
2

Logique floue et algorithmes génétiques pour le pré-traitement de données de biopuces et la sélection de gènes

Bonilla Huerta, Edmundo 13 November 2008 (has links) (PDF)
Dans le domaine de la biologie moléculaire, les technologies d'analyse d'expression génique comme les biopuces suscitent un intérêt très grand. Une des applications de ces technologies est le diagnostic et la classification de différents types de tumeurs. Une des particularités des données issues des biopuces est qu'elles sont décrites par un très grand nombre d'attributs (gènes) alors que peu d'échantillons analysés sont disponibles. Cela empêche la compréhension des données et réduit de manière considérable la performance des algorithmes de classification. Dans cette thèse, nous proposons des méthodes innovantes pour réduire la taille initiale des données et pour sélectionner des ensembles de gènes pertinents pour une classification supervisée. Nous proposons tout d'abord une méthode de pré-traitement des données et de réduction de dimension basée sur la logique floue. Le problème de la sélection d'attributs est ensuite traité par deux types d'approche. Dans la première, nous proposons une méthode enveloppe qui grâce à une double exploration génétique sélectionne un ensemble de gènes pertinents pour un classifieur SVM. Dans la deuxième, nous proposons une méthode intégrée où les informations fournies par un classifieur linéaire (ADL) guident le processus de recherche vers un sous-ensemble de petite taille et performant pour la classification. Les différentes expérimentations que nous avons menées montrent de très bonnes performances, surtout pour la méthode intégrée.
3

Optimisation de la configuration d'un instrument superspectral aéroporté pour la classification : application au milieu urbain / Spectral optimization to design a superspectral sensor : application to urban areas

Le Bris, Arnaud 07 December 2015 (has links)
Ce travail s'inscrit dans la perspective de l'enrichissement des bases de données d'occupation du sol. La description de l'occupation du sol permet de produire des indicateurs environnementaux pour la gestion des écosystèmes et des territoires, en réponse à des besoins sociétaux, réglementaires et scientifiques. Aussi, des bases de données décrivant l'occupation du sol existent à différents niveaux (local, national, européen) ou sont en cours de constitution. Il est toutefois apparu que la connaissance de l'occupation du sol nécessaire pour certaines applications de modélisation de la ville (simulateurs de micro-météorologie, d'hydrologie, ou de suivi de pollutions), voire de suivi réglementaire (imperméabilisation des sols) est plus fine (au niveau sémantique et géométrique) que ce que contiennent ces bases de données. Des cartes de matériaux sont donc nécessaires pour certaines applications. Elles pourraient constituer une couche supplémentaire, à la fois dans des bases de données sur l'occupation du sol (comme l'occupation du sol à grande échelle de l'IGN) et dans des maquettes urbaines 3D.Aucune base de données existante ne contenant cette information, la télédétection apparaît comme la seule solution pour la produire. Néanmoins, du fait de la forte hétérogénéité des matériaux, de leur variabilité, mais aussi des fortes ressemblances entre classes distinctes, il apparaît que les capteurs optiques multispectraux classiques (limités aux 4 canaux rouge - vert - bleu - proche infrarouge) sont insuffisants pour bien discriminer des matériaux. Un capteur dit superspectral, c'est-à-dire plus riche spectralement, pourrait apporter une solution à cette limite. Ce travail s'est donc positionné dans l'optique de la conception d'un tel capteur et a consisté à identifier la meilleure configuration spectrale pour la classification des matériaux urbains, ou du moins à proposer des solutions s'en approchant. Un travail d'optimisation spectrale a donc été réalisé afin d'optimiser à la fois la position des bandes dans le spectre ainsi que leur largeur. Le travail s'est déroulé en deux temps. Une première tâche a consisté à définir et préciser les méthodes d'optimisation de bandes, et à les valider sur des jeux de données de référence de la littérature. Deux heuristiques d'optimisation classiques (l'une incrémentale, l'autre stochastique) ont été choisies du fait de leur généricité et de leur flexibilité, et donc de leur capacité à être utilisées pour différents critères de sélection d'attributs. Une comparaison de différentes mesures de la pertinence d'un jeu de bandes a été effectuée afin de définir le score à optimiser lors du processus de sélection de bandes. L'optimisation de la largeur des bandes a ensuite été étudiée : la méthode proposée consiste à préalablement construire une hiérarchie de bandes fusionnées en fonction de leur similarité, le processus de sélection de bandes se déroulant ensuite au sein de cette hiérarchie. La seconde partie du travail a consisté en l'application de ces algorithmes d'optimisation spectrale au cas d'étude des matériaux urbains. Une collection de spectres de matériaux urbains a d'abord été réunie à partir de différentes librairies spectrales (ASTER, MEMOIRES, ...). L'optimisation spectrale a ensuite été menée à partir de ce jeu de données. Il est apparu qu'un nombre limité de bandes bien choisies suffisait pour discriminer 9 classes de matériaux communs (ardoise - asphalte - ciment - gravier - métal - pavés en pierre - shingle - terre – tuile). L'apport de bandes issues du domaine de l'infrarouge onde courte (1400 - 2500 nm) pour la discrimination des matériaux a également été vérifiée. La portée des résultats chiffrés obtenus en terme de confusions entre les matériaux reste toutefois à nuancer du fait de la très faible représentation de certains matériaux dans la librairie de spectres collectés, ne couvrant donc pas la totalité de leur variabilité / This work was performed in the context of a possible enrichment of land cover databases. The description of land cover is necessary it possible to produce environmental indicators for the management of ecosystems and territories, in response to various societal and scientific needs. Thus, different land cover databases already exist at various levels (global, European, national, regional or local) or are currently being produced. However, it appeared that knowledge about land cover should more detailled in urban areas, since it is required by several city modeling applications (micro-meteorological, hydrological, or pollution monitoring simulators), or public regulations monitoring (e.g. concerning ground perviousness). Such materials maps would be (both semantically and spatially) finer than what is contained in existing land cover databases. Therefore, they could be an additional layer, both in land cover databases (such as in IGN High Resolution land cover database) and in 3D city models. No existing database contains such information about urban material maps. Thus remote sensing is the only solution to produce it. However, due to the high heterogeneity of urban materials, their variability, but also the strong similarities between different material classes, usual optical multispectral sensors (with only the 4 red - green - blue - near infrared bands) are not sufficient to reach a good discrimination of materials. A multispectral sensor or superspectral, that is to say spectrally richer, could therefore provide a solution to this limit. Thus, this work was performed intending the design of such sensor. It aimed at identifying the best spectral configuration for classification of urban materials, or at least to propose sub-optimal solutions. In other words, a spectral optimization was carried out in order to optimize both the position of the bands in the spectrum and their width. Automatic feature selection methods were used. This work was performed in two steps. A first task aimed at defining the spectral optimization methods and at validating them on literature reference data sets. Two state-of-the-art optimization heuristics (Sequential Forward Floating Search and genetic algorithms) were chosen owing to their genericity and flexibility, and therefore their ability to be used to optimize different feature selection criteria. A benchmark of different scores measuring the relevance of a set of features was performed to decide which score to optimize during the band selection process. Band width optimization was then studied: the proposed method consisted in building a hierarchy of bands merged according to their similarities. Band selection was then processed within this hierarchy. The second part of the work consisted in the application of these spectral optimization algorithms to the case study of urban materials. A collection of urban materials spectra was first caught and from various spectral libraries ( ASTER , MEMORIES...). Spectral optimization was then performed on this dataset. A limited number (about 10) of well chosen bands appeared to be sufficient to classify next common materials (slates - asphalt - cement - gravel - metal - cobblestones - shingle - earth – tiles). Bands from short wave infrared spectral domain (1400 - 2500 nm) were shown again to be very useful to discriminate urban materials. However, quantitative results assessing the confusions between the materials must be considered carefully since some materials are very uncommon in the library of collected spectra, and thus their possible variability is not completely considered
4

Paramètres d'ordre et sélection de modèles en apprentissage : caractérisation des modèles et sélection d'attributs

Gaudel, Romaric 14 December 2010 (has links) (PDF)
Nous nous intéressons à la sélection de modèle en apprentissage automatique, sous deux angles différents. La première partie de la thèse concerne les méthodes à noyau relationnel. Les méthodes à noyau permettent en principe de s'affranchir de la représentation des instances, et de combler le fossé entre apprentissage relationnel et apprentissage propositionnel. Cette thèse s'intéresse à la faisabilité de cet objectif dans un cas particulier : les problèmes à instances multiples, qui sont considérés comme un intermédiaire entre les problèmes propositionnels et les problèmes relationnels. Concrètement, nous déterminons sous quelles conditions le noyau-somme, utilisé sur des problèmes à instances multiples, est en mesure de reconstruire le concept-cible. Cette étude suit le schéma standard des études de transition de phase et s'appuie sur un critère nouveau pour caractériser l'efficacité de la propositionnalisation induite par le noyau-somme. La deuxième partie de la thèse porte sur la sélection d'attributs. Une solution pour résoudre les problèmes à instances multiples, tels que présentés en première partie, passe par une propositionnalisation associant un attribut à chaque instance présente dans le problème. Le nombre d'attributs ainsi construits étant gigantesque, il est alors nécessaire de sélectionner un sous-ensemble d'attributs ne contenant que des attributs pertinents. La deuxième partie de la thèse propose donc une nouvelle approche pour la sélection d'attributs. La sélection d'attributs est réécrite comme un problème d'apprentissage par renforcement, conduisant ainsi à une politique de sélection optimale mais non-calculable en un temps raisonnable. Cette politique est approchée en se fondant sur une approche de jeu à un joueur et en utilisant la méthode Monte-Carlo pour les arbres UCT (Upper Confidence bound applied to Trees), qui a été proposée par Kocsis et Szepesvari (2006). L'algorithme FUSE (Feature Uct SElection) étend UCT pour gérer (1) l'horizon fini mais inconnu, et (2) le facteur de branchement élevé de l'arbre de recherche reflétant la taille de l'ensemble d'attributs. Finalement, une fonction de récompense frugale est proposée en tant qu'estimation grossière mais non-biaisée de la pertinence d'un sous-ensemble d'attributs. Une preuve de concept de FUSE est fournie sur des bases de données de référence.
5

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique

Le Floch, Edith 28 September 2012 (has links) (PDF)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
6

Evaluation des risques de crise, appliquée à la détection des conflits armés intra-étatiques

Delavallade, Thomas 06 December 2007 (has links) (PDF)
Dans de nombreux domaines, l'analyse rationnelle des risques fait partie intégrante du processus de décision. Il s'agit d'un outil méthodologique essentiel pour les acteurs politiques et économiques qui leur permet d'anticiper le déclenchement de crises potentielles. Dans certains secteurs d'activité les conséquences de telles crises sont parfois telles que le recours à l'analyse de risque correspond à une contrainte réglementaire imposée par le législateur. L'objectif d'une telle analyse est de parvenir à identifier les situations à risque ainsi que les principaux facteurs de risque de manière à pouvoir mettre en place les politiques de prévention adéquates.<br />Si de nombreuses cellules de veille ont été mises en place, tant au niveau de l'entreprise, qu'au niveau des institutions nationales et internationales, la quantité d'information potentiellement pertinente pour un sujet donné est parfois telle que la mise à disposition d'outils automatisant tout ou partie du traitement de cette information répond à un besoin réel, sinon à une nécessité.<br />Dans cette optique, dans cette thèse, nous proposons un système générique d'aide à l'anticipation de crises. Notre objectif est de fournir une synthèse d'une situation donnée, d'un point de vue structurel et non événementiel, via l'identification des crises potentielles ainsi que des principaux facteurs de risque associés. Le système que nous proposons repose sur l'apprentissage supervisé de règles de décision floues.<br />La qualité des données d'apprentissage étant problématique dans de nombreuses applications, nous proposons, dans nos travaux, une étude approfondie sur la chaîne de prétraitement, et en particulier sur le traitement des valeurs manquantes et sur la sélection d'attributs. Nous avons également mis l'accent sur l'évaluation et la sélection de modèles afin de pouvoir adapter les modèles de détection au problème à traiter, ainsi qu'aux besoins de l'utilisateur final.<br />La synthèse des résultats fournis par notre système étant destiné à des utilisateurs en charge de la veille stratégique, des outils d'aide au raisonnement et à la compréhension de cette synthèse sont également proposés.<br />Pour juger de l'intérêt de notre méthodologie nous détaillons son application à un problème concret : la détection des conflits armés intra-étatiques.
7

Multi color space LBP-based feature selection for texture classification / Sélection d'attributs multi-espace à partir de motifs binaires locaux pour la classification de textures couleur

Truong Hoang, Vinh 15 February 2018 (has links)
L'analyse de texture a été largement étudiée dans la littérature et une grande variété de descripteurs de texture ont été proposés. Parmi ceux-ci, les motifs binaires locaux (LBP) occupent une part importante dans la plupart des applications d'imagerie couleur ou de reconnaissance de formes et sont particulièrement exploités dans les problèmes d'analyse de texture. Généralement, les images couleurs acquises sont représentées dans l'espace colorimétrique RGB. Cependant, il existe de nombreux espaces couleur pour la classification des textures, chacun ayant des propriétés spécifiques qui impactent les performances. Afin d'éviter la difficulté de choisir un espace pertinent, la stratégie multi-espace couleur permet d'utiliser simultanémentles propriétés de plusieurs espaces. Toutefois, cette stratégie conduit à augmenter le nombre d'attributs, notamment lorsqu'ils sont extraits de LBP appliqués aux images couleur. Ce travail de recherche est donc axé sur la réduction de la dimension de l'espace d'attributs générés à partir de motifs binaires locaux par des méthodes de sélection d'attributs. Dans ce cadre, nous considérons l'histogramme des LBP pour la représentation des textures couleur et proposons des approches conjointes de sélection de bins et d'histogrammes multi-espace pour la classification supervisée de textures. Les nombreuses expériences menées sur des bases de référence de texture couleur, démontrent que les approches proposées peuvent améliorer les performances en classification comparées à l'état de l'art. / Texture analysis has been extensively studied and a wide variety of description approaches have been proposed. Among them, Local Binary Pattern (LBP) takes an essential part of most of color image analysis and pattern recognition applications. Usually, devices acquire images and code them in the RBG color space. However, there are many color spaces for texture classification, each one having specific properties. In order to avoid the difficulty of choosing a relevant space, the multi color space strategy allows using the properties of several spaces simultaneously. However, this strategy leads to increase the number of features extracted from LBP applied to color images. This work is focused on the dimensionality reduction of LBP-based feature selection methods. In this framework, we consider the LBP histogram and bin selection approaches for supervised texture classification. Extensive experiments are conducted on several benchmark color texture databases. They demonstrate that the proposed approaches can improve the state-of-the-art results.
8

Metaheuristics for the feature selection problem : adaptive, memetic and swarm approaches / Métaheuristiques pour le problème de sélection d'attributs

Esseghir, Mohamed Amir 29 November 2011 (has links)
Afin d’améliorer la qualité de prédiction des techniques de classification automatique et de fouilles de données, plusieurs modèles ont été proposés dans la littérature en vue d’extraire des connaissances à partir des données. Toutefois, avec l’expansion des systèmes d’information et des technologies associées, ces techniques d’apprentissage s’avèrent de moins en moins adaptées aux nouvelles tailles et dimensions des données. On s’intéresse dans cette étude aux problèmes de grande dimensionnalité et à l’amélioration du processus d’apprentissage des méthodes de classification à travers les techniques de filtrage et de sélection d’attributs. Le problème « d’identification d’attributs pertinents » (Feature Selection Problem), tel qu’il est défini dans la littérature, relève d’une nature combinatoire. Dans le cadre de cette thèse, on s’est intéressé au développement de nouvelles techniques d’optimisation approchées et spécifiques au problème traité ainsi qu’à l’amélioration d’algorithmes existants. La conception, l’implémentation et l’étude empirique ont montré l’efficacité et la pertinence des métaheuristiques proposées. / Although the expansion of storage technologies, networking systems, and information system methodologies, the capabilities of conventional data processing techniques remain limited. The need to knowledge extraction, compact representation and data analysis are highly motivated by data expansion. Nevertheless, learning from data might be a complex task, particularly when it includes noisy, redundant and information-less attributes. Feature Selection (FS) tries to select the most relevant attributes from raw data, and hence guides the construction of final classification models or decision support systems. Selected features should be representative of the underlying data and provide effective usefulness to the targeted learning paradigm (i.e. classification). In this thesis, we investigate different optimization paradigms as well as its adaptation to the requirements of the feature selection challenges, namely the problem combinatorial nature. Both theoritical and empirical aspects were studied, and confirm the effectiveness of the adopted methodology as well as the proposed metaheuristic based approaches.
9

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique / Multivariate methods for the joint analysis of neuroimaging and genetic data

Le floch, Edith 28 September 2012 (has links)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée. / Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach.
10

Détection automatique de chutes de personnes basée sur des descripteurs spatio-temporels : définition de la méthode, évaluation des performances et implantation temps-réel

Charfi, Imen 21 October 2013 (has links) (PDF)
Nous proposons une méthode supervisée de détection de chutes de personnes en temps réel, robusteaux changements de point de vue et d'environnement. La première partie consiste à rendredisponible en ligne une base de vidéos DSFD enregistrées dans quatre lieux différents et qui comporteun grand nombre d'annotations manuelles propices aux comparaisons de méthodes. Nousavons aussi défini une métrique d'évaluation qui permet d'évaluer la méthode en s'adaptant à la naturedu flux vidéo et la durée d'une chute, et en tenant compte des contraintes temps réel. Dans unsecond temps, nous avons procédé à la construction et l'évaluation des descripteurs spatio-temporelsSTHF, calculés à partir des attributs géométriques de la forme en mouvement dans la scène ainsique leurs transformations, pour définir le descripteur optimisé de chute après une méthode de sélectiond'attributs. La robustesse aux changements d'environnement a été évaluée en utilisant les SVMet le Boosting. On parvient à améliorer les performances par la mise à jour de l'apprentissage parl'intégration des vidéos sans chutes enregistrées dans l'environnement définitif. Enfin, nous avonsréalisé, une implantation de ce détecteur sur un système embarqué assimilable à une caméra intelligentebasée sur un composant SoC de type Zynq. Une démarche de type Adéquation AlgorithmeArchitecture a permis d'obtenir un bon compromis performance de classification/temps de traitement

Page generated in 0.4994 seconds