• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Adaptation du contenu spatio-temporel des images pour un codage par ondelettes

Le Guen, Benjamin 14 February 2008 (has links) (PDF)
Les limites de l'ondelette séparable standard, dans le cas 2D, sont bien connues. Le support rectangulaire fixe de l'ondelette ne permet pas d'exploiter la géométrie des images et en particulier les corrélations le long de contours courbes. Ceci se traduit par une dispersion de l'énergie des coefficients dans le domaine ondelette et produit un phénomène de rebonds gênant visuellement lors d'une approximation avec un petit nombre de coefficients. Pour y remédier, une seconde génération d'ondelettes est née. L'approche la plus courante est de déformer le noyau d'ondelette pour l'adapter au contenu géométrique d'une image. <br />Dans cette thèse, nous proposons d'aborder le problème d'adaptativité sous un angle différent. L'idée est de déformer le contenu d'une image pour l'adapter au noyau d'ondelette séparable standard. La déformation est modélisée par un maillage déformable et le critère d'adaptation utilisé est le coût de description de l'image déformée. Une minimisation énergétique similaire à une estimation de mouvement est mise en place pour calculer les paramètres du maillage. A l'issue de cette phase d'analyse, l'image est représentée par une image déformée de moindre coût de codage et par les paramètres de déformation. Après codage, transmission et décodage de ces inforrnations, l'image d'origine peut être synthétisée en inversant la déformation. Les performances en compression de ce schéma par analyse-synthèse spatiales sont étudiées et comparées à celles de JPEG2000. Visuellement, on observe une meilleure reconstruction des contours des images avec une atténuation significative de l'effet rebond. <br />Conservant l'idée d'adapter le contenu des images à un noyau de décomposition fixe, nous proposons ensuite un schéma de codage par analyse-synthèse spatio-temporelles dédié à la vidéo. L'analyse prend en entrée un groupe d'images (GOF) et génère en sortie un groupe d'images déformées dont le contenu est adapté à une décomposition 3D horizontale-verticale-temporelle fixe. Le schéma est conçu de sorte qu'une seule géométrie soit estimée et transmise pour l'ensemble du GOF. Des résultats de compression sont présentés en utilisant le maillage déformable pour modéliser la géométrie et le mouvement. Bien qu'une seule géométrie soit encodée, nous montrons que son coût est trop important pour permettre une amélioration significative de la qualité visuelle par rapport à un schéma par analyse-synthèse exploitant uniquement le mouvement.
332

Conversions sismo-électromagnétiques en milieux poreux

Warden, Sheldon 09 November 2012 (has links) (PDF)
Une onde sismique se propageant dans un milieu poreux contenant un uide crée un mouvement relatif entre ce uide et la matrice solide. En transportant les ions présents en excès dans la double couche électrique, ce mou- vement relatif crée un courant d'électro ltration. Ce phénomène électrocinétique, survenant à l'échelle microscopique, est à l'origine d'au moins deux types de conversions sismo-électromagnétiques observables à l'échelle macroscopique. D'une part, il donne naissance à des champs électromagnétiques cosismiques accompagnant l'onde sismique perturba- trice. D'autre part, lorsqu'une onde sismique traverse une interface séparant deux milieux de propriétés mécaniques, électriques ou hydrologiques di érentes, elle génère une discontinuité du potentiel de part et d'autre de cette interface, qui agit comme une source électromagnétique dipolaire. Les réponses interfaciales ainsi créées voyagent à des vitesses électromagnétiques et sont observées presque simultanément par tous les récepteurs. Cette thèse s'attache à la com- préhension de ces phénomènes et au développement des méthodes d'imagerie géophysique basées sur les conversions sismoélectromagnétiques. Deux axes de travail sont investigués. Le premier concerne le traitement des données sismoélectromagnétiques et en particulier l'extraction des réponses interfaciales, qui peuvent renseigner sur le sous-sol en profondeur. Nous comparons l'impact de plusieurs méthodes de ltrage sur les amplitudes et les formes d'onde des réponses interfaciales. Nous introduisons également une nouvelle technique de séparation d'ondes en domaine des curvelets, qui s'appuie sur les similarités entre les données sismiques et cosismiques. D'autre part, la théorie de la propagation couplée des ondes sismiques et électromagnétiques est limitée aux milieux poreux saturés. Nous l'étendons ici à des milieux partiellement saturés, pour le cas d'un mélange air/eau, en calculant les propriétés mécaniques e ectives du mélange et en écrivant la conductivité électrique, la permittivité diélectrique et le couplage sismoélectrique en fonction de la saturation en eau. Nous adaptons aux conditions non-saturées un programme de simulation numérique des ondes sismo-électromagnétiques basé sur la méthode de la ré ectivité générale. Mots clés : Géophysique de proche surface - Signaux sismo-électromagnétiques - Milieux poreux - Ondelettes - Séparation d'ondes - Modélisation numérique - Zone non-saturée
333

Détection de motifs temporels dans les environnements multi-perceptifs. Application à la classification automatique des Activités de la Vie Quotidienne d'une personne suivie à domicile par télémédecine

Fleury, Anthony 24 October 2008 (has links) (PDF)
À l'horizon 2050, environ un tiers de notre population sera âgée de soixante-cinq ans et plus. Les travaux de l'équipe AFIRM du TIMC-IMAG visent à surveiller les personnes âgées à domicile pour détecter une perte d'autonomie le plus précocement possible. Pour ce faire, les travaux de cette thèse tentent d'objectiver les critères ADL ou les grilles de type AGGIR, en classifiant de manière automatique les différentes activités de la vie quotidienne d'une personne par l'intégration de capteurs, créant un Habitat Intelligent pour la Santé (HIS).<br />L'appartement HIS possède des détecteurs de présence infrarouges (localisation), des contacteurs de porte (utilisation de certaines commodités), un capteur de température et d'hygrométrie dans la salle de bains et des microphones (classification des sons/ reconnaissance de la parole avec l'équipe GETALP du LIG). Un capteur cinématique embarqué détecte les transferts posturaux (reconnaissance de formes avec la transformée en ondelettes) et les périodes de marche (analyse fréquentielle).<br />La première partie de ce manuscrit présente la réalisation du capteur cinématique et les algorithmes associés puis une première validation sur des sujets jeunes suivi de la mise en place et de la validation des autres capteurs de l'appartement HIS et enfin l'algorithme de classification des sept activités de la vie quotidienne reconnues (hygiène, élimination, préparation et prise de repas, repos, habillage/déshabillage, détente et communication), par l'intermédiaire des séparateurs à vaste marge. La seconde partie décrit le protocole expérimental pour valider cette classification et discute de la généralisation des premiers résultats présentés.
334

Modélisation stochastique pour l'analyse d'images texturées : Approches Bayésiennes pour la caractérisation dans le domaine des transformées

Lasmar, Nour-Eddine 07 December 2012 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le cadre de la modélisation d'images texturées à l'aide des représentations multi-échelles et multi-orientations. Partant des résultats d'études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l'éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu'il est pertinent d'associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s'agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l'aide de la copule Gaussienne. L'ensemble des modèles proposés est comparé quantitativement en terme de qualité d'ajustement à l'aide de tests statistiques d'adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d'images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l'état de l'art.
335

Correction des effets de volume partiel en tomographie d'émission

Le Pogam, Adrien 29 April 2010 (has links)
Ce mémoire est consacré à la compensation des effets de flous dans une image, communément appelés effets de volume partiel (EVP), avec comme objectif d’application l’amélioration qualitative et quantitative des images en médecine nucléaire. Ces effets sont la conséquence de la faible résolutions spatiale qui caractérise l’imagerie fonctionnelle par tomographie à émission mono-photonique (TEMP) ou tomographie à émission de positons (TEP) et peuvent être caractérisés par une perte de signal dans les tissus présentant une taille comparable à celle de la résolution spatiale du système d’imagerie, représentée par sa fonction de dispersion ponctuelle (FDP). Outre ce phénomène, les EVP peuvent également entrainer une contamination croisée des intensités entre structures adjacentes présentant des activités radioactives différentes. Cet effet peut conduire à une sur ou sous estimation des activités réellement présentes dans ces régions voisines. Différentes techniques existent actuellement pour atténuer voire corriger les EVP et peuvent être regroupées selon le fait qu’elles interviennent avant, durant ou après le processus de reconstruction des images et qu’elles nécessitent ou non la définition de régions d’intérêt provenant d’une imagerie anatomique de plus haute résolution(tomodensitométrie TDM ou imagerie par résonance magnétique IRM). L’approche post-reconstruction basée sur le voxel (ne nécessitant donc pas de définition de régions d’intérêt) a été ici privilégiée afin d’éviter la dépendance aux reconstructions propres à chaque constructeur, exploitée et améliorée afin de corriger au mieux des EVP. Deux axes distincts ont été étudiés. Le premier est basé sur une approche multi-résolution dans le domaine des ondelettes exploitant l’apport d’une image anatomique haute résolution associée à l’image fonctionnelle. Le deuxième axe concerne l’amélioration de processus de déconvolution itérative et ce par l’apport d’outils comme les ondelettes et leurs extensions que sont les curvelets apportant une dimension supplémentaire à l’analyse par la notion de direction. Ces différentes approches ont été mises en application et validées par des analyses sur images synthétiques, simulées et cliniques que ce soit dans le domaine de la neurologie ou dans celui de l’oncologie. Finalement, les caméras commerciales actuelles intégrant de plus en plus des corrections de résolution spatiale dans leurs algorithmes de reconstruction, nous avons choisi de comparer de telles approches en TEP et en TEMP avec une approche de déconvolution itérative proposée dans ce mémoire. / Partial Volume Effects (PVE) designates the blur commonly found in nuclear medicine images andthis PhD work is dedicated to their correction with the objectives of qualitative and quantitativeimprovement of such images. PVE arise from the limited spatial resolution of functional imaging witheither Positron Emission Tomography (PET) or Single Photon Emission Computed Tomography(SPECT). They can be defined as a signal loss in tissues of size similar to the Full Width at HalfMaximum (FWHM) of the PSF of the imaging device. In addition, PVE induce activity crosscontamination between adjacent structures with different tracer uptakes. This can lead to under or overestimation of the real activity of such analyzed regions. Various methodologies currently exist tocompensate or even correct for PVE and they may be classified depending on their place in theprocessing chain: either before, during or after the image reconstruction process, as well as theirdependency on co-registered anatomical images with higher spatial resolution, for instance ComputedTomography (CT) or Magnetic Resonance Imaging (MRI). The voxel-based and post-reconstructionapproach was chosen for this work to avoid regions of interest definition and dependency onproprietary reconstruction developed by each manufacturer, in order to improve the PVE correction.Two different contributions were carried out in this work: the first one is based on a multi-resolutionmethodology in the wavelet domain using the higher resolution details of a co-registered anatomicalimage associated to the functional dataset to correct. The second one is the improvement of iterativedeconvolution based methodologies by using tools such as directional wavelets and curveletsextensions. These various developed approaches were applied and validated using synthetic, simulatedand clinical images, for instance with neurology and oncology applications in mind. Finally, ascurrently available PET/CT scanners incorporate more and more spatial resolution corrections in theirimplemented reconstruction algorithms, we have compared such approaches in SPECT and PET to aniterative deconvolution methodology that was developed in this work.
336

Physics and modelling of unsteady turbulent flows around aerodynamic and hydrodynamic structures at high Reynold number by numerical simulation / Analyse physique et modélisation d'écoulements turbulents instationnaires autour d'obstacles aérodynamiques et hydrodynamiques à haut nombre de Reynolds par simulation numérique

Szubert, Damien 29 June 2015 (has links)
Les objectifs de cette thèse sont d'étudier les capacité prédictive des méthodes statistiques URANS et hybrides RANS-LES à modéliser des écoulements complexes à haut nombre de Reynolds et de réaliser l'analyse physique de la turbulence et des structures cohérentes en proche paroi. Ces travaux traitent de configurations étudiées dans le cadre des projets européens ATAAC (Advanced Turbulent Simulation for Aerodynamics Application Challenges) et TFAST (Transition Location Effect on Shock Wave Boundary Layer Interaction). Premièrement, l'écoulement décollé autour d’une configuration de cylindre en tandem, positionnés l'un derrière l’autre, est étudiée à un nombre de Reynolds de 166000. Un cas statique, correspondant schématique aux support de train d'atterrissage, est d’abord considéré. L’interaction fluide-structure est ensuite étudiée dans le cas dynamique, dans lequel le cylindre aval possède un degré de liberté en translation dans la direction perpendiculaire à l'écoulement. Une étude paramétrique est menée afin d'identifier les différents régimes d'interaction en fonction des paramètres structuraux. Dans un deuxième temps, la physique du tremblement transsonique est étudiée au moyen d’une analyse temps-fréquence et d’une décomposition orthogonale en modes propres (POD), dans l’intervalle de nombre de Mach 0.70–0.75. Les interactions entre le choc principal, la couche limite décollée par intermittence et les tourbillons se développant dans le sillage, sont analysées. Un forçage stochastique, basée sur une réinjection de turbulence synthétique dans les équations de transport de l’énergie cinétique et du taux de dissipation générée à partir de la reconstruction POD, a été introduit dans l’approche OES (organised-eddy simulation). Cette méthode introduit une modélisation de la turbulence “upscale" agissant comme un mécanisme de blocage par tourbillons capable de prendre en compte les interfaces turbulent/non-turbulent et de couches de cisaillement autour des géométries. Cette méthode améliore grandement la prédiction des forces aérodynamiques et ouvre de nouvelles perspectives quant aux approches de type moyennes d’ensemble pour modéliser les processus cohérents et aléatoires à haut nombre de Reynolds. Enfin, l'interaction onde de choc/couche limite (SWBLI) est traitée, dans le cas d’un choc oblique à nombre de Mach 1.7, contribuant aux études de "design d'ailes laminaires" au niveau européen. Les performances des modèles URANS et hybrides RANS-LES ont été analysées en comparant, avec les résultats expérimentaux, les valeurs intégrales de la couche limite (épaisseurs de déplacement et de quantité de mouvement) et les valeurs à la paroi (coefficient de frottement). Les effets de la transition dans la couche limite sur l’interaction choc/couche limite sont caractérisés. / This thesis aims at analysing the predictive capabilities of statistical URANS and hybrid RANS-LES methods to model complex flows at high Reynolds numbers and carrying out a physical analysis of the near-region turbulence and coherent structures. This study handles configurations included in the European research programmes ATAAC (Advanced Turbulent Simulation for Aerodynamics Application Challenges) and TFAST (Transition Location Effect on Shock Wave Boundary Layer Interaction). First, the detached flow in a configuration of a tandem of cylinders, positionned behind one another, is investigated at Reynolds number 166000. A static case, corresponding to the layout of the support of a landing gear, is initially considered. The fluid-structure interaction is then studied in a dynamic case where the downstream cylinder, situated in the wake of the upstream one, is given one degree of freedom in translation in the crosswise direction. A parametric study of the structural parameters is carried out to identify the various regimes of interaction. Secondly, the physics of the transonic buffet is studied by means of time-frequency analysis and proper orthogonal decomposition (POD), in the Mach number range 0.70–0.75. The interactions between the main shock wave, the alternately detached boundary layer and the vortices developing in the wake are analysed. A stochastic forcing, based on reinjection of synthetic turbulence in the transport equations of kinetic energy and dissipation rate by using POD reconstruction, has been introduced in the so-called organised-eddy simulation (OES) approach. This method introduces an upscale turbulence modelling, acting as an eddy-blocking mechanism able to capture thin shear-layer and turbulent/non-turbulent interfaces around the body. This method highly improves the aerodynamic forces prediction and opens new ensemble-averaged approaches able to model the coherent and random processes at high Reynolds number. Finally, the shock-wave/boundary-layer interaction (SWBLI) is investigated in the case of an oblique shock wave at Mach number 1.7 in order to contribute to the so-called "laminar wing design" studies at European level. The performance of statistical URANS and hybrid RANS-LES models is analysed with comparison, with experimental results, of integral boundary-layer values (displacement and momentum thicknesses) and wall quantities (friction coefficient). The influence of a transitional boundary layer on the SWBLI is featured.
337

Tests d’indépendance par bootstrap et permutation : étude asymptotique et non-asymptotique. Application en neurosciences / Tests of independence by bootstrap and permutation : an asymptotic and non-asymptotic study. Application to neurosciences.

Albert, Mélisande 16 November 2015 (has links)
Premièrement, nous construisons de tels tests basés sur des approches par bootstrap ou par permutation, et étudions leurs propriétés asymptotiques dans un cadre de processus ponctuels, à travers l'étude du comportement asymptotique des lois conditionnelles des statistiques de test bootstrappée et permutée, sous l'hypothèse nulle ainsi que toute alternative. Nous les validons en pratique par simulation et les comparons à des méthodes classiques en neurosciences. Ensuite, nous nous concentrons sur les tests par permutation, connus pour contrôler non-asymptotiquement leur niveau. Les p-valeurs basées sur la notion de coïncidences avec délai, sont implémentées dans une procédure de tests multiples, appelée méthode Permutation Unitary Events, pour détecter les synchronisations entre deux neurones. Nous validons la méthode par simulation avant de l'appliquer à de vraies données. Deuxièmement, nous étudions les propriétés non-asymptotiques des tests par permutation en termes de vitesse de séparation uniforme. Nous construisons une procédure de tests agrégés, basée sur du seuillage par ondelettes dans un cadre de variables aléatoires à densité. Nous déduisons d'une inégalité fondamentale de Talagrand, une nouvelle inégalité de concentration de type Bernstein pour des sommes permutées aléatoirement qui nous permet de majorer la vitesse de séparation uniforme sur des espaces de Besov faibles et d'en déduire que cette procédure semble être optimale et adaptative au sens du minimax. / On the one hand, we construct such tests based on bootstrap and permutation approaches. Their asymptotic performance are studied in a point process framework through the analysis of the asymptotic behavior of the conditional distributions of both bootstrapped and permuted test statistics, under the null hypothesis as well as under any alternative. A simulation study is performed verifying the usability of these tests in practice, and comparing them to existing classical methods in Neuroscience. We then focus on the permutation tests, well known for their non-asymptotic level properties. Their p-values, based on the delayed coincidence count, are implemented in a multiple testing procedure, called Permutation Unitary Events method, to detect the synchronization occurrences between two neurons. The practical validity of the method is verified on a simulation study before being applied on real data. On the other hand, the non-asymptotic performances of the permutation tests are studied in terms of uniform separation rates. A new aggregated procedure based on a wavelet thresholding method is developed in the density framework. Based on Talagrand's fundamental inequalities, we provide a new Bernstein-type concentration inequality for randomly permuted sums. In particular, it allows us to upper bound the uniform separation rate of the aggregated procedure over weak Besov spaces and deduce that this procedure seems to be optimal and adaptive in the minimax sens.
338

Intégration multi-échelles des données de réservoir et quantification des incertitudes / Multi-scale reservoir data integration and uncertainty quantification

Gentilhomme, Théophile 28 May 2014 (has links)
Dans ce travail, nous proposons de suivre une approche multi-échelles pour simuler des propriétés spatiales des réservoirs, permettant d'intégrer des données directes (observation de puits) ou indirectes (sismique et données de production) de résolutions différentes. Deux paramétrisations sont utilisées pour résoudre ce problème: les ondelettes et les pyramides gaussiennes. A l'aide de ces paramétrisations, nous démontrons les avantages de l'approche multi-échelles sur deux types de problèmes d'estimations des incertitudes basés sur la minimisation d'une distance. Le premier problème traite de la simulation de propriétés à partir d'un algorithme de géostatistique multipoints. Il est montré que l'approche multi-échelles basée sur les pyramides gaussiennes améliore la qualité des réalisations générées, respecte davantage les données et réduit les temps de calculs par rapport à l'approche standard. Le second problème traite de la préservation des modèles a priori lors de l'assimilation des données d'historique de production. Pour re-paramétriser le problème, nous développons une transformée en ondelette 3D applicable à des grilles stratigraphiques complexes de réservoir, possédant des cellules mortes ou de volume négligeable. Afin d'estimer les incertitudes liées à l'aspect mal posé du problème inverse, une méthode d'optimisation basée ensemble est intégrée dans l'approche multi-échelles de calage historique. A l'aide de plusieurs exemples d'applications, nous montrons que l'inversion multi-échelles permet de mieux préserver les modèles a priori et est moins assujettie au bruit que les approches standards, tout en respectant aussi bien les données de conditionnement. / In this work, we propose to follow a multi-scale approach for spatial reservoir properties characterization using direct (well observations) and indirect (seismic and production history) data at different resolutions. Two decompositions are used to parameterize the problem: the wavelets and the Gaussian pyramids. Using these parameterizations, we show the advantages of the multi-scale approach with two uncertainty quantification problems based on minimization. The first one concerns the simulation of property fields from a multiple points geostatistics algorithm. It is shown that the multi-scale approach based on Gaussian pyramids improves the quality of the output realizations, the match of the conditioning data and the computational time compared to the standard approach. The second problem concerns the preservation of the prior models during the assimilation of the production history. In order to re-parameterize the problem, we develop a new 3D grid adaptive wavelet transform, which can be used on complex reservoir grids containing dead or zero volume cells. An ensemble-based optimization method is integrated in the multi-scale history matching approach, so that an estimation of the uncertainty is obtained at the end of the optimization. This method is applied on several application examples where we observe that the final realizations better preserve the spatial distribution of the prior models and are less noisy than the realizations updated using a standard approach, while matching the production data equally well.
339

Quelques problèmes en analyse harmonique non commutative / Some problems on noncommutative harmonique analysis

Hong, Guixiang 29 September 2012 (has links)
Quelques problèmes en analyse harmonique non commutative / Some problems on noncommutative harmonique analysis
340

Modèles de covariance pour l'analyse et la classification de signaux électroencéphalogrammes / Covariance models for electroencephalogramm signals analysis and classification

Spinnato, Juliette 06 July 2015 (has links)
Cette thèse s’inscrit dans le contexte de l’analyse et de la classification de signaux électroencéphalogrammes (EEG) par des méthodes d’analyse discriminante. Ces signaux multi-capteurs qui sont, par nature, très fortement corrélés spatialement et temporellement sont considérés dans le plan temps-fréquence. En particulier, nous nous intéressons à des signaux de type potentiels évoqués qui sont bien représentés dans l’espace des ondelettes. Par la suite, nous considérons donc les signaux représentés par des coefficients multi-échelles et qui ont une structure matricielle électrodes × coefficients. Les signaux EEG sont considérés comme un mélange entre l’activité d’intérêt que l’on souhaite extraire et l’activité spontanée (ou "bruit de fond"), qui est largement prépondérante. La problématique principale est ici de distinguer des signaux issus de différentes conditions expérimentales (classes). Dans le cas binaire, nous nous focalisons sur l’approche probabiliste de l’analyse discriminante et des modèles de mélange gaussien sont considérés, décrivant dans chaque classe les signaux en termes de composantes fixes (moyenne) et aléatoires. Cette dernière, caractérisée par sa matrice de covariance, permet de modéliser différentes sources de variabilité. Essentielle à la mise en oeuvre de l’analyse discriminante, l’estimation de cette matrice (et de son inverse) peut être dégradée dans le cas de grandes dimensions et/ou de faibles échantillons d’apprentissage, cadre applicatif de cette thèse. Nous nous intéressons aux alternatives qui se basent sur la définition de modèle(s) de covariance(s) particulier(s) et qui permettent de réduire le nombre de paramètres à estimer. / The present thesis finds itself within the framework of analyzing and classifying electroencephalogram signals (EEG) using discriminant analysis. Those multi-sensor signals which are, by nature, highly correlated spatially and temporally are considered, in this work, in the timefrequency domain. In particular, we focus on low-frequency evoked-related potential-type signals (ERPs) that are well described in the wavelet domain. Thereafter, we will consider signals represented by multi-scale coefficients and that have a matrix structure electrodes × coefficients. Moreover, EEG signals are seen as a mixture between the signal of interest that we want to extract and spontaneous activity (also called "background noise") which is overriding. The main problematic is here to distinguish signals from different experimental conditions (class). In the binary case, we focus on the probabilistic approach of the discriminant analysis and Gaussian mixtures are used, describing in each class the signals in terms of fixed (mean) and random components. The latter, characterized by its covariance matrix, allow to model different variability sources. The estimation of this matrix (and of its inverse) is essential for the implementation of the discriminant analysis and can be deteriorated by high-dimensional data and/or by small learning samples, which is the application framework of this thesis. We are interested in alternatives that are based on specific covariance model(s) and that allow to decrease the number of parameters to estimate.

Page generated in 0.044 seconds