Spelling suggestions: "subject:"séparation aveugle dde sources,"" "subject:"séparation aveugle dee sources,""
1 |
Filtrage d'artefacts par analyse multicomposante de l'électroencéphalogramme de patients épileptiques / Artifact filtering by multicomponent analysis on electroencephalogram of epileptic patientsBoudet, Samuel 03 July 2008 (has links)
L'électroencéphalographie (EEG) consiste à mesurer l'activité électrique du cerveau à l'aide d'électrodes placées à la surface du cuir chevelu. Cette technique est principalement utilisée pour le diagnostic de l'épilepsie. Certains grapho-éléments comme des ondes lentes et des pointes-ondes peuvent apparaitre sur l'EEG permettant au neurologue de détecter une souffrance épileptique. Malheureusement, cette activité peut être fortement contaminée par des signaux parasites appelés artefacts. Ces artefacts ont pour origines principales l'activité oculaire, l'activité musculaire, le rythme cardiaque et les légers déplacements d'électrodes. Les fréquences des grapho-éléments pathologique recouvrent celles des artefacts et nous avons alors recours à des filtres spatiaux, reposant sur la séparation de sources. Le principe est de déterminer un ensemble de sources d'origines cérébrales et un ensemble de sources d'artefacts. Les sources d'artefacts sont supprimées et les sources cérébrales sont utilisées pour reconstruire le signal. Nous présentons dans cette thèse plusieurs méthodes combinant les filtres spatiaux et les filtres frèquentiels afin d'automatiser le filtrage. Une démarche quantitative a été définie afin de valider ces méthodes, nous permettant de choisir la méthode la plus performante appelée Adaptive Filtering by Optimal Projection (AFOP). Les tests sur des enregistrements cliniques de patient épileptiques, ont montré, selon l'avis du neurologue, l'efficacité d'AFOP sur la plupart des types d'artefacts ainsi que son respect des rythmes cérébraux. / The electroencephalography (EEG) consists in measuring brain electrical activity thanks to electrodes located on the scalp surface. This technique is mainly used for the diagnostic of epilepsy. Sorne grapho-elements like slow waves and spike waves can appear on the EEG, enabling the neurologist to detect an epilepsy pain. Unfortunately, this activity can be highly contaminated by parasitical signals called artifacts. These artifacts have for main origins, the ocular activity, the muscular activity, the cardiac rhythm and tight electrode displacements. The frequencies of pathological grapho-elements recover those of artifacts, and it is then required to use spatial filter which rests on source separation. The principle is to determine a set of cerebral sources and a set of artifacts sources. Artifact sources are then cancelled and the cerebral ones are used to rebuild the signal. This thesis presents several methods using both spatial and frequential filters, making the EEG filtering automated. A quantitative approach of filtering validation is defined, which enables the author to choose the most efficient called Adaptive Filtering by Optimal Projection (AFOP). According to the neurologist, tests on clinical recordings of epileptic patients prove AFOP efficiency on cancelling most of artifact types as well as on respecting cerebn rhythms.
|
2 |
Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéairesAchard, Sophie 02 December 2003 (has links) (PDF)
Cette thèse traite de méthodes statistiques appliquées au traitement du signal. Afin de résoudre le problème de séparation aveugle de sources à l'aide de la méthode d'analyse en composantes indépendantes, nous introduisons deux mesures de dépendance, l'une bien connue l'information mutuelle, et l'autre que nous appelons la mesure de dépendance quadratique. Nous montrons le lien de cette dernière avec les fonctions caractéristiques et en proposons une estimation simple, dont les propriétés asymptotiques sont obtenues grâce aux U-statistiques. Les choix du noyau et de la taille de fenêtre sont ainsi analysés. Enfin, la minimisation des mesures de dépendance permet de résoudre le problème de séparation de sources dans le cadre de mélanges post non linéaires. Plusieurs approches sont proposées, dont une non paramétrique basée sur les dérivées des non linéarités. Nous illustrons les obstacles à la minimisation par des graphes des fonctions objectifs.
|
3 |
Contribution à l'étude du problème de synchronisation de porteuse dans le contexte de la Radio IntelligenteMetref, Adel 12 March 2010 (has links) (PDF)
Bien que de nombreux travaux de recherche aient été menés au cours des deux dernières décennies pour résoudre le problème de la synchronisation de la porteuse, il constitue aujourd'hui une thématique de recherche d'une grande importance pour divers systèmes récents de la radiocommunication comme les technologies émergentes de la Radio Logicielle Restreinte (RLR) et de la Radio Intelligente (RI). En effet, les systèmes de la RLR sont multi-fonctionnels et flexibles, dans le sens où ils peuvent traiter une variété de standards et de services tout en offrant des solutions à faible coût. Quant à la technologie RI, c'est une vision futuriste d'une radio visant la conception de dispositifs sans fil dotés de capacités d'apprentissage, d'adaptation, et de reconfiguration. Dans ce contexte, les solutions existantes du problème de synchronisation doivent être adaptées à ces nouvelles générations de technologies radio en vu d'obtenir les meilleures performances. De nombreuses contributions au problème de la synchronisation de phase de la porteuse sont présentées dans cette thèse. Dans la première partie du travail, nous avons effectué une analyse théorique rigoureuse et complète du détecteur de phase DD. En se basant sur les résultats de cette étude, nous avons proposé une boucle de synchronisation optimisée pour la modulation 16-QAM ainsi qu'un nouveau détecteur de verrouillage de phase pour les modulations de type QAM. Par ailleurs, nous avons proposé une structure de synchronisation de phase adaptée aux applications de la RI, qui est capable de récupérer la phase de façon aveugle vis à vis du type de modulation du signal reçu. L'idée consiste à utiliser une mesure dite "fiabilité", extraite du détecteur de phase de la boucle de synchronisation et qui fournit une information sur la modulation du signal entrant. Enfin, nous avons discuté d'une vision SIMO du problème de synchronisation de phase, exploitant les possibilités offertes par une architecture de réception RLR.
|
4 |
Séparation Aveugle de Mélanges Convolutifs de SourcesBoumaraf, Hakim 26 October 2005 (has links) (PDF)
Dans cette thèse, la Séparation Aveugle de Mélanges Convolutifs de Sources est étudiée. Pour la séparation des mélanges audio, nous avons développé des méthodes nouvelles pour les cas avec bruit et sans bruit dans l'environnement de propagation. La méthode sans bruit est basée sur la diagonalisation conjointe des matrices spectrales et exploite la non stationnarité des signaux. Nous avons proposé deux techniques différentes pour résoudre le problème de permutation. La deuxième méthode, où un bruit additif est présent, est basée sur le maximum de vraisemblance. La simulation des méthodes est réalisée sur des données réelles de salles acoustiques.
|
5 |
Approche temps-fréquence pour la séparation aveugle de sources non-stationnairesFévotte, Cédric 23 October 2003 (has links) (PDF)
Le travail présenté dans cette thèse concerne la Séparation<br />Aveugle de Sources (SAS). La SAS consiste à estimer n signaux<br />inconnus (les sources) d'après la seule connaissance de m<br />mélanges de ces signaux (les observations).<br /><br />Nous étudions dans un premier temps l'identifiabilité des sources<br />dans le problème de la séparation aveugle de mélanges linéaires<br />instantanés (sur)déterminés (m >= n). Plusieurs modèles de<br />sources identifiables sont examinés. En particulier, il est montré<br />que si les sources possèdent une diversité temporelle et/ou<br />fréquentielle, leur indépendance mutuelle à l'ordre 2 suffit à<br />garantir leur identifiabilité.<br /><br />Nous décrivons dans un deuxième temps quelques méthodes de SAS<br />construites sur les hypothèses des modèles identifiables examinés.<br />Ces méthodes ont en commun d'être basées sur une procédure de<br />diagonalisation simultanée de matrices. Nous nous intéressons plus<br />particulièrement à une méthode adaptée aux sources<br />non-stationnaires, basée sur la diagonalisation simultanée de<br />matrices extraites du Spectre de Wigner-Ville Spatial (SWVS) des<br />observations à certains points du plan temps-fréquence (et après<br />blanchiment spatial). Nous proposons une approche théorique dans<br />un contexte stochastique qui justifie l'approximation en pratique<br />du SWVS par des Représentations Temps-Fréquence Spatiales de la<br />classe de Cohen. Les performances de la méthode dépendent dans une<br />large mesure de la sélection des points temps-fréquence et nous<br />proposons un critère de sélection robuste basé sur la détection<br />d'auto-termes simples des sources. Une étude statistique des<br />performances des méthodes exposées est réalisée sur des signaux<br />synthétiques non-stationnaires de type TVARMA. Une série de<br />critères d'évaluation originaux est proposée.<br /><br />Enfin, dans un troisième temps, nous montrons comment les méthodes <br />de SAS présentées dans le cas de mélanges linéaires instantanés <br />peuvent être généralisées à la séparation de mélanges convolutifs à <br />Réponse Impulsionnelle Finie en utilisant une procédure de <br />bloc-diagonalisation simultanée. Quelques résultats sur des <br />mélanges synthétiques de signaux audio sont présentés.
|
6 |
Séparation aveugle de sources audio dans le contexte automobileAïssa-El-Bey, Abdeldjalil 06 July 2007 (has links) (PDF)
Cette thèse se déroule dans le cadre d'une étude sur la séparation de sources audio dans un milieu réverbérant. Cette étude est menée par l'ENST d'une part et FTR&D (Lannion) d'autre part.<br /><br />Dans le cadre de notre étude nous avons montré comment effectuer la séparation de sources audio en utilisant une méthode basée sur des algorithmes de décomposition modale (EMD ou ESPRIT). Les avantages de cette approche résident dans le fait qu'elle permet de traiter le cas des mélanges instantanés et convolutifs, et elle nous permet en particulier, de traiter le cas sous-déterminé. Cette approche se base sur le fait que les signaux audio (et particulièrement les signaux musicaux) peuvent être bien modélisés localement par une somme de signaux périodiques. Ces signaux seront donc décomposés en utilisant les algorithmes de décomposition modale et recombinés par classification suivant leurs directions spatiales regroupant ainsi les composantes de chacune des sources. Cette méthode peut être utilisée dans le cas du mélange convolutif sur-déterminé, en lui conjuguant une décomposition en valeurs et vecteurs propres et un critère de parcimonie approprié.<br /><br />Toujours dans le cadre de cette thèse, nous avons montré comment effectuer la séparation de mélange instantané de sources audio dans le cas sous-déterminé en utilisant la propriété de parcimonie des signaux audio dans le domaine temps-fréquence. Nous proposons deux méthodes utilisant différentes transformées dans le domaine temps-fréquence. La première utilise les distributions temps-fréquence quadratiques DTFQ (ou STFD pour "Spatial Time Frequency Distribution"), la deuxième utilise la transformée de Fourier à court terme TFCT (ou STFT pour "Short Time Fourier Transform"). Ces deux méthodes supposent que les sources sont disjointes dans le domaine temps-fréquence ; c'est à dire qu'une seule source est présente dans chaque point temps-fréquence. Nous proposons ensuite de relâcher cette contrainte on supposant que les sources ne sont pas forcément disjointes dans le domaine temps-fréquence. En particulier, le nombre de sources présentent en un point temps-fréquence doit être strictement inférieur au nombre de capteur. Pour effectuer la séparation dans ce cas de figure, on utilise la projection en sous-espace qui permet d'identifier les sources présentent dans chaque point temps-fréquence et de déterminer la valeur correspondante à chaque source. Une contribution sous-jacente est celle d'une nouvelle méthode d'estimation de la matrice de mélange dans le cas sous-déterminé.<br /><br />Dans le même esprit, nous avons introduit une approche basée sur la transformation dans le domaine temps-fréquence pour résoudre le problème de séparation de mélange convolutif de sources audio dans le cas sous-déterminé. Cette approche nécessite une pré estimation du canal de mélange qui sera réalisée en exploitant la propriété de parcimonie temporelle des signaux audio et la structure des canaux acoustiques.<br /><br />Nous avons exploité aussi la propriété de parcimonie des signaux audio dans le domaine temporel. Nous avons proposé une méthode itérative utilisant une technique du gradient relatif qui minimise une fonction de contraste basée sur la norme Lp. Cette norme pour p < 2 (ou même p < 1) est considérée comme une bonne mesure de parcimonie. Les simulations prouvent que la méthode proposée surpasse d'autres méthodes basées sur l'indépendance de source.<br /><br />Pour Finir, nous nous sommes intéressés à une méthode itérative de séparation de sources utilisant les statistiques d'ordre deux (SOS pour Second Ordre Statistics). Les statistiques d'ordre deux des données observées s'avèrent suffisantes pour séparer des sources mutuellement non corrélées à condition que les vecteurs de corrélation temporelles des sources considérés soient linéairement indépendants par paires. En appliquant une technique de gradient naturel, on déduit un algorithme itératif qui possède un certain nombre de propriétés attrayantes, comme sa simplicité et sa généralisation aux cas adaptatifs ou convolutifs. Nous proposons aussi une analyse de performances asymptotique de cet algorithme qui sera validée par plusieurs simulations.
|
7 |
Méthodes de séparation aveugle de sources fondées sur des transformées temps-fréquence. Application à des signaux de parole.Puigt, Mathieu 13 December 2007 (has links) (PDF)
Plusieurs méthodes de séparation aveugle de source (SAS), fondées sur des transformées temps-fréquence (TF), ont été proposées au cours de cette thèse. En sortie des systèmes utilisés, une contribution de chaque source est estimée, uniquement à l'aide des signaux mélangés. Toutes les méthodes étudiées dans ce manuscrit trouvent des petites zones du plan TF où une seule source est présente et estiment dans ces zones les paramètres de mélange. Ces approches sont particulièrement adaptées aux sources non-stationnaires.<br />Nous avons tout d'abord étudié et amélioré des méthodes proposées précédemment par l'équipe, basées sur des critères de variance ou de corrélation, pour des mélanges linéaires instantanés. Elles apportent d'excellentes performances pour des signaux de parole et peuvent aussi séparer des spectres issus de données astrophysiques. Cependant, la nature des mélanges qu'elles peuvent traiter limite leur champ d'application.<br />Nous avons donc étendu ces approches à des mélanges plus réalistes. Les premières extensions considèrent des mélanges de sources atténuées et décalées temporellement, ce qui correspond physiquement aux mélanges en chambre anéchoïque. Elles nécessitent des hypothèses de parcimonie beaucoup moins fortes que certaines approches de la littérature, tout en traitant le même type de mélanges. Nous avons étudié l'apport de méthodes de classification non-supervisée sur nos approches et avons obtenu de bonnes performances pour des mélanges de signaux de parole.<br />Enfin, une extension théorique aux mélanges convolutifs généraux est décrite mais nécessite de fortes hypothèses de parcimonie et le réglage d'indéterminations propres aux méthodes fréquentielles.
|
8 |
Algorithmes temporels rapides à point fixe pour la séparation aveugle de mélanges convolutifs et/ou sous-déterminés.Thomas, Johan 12 December 2007 (has links) (PDF)
La première partie de cette thèse est consacrée aux mélanges convolutifs (sur-)déterminés. Nous cherchons à étendre l'algorithme FastICA aux mélanges convolutifs en proposant un algorithme à point fixe opérant dans le domaine temporel. Nous introduisons un processus de blanchiment spatio-temporel non-causal, qui, en initialisant les paramètres d'extraction d'une façon particulière, permet d'utiliser des itérations d'optimisation de type point fixe. L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener non-causal.<br /> Dans la deuxième partie, consacrée aux mélanges sous-déterminés instantanés et convolutifs, nous cherchons aussi à étendre l'algorithme FastICA en nous basant sur le concept de séparation différentielle. Nous proposons des procédures de blanchiment différentiel des observations qui permettent l'emploi d'itérations à point fixe pour séparer entre elles des sources dites utiles. En convolutif, les contributions sont estimées au moyen d'un filtre de Wiener différentiel non-causal. <br /> La troisième partie, consacrée aux mélanges instantanés de sources contenant un grand nombre d'échantillons, met d'abord en évidence une limitation de l'algorithme FastICA, qui, à chaque itération d'optimisation, calcule des statistiques sur l'ensemble des échantillons disponibles. Le critère du kurtosis étant polynômial relativement aux coefficients d'extraction, nous proposons une procédure d'identification de ce polynôme qui permet d'effectuer l'optimisation dans un espace de calcul moins gourmand. Ce principe est ensuite appliqué aux mélanges instantanés sous-déterminés.
|
9 |
Decomposition methods of NMR signal of complex mixtures : models ans applicationsToumi, Ichrak 28 October 2013 (has links)
L'objectif de ce travail était de tester des méthodes de SAS pour la séparation des spectres complexes RMN de mélanges dans les plus simples des composés purs. Dans une première partie, les méthodes à savoir JADE et NNSC ont été appliqué es dans le cadre de la DOSY , une application aux données CPMG était démontrée. Dans une deuxième partie, on s'est concentré sur le développement d'un algorithme efficace "beta-SNMF" . Ceci s'est montré plus performant que NNSC pour beta inférieure ou égale à 2. Etant donné que dans la littérature, le choix de beta a été adapté aux hypothèses statistiques sur le bruit additif, une étude statistique du bruit RMN de la DOSY a été faite pour obtenir une image plus complète de nos données RMN étudiées. / The objective of the work was to test BSS methods for the separation of the complex NMR spectra of mixtures into the simpler ones of the pure compounds. In a first part, known methods namely JADE and NNSC were applied in conjunction for DOSY , performing applications for CPMG were demonstrated. In a second part, we focused on developing an effective algorithm "beta- SNMF ". This was demonstrated to outperform NNSC for beta less or equal to 2. Since in the literature, the choice of beta has been adapted to the statistical assumptions on the additive noise, a statistical study of NMR DOSY noise was done to get a more complete picture about our studied NMR data.
|
10 |
Factor analysis of dynamic PET imagesCruz Cavalcanti, Yanna 31 October 2018 (has links)
La tomographie par émission de positrons (TEP) est une technique d'imagerie nucléaire noninvasive qui permet de quantifier les fonctions métaboliques des organes à partir de la diffusion d'un radiotraceur injecté dans le corps. Alors que l'imagerie statique est souvent utilisée afin d'obtenir une distribution spatiale de la concentration du traceur, une meilleure évaluation de la cinétique du traceur est obtenue par des acquisitions dynamiques. En ce sens, la TEP dynamique a suscité un intérêt croissant au cours des dernières années, puisqu'elle fournit des informations à la fois spatiales et temporelles sur la structure des prélèvements de traceurs en biologie \textit{in vivo}. Les techniques de quantification les plus efficaces en TEP dynamique nécessitent souvent une estimation de courbes temps-activité (CTA) de référence représentant les tissus ou une fonction d'entrée caractérisant le flux sanguin. Dans ce contexte, de nombreuses méthodes ont été développées pour réaliser une extraction non-invasive de la cinétique globale d'un traceur, appelée génériquement analyse factorielle. L'analyse factorielle est une technique d'apprentissage non-supervisée populaire pour identifier un modèle ayant une signification physique à partir de données multivariées. Elle consiste à décrire chaque voxel de l'image comme une combinaison de signatures élémentaires, appelées \textit{facteurs}, fournissant non seulement une CTA globale pour chaque tissu, mais aussi un ensemble des coefficients reliant chaque voxel à chaque CTA tissulaire. Parallèlement, le démélange - une instance particulière d'analyse factorielle - est un outil largement utilisé dans la littérature de l'imagerie hyperspectrale. En imagerie TEP dynamique, elle peut être très pertinente pour l'extraction des CTA, puisqu'elle prend directement en compte à la fois la non-négativité des données et la somme-à-une des proportions de facteurs, qui peuvent être estimées à partir de la diffusion du sang dans le plasma et les tissus. Inspiré par la littérature de démélange hyperspectral, ce manuscrit s'attaque à deux inconvénients majeurs des techniques générales d'analyse factorielle appliquées en TEP dynamique. Le premier est l'hypothèse que la réponse de chaque tissu à la distribution du traceur est spatialement homogène. Même si cette hypothèse d'homogénéité a prouvé son efficacité dans plusieurs études d'analyse factorielle, elle ne fournit pas toujours une description suffisante des données sousjacentes, en particulier lorsque des anomalies sont présentes. Pour faire face à cette limitation, les modèles proposés ici permettent un degré de liberté supplémentaire aux facteurs liés à la liaison spécifique. Dans ce but, une perturbation spatialement variante est introduite en complément d'une CTA nominale et commune. Cette variation est indexée spatialement et contrainte avec un dictionnaire, qui est soit préalablement appris ou explicitement modélisé par des non-linéarités convolutives affectant les tissus de liaisons non-spécifiques. Le deuxième inconvénient est lié à la distribution du bruit dans les images PET. Même si le processus de désintégration des positrons peut être décrit par une distribution de Poisson, le bruit résiduel dans les images TEP reconstruites ne peut généralement pas être simplement modélisé par des lois de Poisson ou gaussiennes. Nous proposons donc de considérer une fonction de coût générique, appelée $\beta$-divergence, capable de généraliser les fonctions de coût conventionnelles telles que la distance euclidienne, les divergences de Kullback-Leibler et Itakura-Saito, correspondant respectivement à des distributions gaussiennes, de Poisson et Gamma. Cette fonction de coût est appliquée à trois modèles d'analyse factorielle afin d'évaluer son impact sur des images TEP dynamiques avec différentes caractéristiques de reconstruction. / Thanks to its ability to evaluate metabolic functions in tissues from the temporal evolution of a previously injected radiotracer, dynamic positron emission tomography (PET) has become an ubiquitous analysis tool to quantify biological processes. Several quantification techniques from the PET imaging literature require a previous estimation of global time-activity curves (TACs) (herein called \textit{factors}) representing the concentration of tracer in a reference tissue or blood over time. To this end, factor analysis has often appeared as an unsupervised learning solution for the extraction of factors and their respective fractions in each voxel. Inspired by the hyperspectral unmixing literature, this manuscript addresses two main drawbacks of general factor analysis techniques applied to dynamic PET. The first one is the assumption that the elementary response of each tissue to tracer distribution is spatially homogeneous. Even though this homogeneity assumption has proven its effectiveness in several factor analysis studies, it may not always provide a sufficient description of the underlying data, in particular when abnormalities are present. To tackle this limitation, the models herein proposed introduce an additional degree of freedom to the factors related to specific binding. To this end, a spatially-variant perturbation affects a nominal and common TAC representative of the high-uptake tissue. This variation is spatially indexed and constrained with a dictionary that is either previously learned or explicitly modelled with convolutional nonlinearities affecting non-specific binding tissues. The second drawback is related to the noise distribution in PET images. Even though the positron decay process can be described by a Poisson distribution, the actual noise in reconstructed PET images is not expected to be simply described by Poisson or Gaussian distributions. Therefore, we propose to consider a popular and quite general loss function, called the $\beta$-divergence, that is able to generalize conventional loss functions such as the least-square distance, Kullback-Leibler and Itakura-Saito divergences, respectively corresponding to Gaussian, Poisson and Gamma distributions. This loss function is applied to three factor analysis models in order to evaluate its impact on dynamic PET images with different reconstruction characteristics.
|
Page generated in 0.2239 seconds