• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 29
  • 11
  • Tagged with
  • 115
  • 56
  • 55
  • 46
  • 40
  • 31
  • 31
  • 31
  • 31
  • 31
  • 28
  • 23
  • 22
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation.

Soulez, Ferréol 11 December 2008 (has links) (PDF)
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.<br />L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.<br /><br />Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).<br /><br />Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
92

Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage Laser

Pankajakshan, Praveen 15 December 2009 (has links) (PDF)
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
93

Méthodes de séparation aveugle de sources et application à la télédétection spatiale

Karoui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
94

Outils pour la détection et la classification<br />Application au diagnostic de défauts de surface de rail

Bentoumi, Mohamed 15 October 2004 (has links) (PDF)
Le travail présenté dans ce mémoire aborde les problématiques de détection et de classification pour le diagnostic de défauts. Deux approches différentes sont abordées. La première approche est l'approche de détection et classification simultanées où le problème global à K classes est scindé en sous-problèmes. Chaque sous-problème a en charge la détection d'une ou plusieurs classes de défauts et il est traité par une cellule qui enchaîne les phases de prétraitement des signaux, de choix de l'espace de représentation, de détection, puis de décision. La résolution complète du problème à K classes s'effectue par un agencement séquentiel des cellules selon un arbre de décision hiérarchique ou par une mise en parallèle des cellules avec règles de décision associées.<br />La seconde approche est l'approche de détection et classification successives. Elle consiste à traiter tout<br />d'abord les signaux issus du capteur de manière simple pour la délivrance d'un signal d'alarme indiquant la<br />présence possible d'un défaut. Dans ce cas, et dans ce cas seulement, des traitements haut niveau sont mis en<br />oeuvre dans le but d'analyser plus finement les signatures de ces défauts. Les outils pour la classification - les différents classifieurs linéaires, les classifieurs neuronaux et les machines à vecteurs de support - sont détaillés. L'accent est mis sur le réglage des marges des classifieurs linéaires, sur leurs capacités de généralisation et sur les estimateurs de cette capacité de généralisation.<br />L'ensemble de ces méthodes a été validé sur une application concernant la détection de défauts de surface de rail dans un contexte métro. Un démonstrateur temps réel et opérant en condition d'exploitation a permis de tester les solutions de l'approche détection et classification simultanées, en considérant les taux de bonne détection et de<br />fausse alarme sur 4 classes de défauts de rail. La transformée en ondelettes, le filtrage inverse et la séparation de sources par analyse en composantes indépendantes sont les outils de prétraitement qui ont été particulièrement détaillés dans ce contexte applicatif.<br />Une base de données, constituée à partir de mesures sur site labellisées, a permis de qualifier statistiquement les solutions de l'approche détection et classification successives. Une hiérarchisation des méthodes est proposée en fonction de leur capacité de généralisation, mais aussi de leur complexité et de leur aptitude à traiter le problème avec ou sans optimisation des espaces de représentation.
95

Un oeil sur la langue : aspects neuro-cognitifs du processus de la navigation chez l'aveugle-né

Chebat, Daniel-Robert 03 1900 (has links)
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement. / Vision is a very important tool for navigation in general. Due to compensatory mechanisms people who are blind from birth are not handicapped in spatio-cognitive abilities, nor in the formation of novel spatial maps. Despite the growing volume of studies on brain plasticity and navigation in the blind, the compensatory neural substrates or the preservation of this function remain unclear. We have recently demonstrated (article 1) by using volumetric analysis techniques (Voxel-Based Morphometry) that early blind individuals (EB) show a reduction of the posterior end of the hippocampus on the right side. This cerebral structure is important for the formation of cognitive maps. How do EB form maps of their environment with a significantly reduced posterior right hippocampus? To answer this question we chose to exploit a sensory substitution device that could potentially serve navigation in EB. This tongue display unit (TDU) is capable of transmitting pictorial imagery in the form of electricity on the tongue. Before asking our participants to navigate using the TDU, it was necessary to ascertain that they could really « see » objects in the environment using the TDU. We thus evaluated the « visuo »-tactile acuity (article 2) of EB compared to sighted blindfolded participants using the TDU. Participants later learned to negotiate a path through an obstacle course (article 3). Their task consisted of pointing to (detection), and avoiding (negotiation) obstacles while advancing through the hallway. We demonstrated that despite a reduced right posterior hippocampus, and an iii atrophied visual system (Ptito et al., 2008) EB not only were able to accomplish this task, but had a better performance than the blindfolded sighted controls. To determine what the neural correlates of navigation in EB are, we devised an fMRI compatible virtual route task conveyed through the tongue (article 4). Participants had to learn to navigate the routes and recognize them. We showed that EB use another cortical network involved in cognitive mapping than the sighted when recognizing routes on the tongue. We have emphasized neural networks connecting parietal and frontal cortices since they are re-enforced in EB. These results show that the tongue can be used as a portal to the brain by transferring pictorial information from the visual environment of participants, allowing the elaboration of strategies to avoid obstacles and move around in their environment.
96

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.
97

Spatial Separation of Sound Sources

Dong, Bin 14 April 2014 (has links) (PDF)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des "sources virtuelles" incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la "moindre variance spatiale", la "moindre entropie spatiale", et la "décorrélation spatiale", respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au coeur de cette thèse, est également iv exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). La méthode proposée est validée à la fois sur des expériences de laboratoire et des données numériques et illustrée par un exemple industriel concernant la classification des sources sonores sur la face supérieure d'un moteur Diesel. La méthodologie peut également séparer, de façon très précise, des sources dont les amplitudes sont de 40 dB inférieur aux sources les plus fortes. Aussi, la robustesse vis-à-vis de l'estimation du nombre de sources actives, de la distance entre le domaine source d'intérêt et le réseau de microphones, ainsi que de la taille de la fonction d'ouverture est démontrée avec succès.
98

Apprentissage actif pour l'approximation de variétés

Gandar, Benoît 27 November 2012 (has links) (PDF)
L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s'apparente à apprendre la frontière d'une variété dans l'espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l'apprentissage actif, i.e. nous supposons que l'échantillon d'apprentissage n'est plus aléatoire et que nous pouvons, par l'intermédiaire d'un oracle, générer les points sur lesquels l'apprentissage de la variété va s'effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d'apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d'expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d'affiner la connaissance de celle-ci. Deux méthodes d'échantillonnage sont alors envisageables : le " selective sampling " qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l'" adaptative sampling " qui permet de choisir n'importe quels points de l'espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n'est pas raisonnable d'utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété.
99

Techniques de démodulation aveugle en interception de signaux MIMO

Daumont, Steredenn 04 December 2009 (has links) (PDF)
Les systèmes MIMO (Multiple Input Multiple Output) ont été proposés par le laboratoire Bell afin d'augmenter le débit des transmissions. Par la suite ces systèmes ont été utilisés pour augmenter la fiabilité de la transmission en utilisant des codes introduisant de la redondance. Cette thèse CIFRE est menée en collaboration entre la société IPSIS-IT Link (Ingénierie Pour Signaux et Systèmes) et l'équipe SCEE de Supélec membre du laboratoire IETR. L'objectif de cette thèse est de proposer des techniques d'estimation, en aveugle, des symboles transmis sur des canaux MIMO. La séparation aveugle de sources, ou BSS pour Blind Source Separation, permet d'estimer de manière aveugle, i.e. sans connaissance du canal de transmission et de symboles pilotes, les symboles transmis. C'est ce type de méthode que nous utiliserons principalement dans cette thèse. Cependant, la BSS estime les sources à une rotation et permutation près. D'autre part, les méthodes de BSS utilisant un gradient stochastique sont lentes à converger, ce qui les rend difficilement utilisables sur des canaux variant rapidement dans le temps. Ainsi, les axes de recherche exploités durant cette thèse sont : - L'exploitation de la redondance introduite par les codes STBC pour lever les ambiguïtés introduites par la BSS. - L'implémentation de certains critères de manière analytique. Les méthodes analytiques implémentées de manière adaptative convergent rapidement dans le temps, permettant ainsi une utilisation sur des canaux qui varient rapidement dans le temps. - L'initiatisation du filtre de Kalman, connu pour ses qualités de poursuite, par la séparation aveugle de sources. Ce type d'association permet de poursuivre des canaux instantanés ou convolutifs variant dans le temps.
100

Chaînes de Markov cachées et séparation non supervisée de sources

RAFI, Selwa 11 June 2012 (has links) (PDF)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle

Page generated in 0.0481 seconds