• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 3
  • 1
  • Tagged with
  • 13
  • 13
  • 7
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Représentations redondantes et hiérarchiques pour l'archivage et la compression de scènes sonores

Moussallam, Manuel 18 December 2012 (has links) (PDF)
L'objet de cette thèse est l'analyse et le traitement automatique de grands volumes de données audio. Plus particulièrement, on s'intéresse à l'archivage, tâche qui regroupe, au moins, deux problématiques: la compression des données, et l'indexation du contenu de celles-ci. Ces deux problématiques définissent chacune des objectifs, parfois concurrents, dont la prise en compte simultanée s'avère donc difficile. Au centre de cette thèse, il y a donc la volonté de construire un cadre cohérent à la fois pour la compression et pour l'indexation d'archives sonores. Les représentations parcimonieuses de signaux dans des dictionnaires redondants ont récemment montré leur capacité à remplir une telle fonction. Leurs propriétés ainsi que les méthodes et algorithmes permettant de les obtenir sont donc étudiés dans une première partie de cette thèse. Le cadre applicatif relativement contraignant (volume des données) va nous amener à choisir parmi ces derniers des algorithmes itératifs, appelés également gloutons. Une première contribution de cette thèse consiste en la proposition de variantes du célèbre Matching Pursuit basées sur un sous-échantillonnage aléatoire et dynamique de dictionnaires. L'adaptation au cas de dictionnaires temps-fréquence structurés (union de bases de cosinus locaux) nous permet d'espérer une amélioration significative des performances en compression de scènes sonores. Ces nouveaux algorithmes s'accompagnent d'une modélisation statistique originale des propriétés de convergence usant d'outils empruntés à la théorie des valeurs extrêmes. Les autres contributions de cette thèse s'attaquent au second membre du problème d'archivage: l'indexation. Le même cadre est cette fois-ci envisagé pour mettre à jour les différents niveaux de structuration des données. Au premier plan, la détection de redondances et répétitions. A grande échelle, un système robuste de détection de motifs récurrents dans un flux radiophonique par comparaison d'empreintes est proposé. Ses performances comparatives sur une campagne d'évaluation du projet QUAERO confirment la pertinence de cette approche. L'exploitation des structures pour un contexte autre que la compression est également envisagé. Nous proposons en particulier une application à la séparation de sources informée par la redondance pour illustrer la variété de traitements que le cadre choisi autorise. La synthèse des différents éléments permet alors d'envisager un système d'archivage répondant aux contraintes par la hiérarchisation des objectifs et des traitements.
2

Représentations redondantes et hiérarchiques pour l'archivage et la compression de scènes sonores / Sparse and herarchical representations for archival and compression of audio scenes

Moussallam, Manuel 18 December 2012 (has links)
L'objet de cette thèse est l'analyse et le traitement automatique de grands volumes de données audio. Plus particulièrement, on s'intéresse à l'archivage, tâche qui regroupe, au moins, deux problématiques: la compression des données, et l'indexation du contenu de celles-ci. Ces deux problématiques définissent chacune des objectifs, parfois concurrents, dont la prise en compte simultanée s'avère donc difficile. Au centre de cette thèse, il y a donc la volonté de construire un cadre cohérent à la fois pour la compression et pour l'indexation d'archives sonores. Les représentations parcimonieuses de signaux dans des dictionnaires redondants ont récemment montré leur capacité à remplir une telle fonction. Leurs propriétés ainsi que les méthodes et algorithmes permettant de les obtenir sont donc étudiés dans une première partie de cette thèse. Le cadre applicatif relativement contraignant (volume des données) va nous amener à choisir parmi ces derniers des algorithmes itératifs, appelés également gloutons. Une première contribution de cette thèse consiste en la proposition de variantes du célèbre Matching Pursuit basées sur un sous-échantillonnage aléatoire et dynamique de dictionnaires. L'adaptation au cas de dictionnaires temps-fréquence structurés (union de bases de cosinus locaux) nous permet d'espérer une amélioration significative des performances en compression de scènes sonores. Ces nouveaux algorithmes s'accompagnent d'une modélisation statistique originale des propriétés de convergence usant d'outils empruntés à la théorie des valeurs extrêmes. Les autres contributions de cette thèse s'attaquent au second membre du problème d'archivage: l'indexation. Le même cadre est cette fois-ci envisagé pour mettre à jour les différents niveaux de structuration des données. Au premier plan, la détection de redondances et répétitions. A grande échelle, un système robuste de détection de motifs récurrents dans un flux radiophonique par comparaison d'empreintes est proposé. Ses performances comparatives sur une campagne d'évaluation du projet QUAERO confirment la pertinence de cette approche. L'exploitation des structures pour un contexte autre que la compression est également envisagé. Nous proposons en particulier une application à la séparation de sources informée par la redondance pour illustrer la variété de traitements que le cadre choisi autorise. La synthèse des différents éléments permet alors d'envisager un système d'archivage répondant aux contraintes par la hiérarchisation des objectifs et des traitements. / The main goal of this work is automated processing of large volumes of audio data. Most specifically, one is interested in archiving, a process that encompass at least two distinct problems: data compression and data indexing. Jointly addressing these problems is a difficult task since many of their objectives may be concurrent. Therefore, building a consistent framework for audio archival is the matter of this thesis. Sparse representations of signals in redundant dictionaries have recently been found of interest for many sub-problems of the archival task. Sparsity is a desirable property both for compression and for indexing. Methods and algorithms to build such representations are the first topic of this thesis. Given the dimensionality of the considered data, greedy algorithms will be particularly studied. A first contribution of this thesis is the proposal of a variant of the famous Matching Pursuit algorithm, that exploits randomness and sub-sampling of very large time frequency dictionaries. We show that audio compression (especially at low bit-rate) can be improved using this method. This new algorithms comes with an original modeling of asymptotic pursuit behaviors, using order statistics and tools from extreme values theory. Other contributions deal with the second member of the archival problem: indexing. The same framework is used and applied to different layers of signal structures. First, redundancies and musical repetition detection is addressed. At larger scale, we investigate audio fingerprinting schemes and apply it to radio broadcast on-line segmentation. Performances have been evaluated during an international campaign within the QUAERO project. Finally, the same framework is used to perform source separation informed by the redundancy. All these elements validate the proposed framework for the audio archiving task. The layered structures of audio data are accessed hierarchically by greedy decomposition algorithms and allow processing the different objectives of archival at different steps, thus addressing them within the same framework.
3

Classification, feature extraction and prediction of side effects in prostate cancer radiotherapy / Classification, extraction de données et prédiction de la toxicité rectale en radiothérapie du cancer de la prostate

Fargeas, Aureline 29 June 2016 (has links)
Le cancer de la prostate est l'un des cancers les plus fréquents chez l'homme. L'un des traitements standard est la radiothérapie externe, qui consiste à délivrer un rayonnement d'ionisation à une cible clinique, en l'occurrence la prostate et les vésicules séminales. Les objectifs de la radiothérapie externe sont la délivrance d'une dose d'irradiation maximale à la tumeur tout en épargnant les organes voisins (principalement le rectum et la vessie) pour éviter des complications suite au traitement. Comprendre les relations dose/toxicité est une question centrale pour améliorer la fiabilité du traitement à l'étape de planification inverse. Des modèles prédictifs de toxicité pour le calcul des probabilités de complications des tissus sains (normal tissue complication probability, NTCP) ont été développés afin de prédire les événements de toxicité en utilisant des données dosimétriques. Les principales informations considérées sont les histogrammes dose-volume (HDV), qui fournissent une représentation globale de la distribution de dose en fonction de la dose délivrée par rapport au pourcentage du volume d'organe. Cependant, les modèles actuels présentent certaines limitations car ils ne sont pas totalement optimisés; la plupart d'entre eux ne prennent pas en compte les informations non-dosimétrique (les caractéristiques spécifiques aux patients, à la tumeur et au traitement). De plus, ils ne fournissent aucune compréhension des relations locales entre la dose et l'effet (dose-espace/effet relations) car ils n'exploitent pas l'information riche des distributions de planification de dose 3D. Dans un contexte de prédiction de l'apparition de saignement rectaux suite au traitement du cancer de la prostate par radiothérapie externe, les objectifs de cette thèse sont : i) d'extraire des informations pertinentes à partir de l'HDV et des variables non-dosimétriques, afin d'améliorer les modèles NTCP existants et ii) d'analyser les corrélations spatiales entre la dose locale et les effets secondaires permettant une caractérisation de la distribution de dose 3D à l'échelle de l'organe. Ainsi, les stratégies visant à exploiter les informations provenant de la planification (distributions de dose 3D et HDV) ont été proposées. Tout d'abord, en utilisant l'analyse en composantes indépendantes, un nouveau modèle prédictif de l'apparition de saignements rectaux, combinant d'une manière originale l'information dosimétrique et non-dosimétrique, a été proposé. Deuxièmement, nous avons mis au point de nouvelles approches visant à prendre conjointement profit des distributions de dose de planification 3D permettant de déceler la corrélation subtile entre la dose locale et les effets secondaires pour classer et/ou prédire les patients à risque de souffrir d'un saignement rectal, et d'identifier les régions qui peuvent être à l'origine de cet événement indésirable. Plus précisément, nous avons proposé trois méthodes stochastiques basées sur analyse en composantes principales, l'analyse en composantes indépendantes et la factorisation discriminante en matrices non-négatives, et une méthode déterministe basée sur la décomposition polyadique canonique de tableaux d'ordre 4 contenant la dose planifiée. Les résultats obtenus montrent que nos nouvelles approches présentent de meilleures performances générales que les méthodes prédictives de la littérature. / Prostate cancer is among the most common types of cancer worldwide. One of the standard treatments is external radiotherapy, which involves delivering ionizing radiation to a clinical target, in this instance the prostate and seminal vesicles. The goal of radiotherapy is to achieve a maximal local control while sparing neighboring organs (mainly the rectum and the bladder) to avoid normal tissue complications. Understanding the dose/toxicity relationships is a central question for improving treatment reliability at the inverse planning step. Normal tissue complication probability (NTCP) toxicity prediction models have been developed in order to predict toxicity events using dosimetric data. The main considered information are dose-volume histograms (DVH), which provide an overall representation of dose distribution based on the dose delivered per percentage of organ volume. Nevertheless, current dose-based models display limitations as they are not fully optimized; most of them do not include additional non-dosimetric information (patient, tumor and treatment characteristics). Furthermore, they do not provide any understanding of local relationships between dose and effect (dose-space/effect relationship) as they do not exploit the rich information from the 3D planning dose distributions. In the context of rectal bleeding prediction after prostate cancer external beam radiotherapy, the objectives of this thesis are: i) to extract relevant information from DVH and non-dosimetric variables, in order to improve existing NTCP models and ii) to analyze the spatial correlations between local dose and side effects allowing a characterization of 3D dose distribution at a sub-organ level. Thus, strategies aimed at exploiting the information from the radiotherapy planning (DVH and 3D planned dose distributions) were proposed. Firstly, based on independent component analysis, a new model for rectal bleeding prediction by combining dosimetric and non-dosimetric information in an original manner was proposed. Secondly, we have developed new approaches aimed at jointly taking advantage of the 3D planning dose distributions that may unravel the subtle correlation between local dose and side effects to classify and/or predict patients at risk of suffering from rectal bleeding, and identify regions which may be at the origin of this adverse event. More precisely, we proposed three stochastic methods based on principal component analysis, independent component analysis and discriminant nonnegative matrix factorization, and one deterministic method based on canonical polyadic decomposition of fourth order array containing planned dose. The obtained results show that our new approaches exhibit in general better performances than state-of-the-art predictive methods.
4

L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources / Probabilistic latent component analysis and its adaptation to musical signals : application to automatic music transcription and source separation

Fuentes, Benoît 14 March 2013 (has links)
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens. / Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
5

Apprentissage de dictionnaires structurés pour la modélisation parcimonieuse des signaux multicanaux

Lesage, Sylvain 03 April 2007 (has links) (PDF)
Les décompositions parcimonieuses décrivent un signal comme une combinaison d'un petit nombre de formes de base, appelées atomes. Le dictionnaire d'atomes, crucial pour l'efficacité de la décomposition, peut résulter d'un choix a priori (ondelettes, Gabor, ...) qui fixe la structure du dictionnaire, ou d'un apprentissage à partir d'exemples représentatifs du signal. Nous proposons ici un cadre hybride combinant des contraites structurelles et une approche par apprentissage. Les dictionnaires ainsi structurés apportent une meilleure adaptation aux propriétés du signal et permettent de traiter des volumes importants de données. Nous exposons les concepts et les outils qui étayent cette approche, notamment l'adaptation des algorithmes Matching Pursuit et K-SVD à des dictionnaires d'atomes constitués de motifs linéairement déformables, via une propriété d'adjonction. Nous présentons également des résultats de séparation de signaux monocanaux dans le cadre proposé.
6

Manipulations spatiales de sons spectraux

Mouba Ndjila, Joan 09 November 2009 (has links)
Dans les applications d'écoute active, il est primordial de pouvoir interagir avec les sources individuelles présentes dans le mix, par exemple en changeant leur position spatiale. Dans cette thèse, nous avons proposé des techniques binaurales pour la localisation et la spatialisation, basées sur les différences interaurales en amplitude et en temps d'arrivée. Les techniques sont développées dans le plan temps-fréquence. Elles permettent de localiser et de projeter toute source dans l'espace environnant un auditeur. aussi nous avons mis au point des techniques de séparation binaurale de source basées sur le Maximum de vraisemblance et de masques spatiaux probabilistes. Enfin nous avons étendu les techniques binaurales à des techniques multi-diffusion utilisant un ensemble de haut-parleurs. Les techniques proposées sont éprouvées et comparées à des techniques de référence de la littérature. Pour des performances similaires aux techniques existantes, nos propositions ont un avantage significatif en terme de complexité qui les rendent appropriées aux applications temps-réel. / In active listening applications, it is important to be able to interact with individual sources present in the mix, for example by changing their spatial position. In this thesis, we proposed techniques for binaural localization and spatialization, based on interaural differences in amplitude and in time of arrival. The techniques are developed in the time-frequency plane. They can locate and project sources in the space surrounding a listener. We also developed binaural source separation methods based on the Maximum Likelihood and on spatial probabilistic masks. Finally, we extended binaural spatialization techniques to multi-diffusion techniques which use a set of speakers for diffusion. The proposed techniques are tested and compared to referenced, well-known techniques. For similar performance with the existing ones, our proposed techniques highlight complexity advantages and are suitable for real-time applications.
7

Conception d'un outil de diagnostic de la gêne sonore en milieu urbain / Noise annoyance diagnostic tool conception in urban areas

Leiba, Raphaël 19 December 2017 (has links)
Le bruit, en particulier celui dû au trafic routier, est cité par de nombreuses études comme une source de préoccupation sociétale majeure. Jusqu'à présent les réponses des pouvoirs publics ne se basent que sur une quantification énergétique de l'exposition sonore, souvent via la mesure ou l'estimation du LA ou du Lden, et des prises de décisions relatives à la diminution du niveau sonore. Or des études psychoacoustiques ont montré que le niveau sonore n'expliquait qu'une faible part de la gêne sonore ressentie. Il est donc intéressant d'avoir plus d'information sur la source de bruit et de ne pas la réduire à un simple niveau sonore. Dans cette thèse, nous proposons de concevoir un outil permettant d'estimer la gêne sonore associée à chaque véhicule du trafic routier via l'utilisation de son signal audio et de modèles de gêne sonore. Pour ce faire, le signal audio du véhicule est isolé de l'ensemble du trafic routier urbain grâce à l'utilisation de méthodes inverses et de grands réseaux de microphones ainsi que du traitement d'images pour obtenir sa trajectoire. Grâce à la connaissance de la trajectoire ainsi que du signal, le véhicule est classifié par une méthode de machine learning suivant la taxonomie de Morel et al. Une fois sa catégorie obtenue, la gêne spécifique du véhicule est estimée grâce à un modèle de gêne sonore utilisant des indices psychoacoustiques et énergétiques. Cela permet l'estimation des gênes sonores spécifiques à chaque véhicule au sein du trafic routier. L'application de cette méthode est faite lors d'une journée de mesure sur une grande artère parisienne. / Noise, especially road traffic noise, is cited by many studies as a source of major societal concern. So far, public responses are based only on energy quantification of sound exposure, often by measuring or estimating LA or Lden, and sound-level reduction related decision are taken. Nevertheless, psychoacoustic studies have shown that the sound level explains only a small part of the perceived noise annoyance. It is interesting to have more information about the source of noise and not to reduce the information to its sound level. In this thesis a tool is proposed for estimating the noise annoyance induced by each road vehicle using its audio signal and noise annoyance models. To do so, the audio signal of the vehicle is isolated by using inverse methods, large microphones arrays and image processing to obtain its trajectory. The knowledge of the trajectory and of the signal allows the vehicle to be classified by a machine learning method according to Morel et al. taxonomy. Once its category obtained, the specific annoyance of the vehicle is estimated thanks to a noise annoyance model using psychoacoustic and energetic indices. This allows the estimation of specific noise annoyance for each vehicle within the road traffic. The application of this method is made during a measurement day on a large Parisian artery.
8

Quelques Contributions au Traitement de Signal Musical et à la Séparation Aveugle de Source Audio Mono-Microphone

Schutz, Antony 02 December 2010 (has links) (PDF)
Pour les êtres humains, le son n'a d'importance que pour son contenu. La voie est un langage parlé, la musique une intention artistique. Le processus physiologique est hautement développé, tout comme notre capacité à comprendre les processus sous-jacent. C'est un défi de faire exécuter la même tâche à un ordinateur: ses capacités n'égalent pas celles des humains lorsqu'il s'agit de comprendre le contenu d'un son composé de paroles et/ou d'instruments de musique. Dans la première partie nos recherches portent sur la séparation aveugle de source en n'utilisant qu'un seul microphone. Le problème de séparation de source audio apparaît dès que plusieurs sources audio sont présentes au même moment, mélangées puis acquises par des capteurs, un unique microphone dans notre cas. Dans ce genre de situation il est naturel pour un être humain de séparer et de reconnaître plusieurs locuteurs. Ce problème, connu sous le nom de Cocktail Problem à reçu beaucoup d'attention mais est toujours ouvert. Comme nous ne travaillons qu'avec une seule observation nous ne pouvons pas utiliser d'indice lié à la spatialisation et nous sommes dans l'obligation de modéliser les sources. La deuxième partie traite du traitement musical et est composée de plusieurs annexes. La tâche analysée est liée au traitement automatique de la musique, qui a pour but de comprendre un contenu musical afin d'en générer la partition. Cependant la musique ne peut pas être réduite à une succession de notes et un bon transcripteur devrait être capable de détecter les effets d'interprétations et la qualité de jeu du musicien.
9

Electroencéphalographie synchrone de deux individus : peut-on appliquer la neuroimagerie à l'étude de l'interaction humaine ?

Chatel-Goldman, Jonas 23 June 2014 (has links) (PDF)
Notre recherche vise à explorer les bases cérébrales de l'interaction sociale, par le biais notamment de l'électro-encéphalographie synchrone de plusieurs individus (hyperscanning-EEG). Cette thèse s'articule autour de trois volets théoriques, méthodologiques et expérimentaux complémentaires dans leur fonction. En premier lieu, nous proposons deux cadres conceptuels éclairant l'analyse des synchronies interindividuelles (couplage) chez l'humain. Le premier cadre s'intéresse aux conditions d'apparition du couplage, que l'on présente en considérant les principes fondamentaux qui semblent prédisposer à son émergence. Le second cadre théorique a pour but d'appréhender les rôles fonctionnels possibles du couplage. On y propose une taxonomie des processus de cognition sociale explorés au cours d'expériences sur le couplage entre sujets en interaction. En second lieu, des travaux en traitement du signal visent à développer des méthodes d'analyse adéquates pour les données produites au cours d'expérimentations en hyperscanning. On s'intéresse en particulier aux approches de séparation de source conjointe (JBSS) permettant de prendre en compte l'information inter-sujet dans la séparation. L'avantage de ces développements récents sur les méthodes classiques est démontré par une étude comparative de leurs performances sur données réelles acquises en hyperscanning-EEG. En dernier lieu, on contribue au champ des neurosciences sociales à travers une étude hyperscanning-EEG qui porte sur les effets du toucher affectif sur le couplage des activités cérébrales et physiologiques entre individus en interaction. Nous montrons que, chez des partenaires en couple, le toucher peut accroitre la dépendance des activités physiologiques, un résultat qui appuie son rôle particulier pour la communication et le support affectif au sein des relations intimes.
10

Acquisition comprimée multi-longueur d'onde et son application en radioastronomie / Multichannel Compressed Sensing and its Application in Radioastronomy

Jiang, Ming 10 November 2017 (has links)
La nouvelle génération d’instrument d’interféromètre radio, tels que LOFAR et SKA, nous permettra de construire des images radio à haute résolution angulaire et avec une bonne sensibilité. L’un des problèmes majeurs de l’imagerie interférométrie est qu’il s’agit d’un problème inverse mal posé car seulement quelques coefficients de Fourier (visibilités) peuvent être mesurés par un interféromètre radio. La théorie de l’Acquisition Comprimée (Compressed Sensing) nous permet d’envisager ce problème sous un autre angle et son efficacité pour la radioastronomie a été montrée. Cette thèse se concentre sur la méthodologie de la reconstruction de données à l’Acquisition Comprimée Multicanaux et son application en radioastronomie. Par exemple, les transitoires radios sont un domaine de recherche actif en radioastronomie, mais leur détection est un problème difficile en raison de la faible résolution angulaire et des observations à faible rapport signal-sur-bruit. Pour résoudre ce problème, nous avons exploité la parcimonie de l’information temporelle des transitoires radios et nous avons proposé une méthode de reconstruction spatio-temporelle pour détecter efficacement les sources radios. Les expériences ont démontré la force de cette méthode de reconstruction en comparaison avec les méthodes de l’état de l’art. Une deuxième application concerne l’imagerie interférométrie radio à multi-longueur d’onde dans lesquelles les données sont dégradées différemment en termes de longueur d’onde car la réponse instrumentale varie en fonction de la longueur d’onde. Basé sur le modèle de mélange de sources, un nouveau modèle est proposé pour effectuer de manière jointe une Séparation de Sources en Aveugle et une déconvolution (SSAD). Le problème SSAD n’est pas seulement non-convexe mais aussi mal conditionné en raison des noyaux de convolution. Notre méthode proposée DecGMCA, qui utilise un a priori de parcimonie et emploie un scénario de moindre carré alternatif, est un algorithme efficace pour aborder simultanément les problèmes de déconvolution et de SSA. Les expériences ont démontré que notre approche jointe permet d’obtenir de meilleurs résultats comparée à une analyse standard consistant en une application séquentielle d’une déconvolution suivie d’une séparation de sources en aveugle. / The new generation of radio interferometer instruments, such as LOFAR and SKA, will allow us to build radio images with very high angular resolution and sensitivity. One of the major problems in interferometry imaging is that it involves an ill-posed inverse problem, because only a few Fourier components (visibility points) can be acquired by a radio interferometer. Compressed Sensing (CS) theory is a paradigm to solve many underdetermined inverse problems and has shown its strength in radio astronomy. This thesis focuses on the methodology of Multichannel Compressed Sensing data reconstruction and its application in radio astronomy. For instance, radio transients are an active research field in radio astronomy but their detection is a challenging problem because of low angular resolution and low signal-to-noise observations. To address this issue, we investigated the sparsity of temporal information of radio transients and proposed a spatial-temporal sparse reconstruction method to efficiently detect radio sources. Experiments have shown the strength of this sparse recovery method compared to the state-of-the-art methods. A second application is concerned with multi-wavelength radio interferometry imaging in which the data are degraded differently in terms of wavelength due to the wavelength-dependent varying instrumental beam. Based on a source mixture model, a novel Deconvolution Blind Source Separation (DBSS) model is proposed. The DBSS problem is not only non-convex but also ill conditioned due to convolution kernels. Our proposed DecGMCA method, which benefits from a sparsity prior and leverages an alternating projected least squares, is an efficient algorithm to tackle simultaneously the deconvolution and BSS problems. Experiments have shown that taking into account joint deconvolution and BSS gives much better results than applying sequential deconvolution and BSS.

Page generated in 0.5134 seconds