• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Synthèse de champ sonore par Wave Field Synthesis à partir d'enregistrements captés par une antenne microphonique

Ramanana, Telina January 2015 (has links)
Ce projet traite de la restitution par Wave Field Synthesis (WFS) d’un champ sonore mesuré par une antenne microphonique. L’importance de la reproduction de champ sonore de milieux industriels ou d’intérieurs de véhicule a pris son essor depuis ces dernières années. Ainsi la capacité de pouvoir synthétiser fidèlement un champ mesuré dans une salle dédiée à l’écoute faciliterait son analyse dans le cadre de mesures objectives (études suivant des métriques prédéfinis) et subjectives (études de perception). La WFS s’impose comme une technologie de reproduction de champ capable d’assurer une grande résolution spatiale, une restitution étendue du champ d’écoute ainsi qu’une bonne précision physique du champ sonore. L’objectif principal est de reproduire un champ fidèle en terme de : 1) réponses en fréquences de la chaîne complète de reproduction, 2) d’erreurs de spectre réduites, 3) bonne restitution du champ d’un point de vue des caractéristiques spatiales. Des simulations appuyées par une campagne expérimentale ont été menées pour valider les algorithmes de restitution proposés et définir l’approche type problème inverse régularisé par formation de voies comme étant le plus performant. Cette recherche est le fruit de deux ans de travaux effectués au Groupe d’Acoustique de l’Université de Sherbrooke (GAUS).
132

Sur quelques problèmes mathématiques de modélisation parcimonieuse

Gribonval, Rémi 24 October 2007 (has links) (PDF)
Ce document est organisé en quatre chapitres dont trois rédigés en anglais et une annexe en français. Le premier chapitre décrit mes contributions dans le domaine de la séparation de sources audio, qui constituent certainement le volet le plus appliqué de mon activité scientifique, volet auquel ont contribué significativement plusieurs doctorants et collaborateurs. Les deux chapitres suivants sont consacrés aux aspects plus mathématiques de mon travail, le premier sur les approximations non-linéaires avec des dictionnaires redondants, en collaboration étroite avec Morten Nielsen, le second sur l'analyse des performances des algorithmes de décomposition parcimonieuse, avec le concours notamment de Pierre Vandergheynst. Dans ces trois chapitres, j'ai adopté un style sans doute peu conventionnel dans la littérature scientifique : j'y ai opté pour le "je" plus que le "nous" et j'ai choisi d'agrémenter le texte de divers éléments de contexte. L'annexe, dans un style plus traditionnel, reproduit le chapitre de synthèse « Séparation de sources basée sur la parcimonie » que j'ai écrit pour l'ouvrage « Séparation de Sources » coordonné par Pierre Comon et Christian Jutten dans la collection IC2 publié par Hermès.
133

Reconnaissance d'accords à partir de signaux audio par l'utilisation de gabarits théoriques

Oudre, Laurent 03 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du traitement du signal musical, en se focalisant plus particulièrement sur la transcription automatique de signaux audio en accords. En effet, depuis une dizaine d'années, de nombreux travaux visent à représenter les signaux musicaux de la façon la plus compacte et pertinente possible, par exemple dans un but d'indexation ou de recherche par similarité. La transcription en accords constitue une façon simple et robuste d'extraire l'information harmonique et rythmique des chansons et peut notamment être utilisée par les musiciens pour rejouer les morceaux. Nous proposons deux approches pour la reconnaissance automatique d'accords à partir de signaux audio, qui offrent la particularité de se baser uniquement sur des gabarits d'accords théoriques, c'est à dire sur la définition des accords. En particulier, nos systèmes ne nécessitent ni connaissance particulière sur l'harmonie du morceau, ni apprentissage. Notre première approche est déterministe, et repose sur l'utilisation conjointe de gabarits d'accords théoriques, de mesures d'ajustement et de post-traitement par filtrage. On extrait tout d'abord des vecteurs de chroma du signal musical, qui sont ensuite comparés aux gabarits d'accords grâce à plusieurs mesures d'ajustement. Le critère de reconnaissance ainsi formé est ensuite filtré, afin de prendre en compte l'aspect temporel de la tâche. L'accord finalement détecté sur chaque trame est celui minimisant le critère de reconnaissance. Cette méthode a notamment été présentée lors d'une évaluation internationale (MIREX 2009) et a obtenu des résultats très honorables. Notre seconde approche est probabiliste, et réutilise certains éléments présents dans notre méthode déterministe. En faisant un parallèle entre les mesures d'ajustement utilisées dans l'approche déterministe et des modèles de probabilité, on peut définir un cadre probabiliste pour la reconnaissance d'accords. Dans ce cadre, les probabilités de chaque accord dans le morceau sont évaluées grâce à un algorithme Espérance-Maximisation (EM). Il en résulte la détection, pour chaque chanson, d'un vocabulaire d'accords adapté, qui permet l'obtention d'une meilleure transcription en accords. Cette méthode est comparée à de nombreux systèmes de l'état de l'art, grâce à plusieurs corpus et plusieurs métriques, qui permettent une évaluation complète des différents aspects de la tâche.
134

Méthodes géométriques pour la mémoire et l'apprentissage

Novytskyi, Dimitri 13 July 2007 (has links) (PDF)
Cette these est consacree aux methodes geometriques dans l'optimisation, l'apprentissage et les reseaux neuronaux. Dans beaucoup de problemes de l'apprentissage (supervises et non supervises), de la reconnaissance des formes, et du groupage, il y a un besoin de tenir en compte de la structure interne (intrinseque) de l'espace fondamental, qui n'est pas toujours euclidien. Pour les varietes Riemanniennes nous construisons des algorithmes pour la methode de Newton, les methodes de gradients conjugues, et certaines methodes non-lisses d'optimisation comme r-algorithme. A cette fin nous developpons des methodes pour le calcul des geodesiques dans les sous-varietes bases sur des equations de Hamilton et l'integration symplectique. Apres nous construisons un nouveau type avec de la memoire associative neuronale capable de l'apprentissage non supervise et du groupage (clustering). Son apprentissage est base sur moyennage generalise dans les varietes de Grassmann. Future extension de cette memoire implique les machines a noyaux et transformations de l'espace implicites. Aussi nous considerons des algorithmes geometriques pour le traitement des signaux et le filtrage adaptatif. Les methodes proposees sont testees avec des exemples standard et avec des problemes reels de reconnaissance des images et du traitement des signaux. L'application des reseaux neurologiques proposes est demontree pour un projet reel complet de la reconnaissance des images chimiques (nez electronique).
135

Fibres optiques microstructurées en verre de chalcogénure pour la détection d'espèces chimiques et la conversion de longueurs d'onde

Toupin, Perrine 26 September 2013 (has links) (PDF)
Cette thèse est dédiée à l'élaboration de fibres optiques microstructurées en verre de chalcogénure. Ces verres présentent un large domaine de transparence dans l'infrarouge et des propriétés optiques non-linéaires importantes. Les fibres optiques microstructurées sont composées d'un arrangement périodique de trous d'air s'étalant le long de l'axe de la fibre. Elles possèdent ainsi des propriétés de propagation originales qui suscitent un grand intérêt dans la communauté scientifique. La possibilité de mettre les verres de chalcogénure sous forme de MOFs offre de nombreuses applications potentielles en optique passive et en optique active. Nous nous sommes intéressés à plusieurs d'entres elles. Ces travaux s'articulent en effet autour de trois objectifs majeurs : le transport de puissance dans les fenêtres de transparence atmosphériques II et III, la réalisation d'un capteur chimique et la conversion de longueurs d'onde par des effets non-linéaires. Les compositions sélectionnées pour élaborées les fibres (As38Se62, As40S60, Te20As30Se50 et Ge10As22Se68) ont fait l'objet d'une recherche approfondie de manière à trouver des méthodes de purifications adéquates pour obtenir des fibres présentant de très faibles pertes optiques. Les MOFs obtenues à partir des verres purifiés présentent des pertes inférieures au dB/m sur une grande gamme de longueur d'onde. De tels résultats permettent d'assurer le transport de moyenne puissance dans les bandes II et ou III selon la fenêtre de transmission de ces verres. Concernant la réalisation d'un capteur dans l'infrarouge, une nouvelle géométrie de fibre a été élaborée. Elle consiste en une fibre dont le cœur est partiellement exposé à l'environnement extérieur grâce à la présence d'une fente le long de l'axe de la fibre. Les essais de détection de liquides réalisés sont concluants, les résultats montrent que la fibre à cœur exposé conçue est plus sensible qu'une fibre monoindice présentant un diamètre deux fois plus petit. Un petit diamètre de cœur est un paramètre recherché afin d'exacerber les effets non-linéaires. Ainsi deux géométries de fibres ont été sélectionnées pour fabriquer les fibres destinées à générer des effets non-linéaires : les fibres multimodes à cœur suspendu (Øc<3µm) et les fibres monomodes à trois couronnes de trous (Øc<5µm). Les propriétés non-linéaires des fibres élaborées ont été analysées à l'ONERA et au laboratoire FOTON. A la vue de l'ensemble des résultats, le caractère monomode permet d'obtenir des supercontinuums plus réguliers dans la fenêtre 3-5µm et semble indispensable pour les conversions de longueurs d'onde à 1,55µm. Les fibres réalisées ont permis d'obtenir des conversions de longueurs d'onde à un taux supérieur à 170Gb/s, de démultiplexer un signal à 170,8Gb/s et de réaliser un laser à fibre Brillouin présentant des seuils de déclenchement de puissance très bas.
136

La caractérisation des propriétés physiques et mécaniques des matériaux cimentaires à l'aide des ondes de cisaillement

Naji, Siwar January 2016 (has links)
La caractérisation des matériaux cimentaires au cours du temps est essentielle pour le bon achèvement et le contrôle des constructions de tous genres, afin de prévenir les dégradations et éviter les ruines d’ouvrage. Ce projet de recherche propose l’utilisation des ondes de cisaillement pour mieux caractériser des propriétés physiques et mécaniques de ces matériaux telles que le temps de prise, le module de cisaillement et la ségrégation. Les ondes de cisaillement sont générées par la récente technique des anneaux piézoélectriques (P-RAT). Cette technique développée à l’université de Sherbrooke, est initialement destinée pour estimer le module de cisaillement des sols à partir de la vitesse des ondes de cisaillement. Le P-RAT a été récemment appliqué sur les pâtes de ciment et les mortiers pour déterminer le temps de prise initiale et finale à partir de la dérivée de la vitesse des ondes de cisaillement. L’objectif de cette thèse est d’étendre et d’approfondir l’étude de faisabilité du P-RAT en tant que technique non destructive pour la caractérisation physique et mécanique des pâtes de ciment, des mortiers et des bétons et de valider son applicabilité pour une éventuelle utilisation in-situ. Nous avons étudié plusieurs aspects de traitement de signal, dans le domaine temporel et fréquentiel, pour extraire l’information utile à la caractérisation des matériaux cimentaires à partir des ondes de cisaillement. La relation entre la variation du contenu fréquentiel et le temps de prise initiale et finale des pâtes de ciment et des mortiers a été décelée. La méthode fréquentielle proposée dans ce projet est plus rapide que celle de dérivée de la vitesse des ondes de cisaillement et ne requiert pas une expertise dans le domaine de traitement du signal pour l’exécuter. Les essais au laboratoire ont démontré la performance du dispositif formé de deux capteurs P-RAT de diamètre externe de 16 mm, montés de part et d’autre sur les deux bornes d’un étau de serrage, à mesurer le module de cisaillement de 1 jour à 56 jours. Un modèle de régression linéaire multiple a été développé pour estimer la résistance à la compression à partir du module de cisaillement. En plus, une relation empirique a été obtenue entre le module de cisaillement à 24 h et le module d’élasticité statique à 28 jours qui permet la prédiction de ce dernier dès le jeune âge. La faisabilité de P-RAT pour la caractérisation des propriétés physiques des bétons, notamment le temps de prise et la ségrégation, a nécessité au préalable une étude de l’effet des dimensions des capteurs P-RAT sur la qualité des signaux reçus. Une étude comparative a été menée avec trois capteurs de diamètres différents (16 mm, 22 mm et 35 mm). Cette étude a permis d’identifier la dimension du capteur la plus appropriée pour les bétons. Les résultats ont démontré l’intérêt d’utiliser des gros capteurs de 35 mm de diamètre externe pour obtenir des signaux plus clairs avec un faible rapport bruit/signal. La méthode pic à pic s’est avérée adéquate pour déterminer le temps d’arrivée des ondes de cisaillement et calculer leur vitesse. Le temps de prise des bétons, déterminé avec la méthode de dérivée de la vitesse des ondes de cisaillement, survient plus tôt que celui des bétons tamisés, déterminé à l’aide de l’essai de la résistance à la pénétration. La présence de gros granulats dans le béton favorise la connectivité entre les différentes particules ce qui permet un développement rapide de sa rigidité qui affecte la vitesse des ondes de cisaillement. Finalement, l’étude de la ségrégation de huit bétons autoplaçants avec différents degrés de stabilité a été effectuée avec le P-RAT. L’indice de ségrégation a été déterminé à partir de la variation de la vitesse des ondes de cisaillement à trois hauteurs différentes dans une colonne de béton coulé de 450 mm de hauteur totale. Les résultats montrent que le P-RAT est capable d’évaluer la stabilité des bétons fluides à 10 h et à 24 h après le contact eau-ciment. Les bétons avec un indice de ségrégation à 24 h supérieur ou égal à 0,95 sont considérés comme des bétons très stables. Cette valeur critique correspond à l’indice de ségrégation de 5 % calculé avec la méthode de la colonne de ségrégation appliquée sur le béton frais.
137

Évaluation non-destructive quantitative de structures aéronautiques par la méthode des courants de Foucault / Quantitative non-destructive estimation of aeronautical structures by the eddy currents technique

Cung, Thành Long 22 June 2012 (has links)
La méthode des courants de Foucault (CF) est très largement utilisée en milieu industriel pour l’évaluation non destructive (END) de pièces ou de structures électriquement conductrices, parce qu’elle est sensible, robuste peu couteuse et non polluante. Toutefois, dans le cas général, l’évaluation quantitative des paramètres caractéristiques d’une structure est un problème difficile, d’une part parce que les données CF disponibles sont généralement incomplètes, d’autre part parce qu’il est nécessaire de faire appel à des modèle numériques élaborés pour rendre compte des interactions sonde / structure, et enfin, parce que le problème inverse consistant à estimer les paramètres de la structure à partir de la connaissance des interactions physiques et des données CF disponibles est « mal posé ».Dans cette thèse, nous nous intéressons au problème particulier de l’évaluation de jeux entre pièces dans un assemblage métallique. Pour contourner les difficultés liées à la mise en oeuvre de l’évaluation quantitative par CF, nous avons choisi de placer nos travaux dans un cadre multifréquence afin d’enrichir les données d’observation fournies par la sonde, et d’adopter une démarche consistant à élaborer des modèles comportementaux issus de l’analyse statistique des interactions sonde / structure. Partant de l’analyse de l’effet d’un jeu apparaissant entre les plaques d’un assemblage de plaques d’aluminium sur la variation de l’impédance normalisée de la sonde, menée expérimentalement et par simulations à l’aide de codes éléments finis, nous avons tout d’abord bâti un modèle comportemental approché d’interactions reposant sur la linéarité de la relation observée dans une bande de fréquences d’examen liée aux dimensions de la structure étudiée. Dans ce cadre, nous avons proposé, implanté et discuté des performances de plusieurs algorithmes de résolution du problème inverse, permettant d’estimer le jeu entre pièces et l’épaisseur de la pièce « cachée » de l’assemblage. Ensuite, nous avons étendu l’approche proposée à l’aide de réseaux de neurones artificiels, puis appliqué la méthode comportementale proposée à un second problème : celui de la caractérisation de fissures de fatigue réelles dans des pièces massives. Les résultats obtenus inclinent à considérer que la démarche proposée est généralisable à d’autres configurations en END par CF. / The eddy current (EC) method is widely used in the industry for the nondestructive evaluation (NDE) of electrically conductive structures, because it is sensitive, robust, cost effective and non polluting. However, in the general case, the quantitative evaluation of the parameters of a structure is a difficult problem, because the available EC data are generally incomplete, because it is necessary to have numerical models developed to account for the probe / structure interactions, and finally, because the inverse problem which consists in estimating the parameters of an inspected structure from the knowledge of those physical interactions and the available EC data is "ill-posed".In this work, we focus on the evaluation of air gaps between the parts of a metallic assembly. In order to cope with the difficulties associated with the implementation of an EC quantitative evaluation, we choose to use a multi-frequency approach so as to increase the data provided by the EC probe, and to build behavioral models from the statistical analysis of the probe / structure interactions. Experimental data and simulated data based on finite elements modeling are analyzed. A first approach behavioral model of the probe/structure interactions is deduced from these analyses, which is based on the linear relationship observed (in a particular excitation an frequency band depending on the dimensions of the studied structure) between the variations of the sensor normalized impedance and the air gap to evaluate. Moreover, we propose, implement and discuss the performances of several algorithms designed to solve the inverse problem dealing with the estimation of both the multilayered structure air gap and "hidden" plate thicknesses. Then, we extend the proposed multi-frequency behavioral approach thanks to artificial neural networks, and we apply the proposed behavioral method to a second problem : that of the characterization of real fatigue cracks in metallic massive parts. The obtained results let the generalization of the proposed approach to other EC NDE configurations to be envisaged.
138

Le développement du LiDAR satellitaire multifonctions. Analyse exploratoire du potentiel de capteurs LiDAR pour le suivi altimétrique et bathymétrique des surfaces en eau continentales et côtières. / multifunction Lidar prototypes analysis for continental waters altimetry and bathymetry

Abdallah, Hani 14 September 2012 (has links)
Disposer de données précises, spatialisées et actualisées sur les niveaux et les profondeurs des eaux côtières ou continentales est nécessaire pour assurer et anticiper une meilleure gestion des eaux littorales et continentales. Parmi les techniques de télédétection de suivi de la bathymétrie et d'altimétrie des eaux, le LIDAR apparaît, de par son potentiel de précision, de résolution et de répétitivité spatiale des mesures, comme une technique adaptée et prometteuse, déjà éprouvée sur des plateformes aéroportées.L'objectif de cette thèse est d'évaluer le potentiel du transfert de la technologie LiDAR sur satellite pour estimer l'altimétrie et la bathymétrie des eaux de surfaces continentales et côtières. Une approche expérimentale basée sur des données LiDAR réelles, puis une approche théorique basée sur des formes d'onde LiDAR simulées ont été utilisées pour explorer les performances de capteurs LiDAR satellitaires.Dans une première partie, la qualité des données altimétriques du capteur LiDAR satellitaire GLAS/ICESat fut évaluée pour le suivi de l'altimétrie de plans d'eau. La méthode d'évaluation développée repose sur la prise en compte des phénomènes d'autocorrélation des mesures successives lors des comparaisons de l'élévation GLAS/ICESat avec les niveaux d'eau mesurés aux stations hydrométriques. Les précisions estimées sont de l'ordre de 12 cm.Dans une seconde partie, un modèle de simulation des trains d'ondes LiDAR a été développé. La confrontation des simulations issues du modèle par comparaison à des trains d'ondes observés par des capteurs satellitaires et aéroportés a été effectuée.Dans une dernière partie, les performances de deux configurations de potentiels capteurs LiDAR spatiaux émettant dans l'UV (355 nm) ou dans le vert (532 nm) ont été évaluées à partir des formes d'ondes simulées suivant des distributions globales des différents paramètres de l'eau assumées comme représentatives à l'échelle mondiale et pour quatre types d'eaux différents. Une analyse de sensibilité a été effectuée pour identifier et ordonner les paramètres environnementaux qui influent le plus sur l'écho LiDAR du fond de l'eau, signal déterminant dans la faisabilité de la mesure bathymétrique. Ensuite, les probabilités de mesure de la bathymétrie ainsi la précision sur l'estimation de la bathymétrie ont été calculées suivant un plan d'expérience qui respecte les distributions globales des paramètres d'eau. Cette thèse propose une méthodologie globale, point de départ pour explorer les performances globales et les facteurs limitant de futurs capteurs LiDAR satellitaires dédiés totalement ou partiellement à l'altimétrie et la bathymétrie des eaux côtières et continentales. / Possessing accurate, spatial and current data on the water levels and the depths are necessary for anticipation and better management of coastal and continental waters. Among the remote sensing techniques to monitor the water bathymetry and altimetry, the LIDAR appears as an adapted and promising technique, already proven on airborne platforms, because of its potential accuracy, spatial resolution and repeatability of measurements. The objective of this thesis is to evaluate the potential of the transfer technology on satellite LiDAR to estimate the water altimetry and bathymetry of continental and coastal areas. An experimental approach based on actual LiDAR data and a theoretical approach based on simulated LiDAR waveforms were used to explore the performance of satellite LiDAR sensors.In the first part, the altimetry data quality from the satellite LiDAR sensor GLAS / ICESat was evaluated in order to monitor the altimetry of water bodies. The evaluation method developed is based on the consideration of the autocorrelation phenomena of successive measurements when comparing the elevation GLAS / ICESat with water levels measured at gauging stations. Accuracies are estimated in the order of 12 cm.In the second part, a simulation model of LiDAR waveform has been developed. The confrontation between simulations from the model compared to observed waveform provided by satellite and aircraft sensors was performed.In the last section, the performance of two space borne LiDAR emitting in the UV (355 nm) or the green (532 nm) were evaluated using a methodology based on waveform simulation following aggregate distributions of various water parameters assumed to be representative on a global scale and for four different types of water. A sensitivity analysis was performed to identify and order the environmental parameters that influence the most the LiDAR bottom echo of the water signal in determining the feasibility of measuring bathymetry. Then, the probability of measuring water depth and the accuracy of estimating the bathymetry were calculated according to an experimental design that meets the global distributions of water parameters. This thesis proposes a global methodology, a starting point to explore the overall performance and the limiting factors for future satellite LiDAR sensors totally or partially dedicated to altimetry and bathymetry of coastal and inland waters.
139

Analysis of MIMO systems for single-carrier transmitters in frequency-selective channel context / Etude des systèmes MIMO pour émetteurs mono-porteuses dans le contexte de canaux sélectifs en fréquence

Dupuy, Florian 16 December 2011 (has links)
Depuis une quinzaine d'années de nombreux travaux s'attachent à utiliser les systèmes MIMO afin d'augmenter la capacité de Shannon associée aux traditionnels systèmes SISO. Dans ce but, un problème crucial consiste en la conception de l'émetteur optimal au sens de la capacité de Shannon. Cette problématique a fait l'objet de nombreuses études dans le cas où le canal de transmission MIMO est non sélectif en fréquence ; elle est cependant nettement moins mature dans le cadre d'un canal MIMO sélectif en fréquence. Cette thèse s'intéresse ainsi dans une première partie à l'optimisation, au sens de la capacité ergodique, de la covariance du vecteur transmis, via la théorie des matrices aléatoires. L'utilisation de plusieurs antennes d'émission permet également d'augmenter les performances en réception grâce à la diversité induite. Dans une seconde partie, nous nous intéressons ainsi à la diversité liée aux récepteurs MMSE. A l'inverse des récepteurs ML ces récepteur sont sous-optimaux mais très simples à mettre en oeuvre. Dans un premier temps nous étudions la diversité de tels récepteurs à haut SNR pour des canaux sélectifs en fréquence, tandis que nous nous attardons dans un second temps sur un facteur de diversité, l'utilisation des codes spatio-temporels en bloc, plus spécifiquement l'utilisation du code d'Alamouti. Ainsi, nous proposons et analysons en contexte multi-utilisateur un nouveau récepteur MMSE robuste aux interférences car exploitant au mieux les degrés de liberté du canal / For fifteen years many studies have used MIMO systems to increase the Shannon capacity of the traditional SISO systems. To this end, a crucial problem is the design of transmitters which are optimal w.r.t. Shannon capacity, by the use of space-time codes or of prior knowledge on the transmission channel. These problems have been addressed by many studies in the case of frequency flat MIMO channels but are really less mature for frequency selective MIMO channels. This thesis focuses in the first part on the optimization, w.r.t. the ergodic capacity, of the covariance of the vector transmitted, via the Random Matrix Theory. Using multiple transmit antennas also gives rise to diversity, which improves the receiving performance. In the second part, we thus focus on the diversity, in the specific case of a MMSE receiver. Unlike the ML receiver, this receiver is suboptimal but very simple to implement. We first study the diversity at high SNR for frequency selective channels. We then focus on a diversity factor, the use of space-time codes in block (STBC), specifically the use of the Alamouti code. Thus, we propose and analyze in the multiuser context a new MMSE receiver robust to interference thanks to its ability to use optimally the degrees of freedom available in the channel
140

Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérants / Cost functions for the estimation of acoustic filters in reverberant mixtures

Benichoux, Alexis 14 October 2013 (has links)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indétermination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algorithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le minimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires. / This work is focused on the processing of multichannel and multisource audio signals. From an audio mixture of several audio sources recorded in a reverberant room, we wish to estimate the acoustic responses (a.k.a. mixing filters) between the sources and the microphones. To solve this inverse problem one need to take into account additional hypotheses on the nature of the acoustic responses. Our approach consists in first identifying mathematically the necessary hypotheses on the acoustic responses for their estimation and then building cost functions and algorithms to effectively estimate them. First, we considered the case where the source signals are known. We developed a method to estimate the acoustic responses based on a convex regularization which exploits both the temporal sparsity of the filters and the exponentially decaying envelope. Real-world experiments confirmed the effectiveness of this method on real data. Then, we considered the case where the sources signal are unknown, but statistically independent. The mixing filters can be estimated up to a permutation and scaling ambiguity. We brought up an exhaustive study of the theoretical conditions under which we can solve the indeterminacy, when the multichannel filters are sparse in the temporal domain. Finally, we started to analyse the hypotheses under which this algorithm could be extended to the joint estimation of the sources and the filters, and showed a first unexpected results : in the context of blind deconvolution with sparse priors, for a quite large family of regularised cost functions, the global minimum is trivial. Additional constraints on the source signals and the filters are needed.

Page generated in 0.0948 seconds