381 |
Synthèse de fréquence par couplage d'oscillateurs spintroniquesZarudniev, Mykhailo 28 January 2013 (has links)
La tendance actuelle dans le domaine des télécommunications mène à des systèmes capables de fonctionner selon plusieurs standards, et donc plusieurs fréquences porteuses. La synthèse de la fréquence porteuse est un élément clef, dont les propriétés reposent essentiellement sur les performances de l’oscillateur employé. Pour assurer le fonctionnement de systèmes compatibles avec plusieurs standards de télécommunication, la solution conventionnelle consiste à intégrer plusieurs oscillateurs locaux. Cette solution est coûteuse, d’autant plus que, malgré le fait que les technologies actuelles atteignent des niveaux d’intégration très importants, la surface occupée par des oscillateurs traditionnels de type LC ne peut pas être diminuée, alors que le coût de fabrication au millimètre carré devient de plus en plus élevé. Il serait donc très intéressant de remplacer les oscillateurs LC, ce qui nous amène à rechercher des solutions alternatives parmi de nouvelles technologies. L’oscillateur spintronique (STO) est un nouveau dispositif issu des études sur les couches minces magnétiques. Il apparait comme un candidat potentiel de remplacement des oscillateurs LC du fait de sa grande accordabilité en fréquence et de son faible encombrement. Toutefois des mesures effectuées sur les STOs ont montré que la performance en puissance et en bruit de phase d’un oscillateur seul ne permet pas de remplir les spécifications pour des applications de télécommunication. Nous proposons de remplir ces spécifications en couplant un nombre d’oscillateurs spintroniques important. Dans ce cadre se posent plusieurs questions qui concernent les procédures de modélisation, d’analyse et de synthèse des systèmes interconnectés. Les procédures de modélisation incluent la démarche de recherche de modèles à complexité croissante qui décrivent les propriétés entrée-sortie d’un oscillateur spintronique, ainsi que la démarche de généralisation des modèles des oscillateurs dans le cadre du réseau. Les procédures d’analyse cherchent à vérifier la stabilité et évaluer la performance des systèmes interconnectés. Les procédures de synthèse permettent de concevoir des interconnexions sophistiquées pour les oscillateurs afin d’assurer toutes les spécifications du cahier des charges. Dans ce document, nous établissons tout d’abord le problème de la synthèse de fréquence par couplage avec un cahier des charges formalisé en termes de gabarits fréquentiels sur des densités spectrales de puissance. Le cahier des charges posé amène la nécessité de modéliser l’oscillateur spintronique pour pouvoir simuler et analyser son comportement. Ici, nous proposons une modélisation originale selon des degrés de complexité croissante. Ensuite, nous discutons de la structure de la commande de l’ensemble des oscillateurs afin de remplir les spécifications du cahier des charges. La structure de commande proposée nécessite de développer une méthode de conception des interconnexions du réseau d’après les critères de performance. Dans les deux derniers chapitres, nous proposons deux méthodes fréquentielles de synthèse originales pour résoudre le problème de synthèse de fréquence par couplage. La première méthode de synthèse permet de prendre en compte un critère mathématique du cahier des charges, qui correspond à un gabarit fréquentiel à respecter, et permet d’obtenir une matrice d’interconnexion des sous-systèmes, telle que le module de la réponse fréquentielle du réseau approxime le gabarit imposé par le cahier des charges. La deuxième méthode de synthèse permet de prendre en compte plusieurs gabarits fréquentiels à la fois. La solution obtenue est une matrice d’interconnexion des sous-systèmes, qui résout le problème de la synthèse de fréquence par couplage d’oscillateurs spintroniques. / The current trends in telecommunication are leading to systems that are compatible with multiple standards and consequently multiple carrier frequencies. The frequency synthesis is a key element influenced by the local oscillator performance. In order to ensure the system compatibility with multiple telecommunication standards, the conventional solution consists in using one local oscillator for each standard. This solution is expensive, even more, since the cost per squared millimetre is increasing, while the silicon area occupied by the traditional LC-tank oscillators cannot be reduced in spite of the fact that technology is going to higher integration levels. Thus, it should be interesting to find a substitution to the LC-tank oscillators which leads to research for alternative solutions among new technologies. The spin torque oscillator (STO) is a new device issued from the ferromagnetic thin-film research. Due to its frequency accord ability and its capability to occupy relatively small volume, it appears as a potential candidate for the LC-tank oscillator replacement. However, a set of measurements prove that these devices exhibit poor power and phase noise performance, making them unable to fulfill the technical specification of the radiofrequency applications. We propose to reach these specifications by coupling of a large number of spin torque oscillators. In this scope, numerous questions appear regarding the procedures of modelling, analysis and synthesis of the complex interconnected systems. The modelling procedures are dedicated to the increasing complexity models that describe the input-output behaviour of a spin torque oscillator and its behaviour within the interconnected network. The analysis procedures are targeted to verify the stability and to evaluate the performance level of the interconnected systems. The synthesis procedures allow to design the interconnection law for spin torque oscillators in order to fulfill the technical requirements. In this document, the frequency synthesis problem by spin torque oscillator coupling with technical specification description in terms of power spectral densities is established. The formulated specifications introduce the problem of the oscillator modelling in order to perform a simulation and an analysis of the oscillator behaviour. Here, we propose an original model using several conventional models with increasing complexity. An original oscillator network model that describes qualitative properties of the oscillator synchronisation is introduced. Afterwards, the control law architecture for an oscillator set is established in order to accomplish the technical requirement specifications. The suggested control architecture needs to be developed with quantitative systematic and efficient design method for the network interconnection taking into account the formulated performance criteria. In the last two chapters we propose two original frequency domain design methods allowing the resolution of our frequency synthesis problem. The first design method allows to consider explicitly a performance criterium corresponding toa desired frequency constraint. The method allows to obtain a suitable sub-system interconnection matrix that fits the frequency specification constraint. The second design method allows to find an interconnection matrix and to take into account simultaneously several frequency specification constraints. The interconnection matrix obtained with the proposed method solves the problem of frequency synthesis by coupling of spin torque oscillators.
|
382 |
Algorithm-Architecture Co-Design for Dense Linear Algebra ComputationsMerchant, Farhad January 2015 (has links) (PDF)
Achieving high computation efficiency, in terms of Cycles per Instruction (CPI), for high-performance computing kernels is an interesting and challenging research area. Dense Linear Algebra (DLA) computation is a representative high-performance computing ap-
plication, which is used, for example, in LU and QR factorizations. Unfortunately, mod-
ern off-the-shelf microprocessors fall significantly short of achieving theoretical lower bound in CPI for high performance computing applications. In this thesis, we perform an in-depth analysis of the available parallelisms and propose suitable algorithmic
and architectural variation to significantly improve the computation efficiency. There
are two standard approaches for improving the computation effficiency, first, to perform
application-specific architecture customization and second, to do algorithmic tuning.
In the same manner, we first perform a graph-based analysis of selected DLA kernels.
From the various forms of parallelism, thus identified, we design a custom processing
element for improving the CPI. The processing elements are used as building blocks for
a commercially available Coarse-Grained Reconfigurable Architecture (CGRA). By per-
forming detailed experiments on a synthesized CGRA implementation, we demonstrate
that our proposed algorithmic and architectural variations are able to achieve lower CPI compared to off-the-shelf microprocessors. We also benchmark against state-of-the-art custom implementations to report higher energy-performance-area product.
DLA computations are encountered in many engineering and scientific computing ap-
plications ranging from Computational Fluid Dynamics (CFD) to Eigenvalue problem.
Traditionally, these applications are written in highly tuned High Performance Comput-
ing (HPC) software packages like Linear Algebra Package (LAPACK), and/or Scalable
Linear Algebra Package (ScaLAPACK). The basic building block for these packages is Ba-
sic Linear Algebra Subprograms (BLAS). Algorithms pertaining LAPACK/ScaLAPACK
are written in-terms of BLAS to achieve high throughput. Despite extensive intellectual
efforts in development and tuning of these packages, there still exists a scope for fur-
ther tuning in this packages. In this thesis, we revisit most prominent and widely used
compute bound algorithms like GMM for further exploitation of Instruction Level Parallelism (ILP). We further look into LU and QR factorizations for generalizations and
exhibit higher ILP in these algorithms. We first accelerate sequential performance of the algorithms in BLAS and LAPACK and then focus on the parallel realization of these
algorithms. Major contributions in the algorithmic tuning in this thesis are as follows:
Algorithms:
We present graph based analysis of General Matrix Multiplication (GMM) and
discuss different types of parallelisms available in GMM
We present analysis of Givens Rotation based QR factorization where we improve
GR and derive Column-wise GR (CGR) that can annihilate multiple elements of a
column of a matrix simultaneously. We show that the multiplications in CGR are
lower than GR
We generalize CGR further and derive Generalized GR (GGR) that can annihilate
multiple elements of the columns of a matrix simultaneously. We show that the
parallelism exhibited by GGR is much higher than GR and Householder Transform
(HT)
We extend generalizations to Square root Free GR (also knows as Fast Givens
Rotation) and Square root and Division Free GR (SDFG) and derive Column-wise
Fast Givens, and Column-wise SDFG . We also extend generalization for complex
matrices and derive Complex Column-wise Givens Rotation
Coarse-grained Recon gurable Architectures (CGRAs) have gained popularity in the
last decade due to their power and area efficiency. Furthermore, CGRAs like REDEFINE also exhibit support for domain customizations. REDEFINE is an array of Tiles where each Tile consists of a Compute Element and a Router. The Routers are responsible
for on-chip communication, while Compute Elements in the REDEFINE can be domain
customized to accelerate the applications pertaining to the domain of interest. In this
thesis, we consider REDEFINE base architecture as a starting point and we design Processing Element (PE) that can execute algorithms in BLAS and LAPACK efficiently.
We perform several architectural enhancements in the PE to approach lower bound of the
CPI. For parallel realization of BLAS and LAPACK, we attach this PE to the Router of
REDEFINE. We achieve better area and power performance compared to the yesteryear
customized architecture for DLA. Major contributions in architecture in this thesis are as follows:
Architecture:
We present design of a PE for acceleration of GMM which is a Level-3 BLAS
operation
We methodically enhance the PE with different features for improvement in the
performance of GMM
For efficient realization of Linear Algebra Package (LAPACK), we use PE that can
efficiently execute GMM and show better performance
For further acceleration of LU and QR factorizations in LAPACK, we identify
macro operations encountered in LU and QR factorizations, and realize them on a
reconfigurable data-path resulting in 25-30% lower run-time
|
383 |
Fluctuations des marches aléatoires en dimension 1 : théorèmes limite locaux pour des marches réfléchies sur N / Fluctuation's theory of random walk in dimension 1 : local limit theorems for reflected random walks on NEssifi, Rim 19 March 2014 (has links)
L’objet de cette thèse est d’établir des théorèmes limites locaux pour des marches aléatoires réfléchies sur N. La théorie des fluctuations des marches aléatoires et la factorisation de Wiener- Hopf y jouent un rôle important. On développera dans la première partie une approche classique que l’on appliquera à l’étude des marches aléatoires sur R+ avec réflexions non élastiques en 0. Dans la deuxième partie, on explicitera une méthode différente qui fait intervenir des outils algébriques, d’analyse complexe et des techniques de factorisation utilisant de manière essentielle les fonctions génératrices. Cette approche a été développée il y a une cinquantaine d’année pour l’étude de marches de Markov, elle sera présentée dans cette partie dans le cas des marches aléatoires à pas i.i.d. où un certain nombre de simplifications apparaissent et sera ensuite utilisée pour étudier les marches aléatoires sur N avec réflexions élastiques ou non élastiques en zéro. Finalement, dans la dernière partie, nous mettons en place les outils nécessaires pour établir une factorisation de Wiener-Hopf dans un cadre markovien afin d’étudier les fluctuations des marches de Markov sur Z; nous reprenons des travaux anciens dont les démonstrations méritaient d’être détaillées, l’objectif à moyen terme étant d’appliquer les méthodes algébriques décrites ci-dessus pour l’étude de marches de Markov réfléchies sur N. / The purpose of this thesis is to establish some local limit theorems for reflected random walks on N. The fluctuations theory and the Wiener-Hopf factorization play a crucial role. We will develop in the first part a classical approach that we will apply to the study of random walks on R+ with non-elastic reflections at zero. In the second part, we will explicit a different method which involves algebraic tools, complex analysis and factorization techniques, using in an essential way generating functions. These approach was developed 50 years ago to cover Markov walks, it will be presented in this part in the case of random walks with i.i.d jumps where many simplifications appear and will be then used to study random walks on N with either elastic or non-elastic reflections at zero. Finally, in the last part, we will introduce the useful tools to establish a Wiener-Hopf factorization in a markovian framework in order to study the fluctuations of Markov walks on Z. We investigate some previous work, especially some proofs that warranted to be more detailed, with a mediumterm objective of applying the algebraic tools described above to study reflected Markov walks on N.
|
384 |
An investigation into the solving of polynomial equations and the implications for secondary school mathematicsMaharaj, Aneshkumar 06 1900 (has links)
This study investigates the possibilities and implications for the teaching of the solving
of polynomial equations. It is historically directed and also focusses on the working
procedures in algebra which target the cognitive and affective domains. The teaching
implications of the development of representational styles of equations and their solving
procedures are noted. Since concepts in algebra can be conceived as processes or
objects this leads to cognitive obstacles, for example: a limited view of the equal sign,
which result in learning and reasoning problems. The roles of sense-making, visual
imagery, mental schemata and networks in promoting meaningful understanding are
scrutinised. Questions and problems to solve are formulated to promote the processes
associated with the solving of polynomial equations, and the solving procedures used by
a group of college students are analysed. A teaching model/method, which targets the
cognitive and affective domains, is presented. / Mathematics Education / M.A. (Mathematics Education)
|
385 |
Sur les méthodes rapides de résolution de systèmes de Toeplitz bandes / Fast methods for solving banded Toeplitz systemsDridi, Marwa 13 May 2016 (has links)
Cette thèse vise à la conception de nouveaux algorithmes rapides en calcul numérique via les matrices de Toeplitz. Tout d'abord, nous avons introduit un algorithme rapide sur le calcul de l'inverse d'une matrice triangulaire de Toeplitz en se basant sur des notions d'interpolation polynomiale. Cet algorithme nécessitant uniquement deux FFT(2n) est manifestement efficace par rapport à ses prédécésseurs. ensuite, nous avons introduit un algorithme rapide pour la résolution d'un système linéaire de Toeplitz bande. Cette approche est basée sur l'extension de la matrice donnée par plusieurs lignes en dessus, de plusieurs colonnes à droite et d'attribuer des zéros et des constantes non nulles dans chacune de ces lignes et de ces colonnes de telle façon que la matrice augmentée à la structure d'une matrice triangulaire inférieure de Toeplitz. La stabilité de l'algorithme a été discutée et son efficacité a été aussi justifiée. Finalement, nous avons abordé la résolution d'un système de Toeplitz bandes par blocs bandes de Toeplitz. Ceci étant primordial pour établir la connexion de nos algorithmes à des applications en restauration d'images, un domaine phare en mathématiques appliquées. / This thesis aims to design new fast algorithms for numerical computation via the Toeplitz matrices. First, we introduced a fast algorithm to compute the inverse of a triangular Toeplitz matrix with real and/or complex numbers based on polynomial interpolation techniques. This algorithm requires only two FFT (2n) is clearly effective compared to predecessors. A numerical accuracy and error analysis is also considered. Numerical examples are given to illustrate the effectiveness of our method. In addition, we introduced a fast algorithm for solving a linear banded Toeplitz system. This new approach is based on extending the given matrix with several rows on the top and several columns on the right and to assign zeros and some nonzero constants in each of these rows and columns in such a way that the augmented matrix has a lower triangular Toeplitz structure. Stability of the algorithm is discussed and its performance is showed by numerical experiments. This is essential to connect our algorithms to applications such as image restoration applications, a key area in applied mathematics.
|
386 |
Sentiment-Driven Topic Analysis Of Song LyricsSharma, Govind 08 1900 (has links) (PDF)
Sentiment Analysis is an area of Computer Science that deals with the impact a document makes on a user. The very field is further sub-divided into Opinion Mining and Emotion Analysis, the latter of which is the basis for the present work. Work on songs is aimed at building affective interactive applications such as music recommendation engines. Using song lyrics, we are interested in both supervised and unsupervised analyses, each of which has its own pros and cons.
For an unsupervised analysis (clustering), we use a standard probabilistic topic model called Latent Dirichlet Allocation (LDA). It mines topics from songs, which are nothing but probability distributions over the vocabulary of words. Some of the topics seem sentiment-based, motivating us to continue with this approach. We evaluate our clusters using a gold dataset collected from an apt website and get positive results. This approach would be useful in the absence of a supervisor dataset.
In another part of our work, we argue the inescapable existence of supervision in terms of having to manually analyse the topics returned. Further, we have also used explicit supervision in terms of a training dataset for a classifier to learn sentiment specific classes. This analysis helps reduce dimensionality and improve classification accuracy. We get excellent dimensionality reduction using Support Vector Machines (SVM) for feature selection. For re-classification, we use the Naive Bayes Classifier (NBC) and SVM, both of which perform well. We also use Non-negative Matrix Factorization (NMF) for classification, but observe that the results coincide with those of NBC, with no exceptions. This drives us towards establishing a theoretical equivalence between the two.
|
387 |
Solving dense linear systems on accelerated multicore architectures / Résoudre des systèmes linéaires denses sur des architectures composées de processeurs multicœurs et d’accélerateursRémy, Adrien 08 July 2015 (has links)
Dans cette thèse de doctorat, nous étudions des algorithmes et des implémentations pour accélérer la résolution de systèmes linéaires denses en utilisant des architectures composées de processeurs multicœurs et d'accélérateurs. Nous nous concentrons sur des méthodes basées sur la factorisation LU. Le développement de notre code s'est fait dans le contexte de la bibliothèque MAGMA. Tout d'abord nous étudions différents solveurs CPU/GPU hybrides basés sur la factorisation LU. Ceux-ci visent à réduire le surcoût de communication dû au pivotage. Le premier est basé sur une stratégie de pivotage dite "communication avoiding" (CALU) alors que le deuxième utilise un préconditionnement aléatoire du système original pour éviter de pivoter (RBT). Nous montrons que ces deux méthodes surpassent le solveur utilisant la factorisation LU avec pivotage partiel quand elles sont utilisées sur des architectures hybrides multicœurs/GPUs. Ensuite nous développons des solveurs utilisant des techniques de randomisation appliquées sur des architectures hybrides utilisant des GPU Nvidia ou des coprocesseurs Intel Xeon Phi. Avec cette méthode, nous pouvons éviter l'important surcoût du pivotage tout en restant stable numériquement dans la plupart des cas. L'architecture hautement parallèle de ces accélérateurs nous permet d'effectuer la randomisation de notre système linéaire à un coût de calcul très faible par rapport à la durée de la factorisation. Finalement, nous étudions l'impact d'accès mémoire non uniformes (NUMA) sur la résolution de systèmes linéaires denses en utilisant un algorithme de factorisation LU. En particulier, nous illustrons comment un placement approprié des processus légers et des données sur une architecture NUMA peut améliorer les performances pour la factorisation du panel et accélérer de manière conséquente la factorisation LU globale. Nous montrons comment ces placements peuvent améliorer les performances quand ils sont appliqués à des solveurs hybrides multicœurs/GPU. / In this PhD thesis, we study algorithms and implementations to accelerate the solution of dense linear systems by using hybrid architectures with multicore processors and accelerators. We focus on methods based on the LU factorization and our code development takes place in the context of the MAGMA library. We study different hybrid CPU/GPU solvers based on the LU factorization which aim at reducing the communication overhead due to pivoting. The first one is based on a communication avoiding strategy of pivoting (CALU) while the second uses a random preconditioning of the original system to avoid pivoting (RBT). We show that both of these methods outperform the solver using LU factorization with partial pivoting when implemented on hybrid multicore/GPUs architectures. We also present new solvers based on randomization for hybrid architectures for Nvidia GPU or Intel Xeon Phi coprocessor. With this method, we can avoid the high cost of pivoting while remaining numerically stable in most cases. The highly parallel architecture of these accelerators allow us to perform the randomization of our linear system at a very low computational cost compared to the time of the factorization. Finally we investigate the impact of non-uniform memory accesses (NUMA) on the solution of dense general linear systems using an LU factorization algorithm. In particular we illustrate how an appropriate placement of the threads and data on a NUMA architecture can improve the performance of the panel factorization and consequently accelerate the global LU factorization. We show how these placements can improve the performance when applied to hybrid multicore/GPU solvers.
|
388 |
Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et Applications / DC programming and DCA for nonconvex optimization/ global optimization in mixed integer programming : Codes and applicationsPham, Viet Nga 18 April 2013 (has links)
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes. / Based on theoretical and algorithmic tools of DC programming and DCA, the research in this thesis focus on the local and global approaches for non convex optimization and global mixed integer optimization. The thesis consists of 5 chapters. The first chapter presents fundamentals of DC programming and DCA, and techniques of Branch and Bound method (B&B) for global optimization (using the DC relaxation technique for calculating lower bounds of the optimal value). It shall include results concerning the exact penalty technique in mixed integer programming. The second chapter is devoted of a DCA method for solving a class of NP-hard nonconvex nonlinear mixed integer programs. These nonconvex problems are firstly reformulated as DC programs via penalty techniques in DC programming so that the resulting DC programs are effectively solved by DCA and B&B well adapted. As a first application in financial optimization, we modeled the problem pf portfolio selection under concave transaction costs and applied DCA and B&B to its solutions. In the next chapter we study the modeling of the problem of minimization of nonconvex discontinuous transaction costs in portfolio selection in two forms: the first is a DC program obtained by approximating the objective function of the original problem by a DC polyhedral function and the second is an equivalent mixed 0-1 DC program. And we present DCA, B&B algorithm, and a combined DCA-B&B algorithm for their solutions. Chapter 4 studied the exact solution for the multi-objective mixed zero-one linear programming problem and presents two practical applications of proposed method. We are interested int the last chapter two challenging problems: the linear integer least squares problem and the Nonnegative Mattrix Factorization problem (NMF). The NMF method is particularly important because of its many various applications of the first are in telecommunications. The numerical simulations show the robustness, speed (thus scalability), performance, and the globality of DCA in comparison to existent methods.
|
389 |
Parameter estimation for nonincreasing exponential sums by Prony-like methodsPotts, Daniel, Tasche, Manfred January 2012 (has links)
For noiseless sampled data, we describe the close connections between Prony--like methods, namely the classical Prony method, the matrix pencil method and the ESPRIT method.
Further we present a new efficient algorithm of matrix pencil factorization based on QR decomposition of a rectangular Hankel matrix. The algorithms of parameter estimation are also applied to sparse Fourier approximation and nonlinear approximation.
|
390 |
Fusion pour la séparation de sources audio / Fusion for audio source separationJaureguiberry, Xabier 16 June 2015 (has links)
La séparation aveugle de sources audio dans le cas sous-déterminé est un problème mathématique complexe dont il est aujourd'hui possible d'obtenir une solution satisfaisante, à condition de sélectionner la méthode la plus adaptée au problème posé et de savoir paramétrer celle-ci soigneusement. Afin d'automatiser cette étape de sélection déterminante, nous proposons dans cette thèse de recourir au principe de fusion. L'idée est simple : il s'agit, pour un problème donné, de sélectionner plusieurs méthodes de résolution plutôt qu'une seule et de les combiner afin d'en améliorer la solution. Pour cela, nous introduisons un cadre général de fusion qui consiste à formuler l'estimée d'une source comme la combinaison de plusieurs estimées de cette même source données par différents algorithmes de séparation, chaque estimée étant pondérée par un coefficient de fusion. Ces coefficients peuvent notamment être appris sur un ensemble d'apprentissage représentatif du problème posé par minimisation d'une fonction de coût liée à l'objectif de séparation. Pour aller plus loin, nous proposons également deux approches permettant d'adapter les coefficients de fusion au signal à séparer. La première formule la fusion dans un cadre bayésien, à la manière du moyennage bayésien de modèles. La deuxième exploite les réseaux de neurones profonds afin de déterminer des coefficients de fusion variant en temps. Toutes ces approches ont été évaluées sur deux corpus distincts : l'un dédié au rehaussement de la parole, l'autre dédié à l'extraction de voix chantée. Quelle que soit l'approche considérée, nos résultats montrent l'intérêt systématique de la fusion par rapport à la simple sélection, la fusion adaptative par réseau de neurones se révélant être la plus performante. / Underdetermined blind source separation is a complex mathematical problem that can be satisfyingly resolved for some practical applications, providing that the right separation method has been selected and carefully tuned. In order to automate this selection process, we propose in this thesis to resort to the principle of fusion which has been widely used in the related field of classification yet is still marginally exploited in source separation. Fusion consists in combining several methods to solve a given problem instead of selecting a unique one. To do so, we introduce a general fusion framework in which a source estimate is expressed as a linear combination of estimates of this same source given by different separation algorithms, each source estimate being weighted by a fusion coefficient. For a given task, fusion coefficients can then be learned on a representative training dataset by minimizing a cost function related to the separation objective. To go further, we also propose two ways to adapt the fusion coefficients to the mixture to be separated. The first one expresses the fusion of several non-negative matrix factorization (NMF) models in a Bayesian fashion similar to Bayesian model averaging. The second one aims at learning time-varying fusion coefficients thanks to deep neural networks. All proposed methods have been evaluated on two distinct corpora. The first one is dedicated to speech enhancement while the other deals with singing voice extraction. Experimental results show that fusion always outperform simple selection in all considered cases, best results being obtained by adaptive time-varying fusion with neural networks.
|
Page generated in 0.1308 seconds