• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 7
  • 7
  • 3
  • Tagged with
  • 66
  • 66
  • 66
  • 20
  • 15
  • 14
  • 13
  • 12
  • 11
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Generalized Random Spreading Performance Analysis Of Cdma Over Gwssus Fading Channels

Ertug, Ozgur 01 December 2005 (has links) (PDF)
Since direct-sequence code-division multiple-access (DS-CDMA) is an interference-limited random multiple-access scheme, the reduction of co-channel interference with either interference suppression or interference cancellation multiuser receivers and/or power control to prevent detrimental near-far situations is vital for improved performance. Up to date, some contributions investigated randomly-spread asymptotically - large number of users and large bandwidth - large CDMA systems with multiuser receivers and power control via random matrix theoretic and free probability theoretic tools especially over Gaussian and single-path fading channels. As complement within this thesis, we analyze also within the generalized random spreading framework but at finite system sizes and without power control the capacity achievable with linear multichannel multiuser receivers / i.e. RAKE, zero-forcing decorrelator, linear minimum mean-squared error (LMMSE) multiuser receivers, within a single-cell setting over generalized time-varying GWSSUS - Rayleigh/Ricean - fading channels via random matrix theoretic tools. Assuming maximal-ratio combining (MRC) of resolved frequency - multipath - diversity channels due to wideband transmission, the signal-to-interference ratios (SIRs) with multichannel multiuser receivers that set the basis for further derivations are statistically characterized. The information-theoretic ergodic and outage sum-rates spectral efficiencies are then derived and analyzed.
52

Matrizes aleatórias no ensemble / Random matrices in the B Ensemble

Gabriel Marinello de Souza Santos 14 August 2014 (has links)
O estudo de matrizes aleatórias na física tradicionalmente ocorre no contexto dos modelos de Wigner e na estatística por modelos de Wishart, que se conectam através do threefold way de Dyson para matrizes aleatórias reais, complexas e de quaternios indexadas respectivamente pelo índice B = 1; 2; 4 de Dyson. Estudos recentes mostraram o caminho para que estes modelos fossem generalizados para valores reais de B, permitindo o estudo de ensembles com índice arbitrário. Neste trabalho, estudamos as propriedades estatísticas destes sistemas e exploramos a física subjacente nos modelos de Wigner e Wishart e investigamos, através de cálculos numéricos, os efeitos de localização nos modelos de geral. Também introduzimos quebras na simetria desta nova forma e estudamos numericamente os resultados da estatística dos sistemas perturbados. / The study of random matrices in physics has traditionally occurred in the context of Wigner models and in statistics by Wishart models, which are connected through Dyson\'s threefold way for real, complex and quaternion random matrices index by the Dyson _ = 1; 2; 4 index, respectively. Recent studies have shown the way by which these models are generalized for real values of _, allowing for the study the ensembles with arbitrary index. In this work, we study the statistical properties of these systems and explore the underlying physics in Wigner\'s and Wishart\'s models through and investigate through numerical calculations the e_ects of localization in general _ models. We also introduce symmetry breaks in this new form and study numerically the results of the statistics of the disturbed systems.
53

A Review of Gaussian Random Matrices

Andersson, Kasper January 2020 (has links)
While many university students get introduced to the concept of statistics early in their education, random matrix theory (RMT) usually first arises (if at all) in graduate level classes. This thesis serves as a friendly introduction to RMT, which is the study of matrices with entries following some probability distribution. Fundamental results, such as Gaussian and Wishart ensembles, are introduced and a discussion of how their corresponding eigenvalues are distributed is presented. Two well-studied applications, namely neural networks and PCA, are discussed where we present how RMT can be applied / Medan många stöter på statistik och sannolikhetslära tidigt under sina universitetsstudier så är det sällan slumpmatristeori (RMT) dyker upp förän på forskarnivå. RMT handlar om att studera matriser där elementen följer någon sannolikhetsfördelning och den här uppsatsen presenterar den mest grundläggande teorin för slumpmatriser. Vi introducerar Gaussian ensembles, Wishart ensembles samt fördelningarna för dem tillhörande egenvärdena. Avslutningsvis så introducerar vi hur slumpmatriser kan användas i neruonnät och i PCA.
54

Méthodes des matrices aléatoires pour l’apprentissage en grandes dimensions / Methods of random matrices for large dimensional statistical learning

Mai, Xiaoyi 16 October 2019 (has links)
Le défi du BigData entraîne un besoin pour les algorithmes d'apprentissage automatisé de s'adapter aux données de grande dimension et de devenir plus efficace. Récemment, une nouvelle direction de recherche est apparue qui consiste à analyser les méthodes d’apprentissage dans le régime moderne où le nombre n et la dimension p des données sont grands et du même ordre. Par rapport au régime conventionnel où n>>p, le régime avec n,p sont grands et comparables est particulièrement intéressant, car les performances d’apprentissage dans ce régime restent sensibles à l’ajustement des hyperparamètres, ouvrant ainsi une voie à la compréhension et à l’amélioration des techniques d’apprentissage pour ces données de grande dimension.L'approche technique de cette thèse s'appuie sur des outils avancés de statistiques de grande dimension, nous permettant de mener des analyses allant au-delà de l'état de l’art. La première partie de la thèse est consacrée à l'étude de l'apprentissage semi-supervisé sur des grandes données. Motivés par nos résultats théoriques, nous proposons une alternative supérieure à la méthode semi-supervisée de régularisation laplacienne. Les méthodes avec solutions implicites, comme les SVMs et la régression logistique, sont ensuite étudiées sous des modèles de mélanges réalistes, fournissant des détails exhaustifs sur le mécanisme d'apprentissage. Plusieurs conséquences importantes sont ainsi révélées, dont certaines sont même en contradiction avec la croyance commune. / The BigData challenge induces a need for machine learning algorithms to evolve towards large dimensional and more efficient learning engines. Recently, a new direction of research has emerged that consists in analyzing learning methods in the modern regime where the number n and the dimension p of data samples are commensurately large. Compared to the conventional regime where n>>p, the regime with large and comparable n,p is particularly interesting as the learning performance in this regime remains sensitive to the tuning of hyperparameters, thus opening a path into the understanding and improvement of learning techniques for large dimensional datasets.The technical approach employed in this thesis draws on several advanced tools of high dimensional statistics, allowing us to conduct more elaborate analyses beyond the state of the art. The first part of this dissertation is devoted to the study of semi-supervised learning on high dimensional data. Motivated by our theoretical findings, we propose a superior alternative to the standard semi-supervised method of Laplacian regularization. The methods involving implicit optimizations, such as SVMs and logistic regression, are next investigated under realistic mixture models, providing exhaustive details on the learning mechanism. Several important consequences are thus revealed, some of which are even in contradiction with common belief.
55

Nouvelles méthodes pour l’apprentissage non-supervisé en grandes dimensions. / New methods for large-scale unsupervised learning.

Tiomoko ali, Hafiz 24 September 2018 (has links)
Motivée par les récentes avancées dans l'analyse théorique des performances des algorithmes d'apprentissage automatisé, cette thèse s'intéresse à l'analyse de performances et à l'amélioration de la classification nonsupervisée de données et graphes en grande dimension. Spécifiquement, dans la première grande partie de cette thèse, en s'appuyant sur des outils avancés de la théorie des grandes matrices aléatoires, nous analysons les performances de méthodes spectrales sur des modèles de graphes réalistes et denses ainsi que sur des données en grandes dimensions en étudiant notamment les valeurs propres et vecteurs propres des matrices d'affinités de ces données. De nouvelles méthodes améliorées sont proposées sur la base de cette analyse théorique et démontrent à travers de nombreuses simulations que leurs performances sont meilleures comparées aux méthodes de l'état de l'art. Dans la seconde partie de la thèse, nous proposons un nouvel algorithme pour la détection de communautés hétérogènes entre plusieurs couches d'un graphe à plusieurs types d'interaction. Une approche bayésienne variationnelle est utilisée pour approximer la distribution apostériori des variables latentes du modèle. Toutes les méthodes proposées dans cette thèse sont utilisées sur des bases de données synthétiques et sur des données réelles et présentent de meilleures performances en comparaison aux approches standard de classification dans les contextes susmentionnés. / Spurred by recent advances on the theoretical analysis of the performances of the data-driven machine learning algorithms, this thesis tackles the performance analysis and improvement of high dimensional data and graph clustering. Specifically, in the first bigger part of the thesis, using advanced tools from random matrix theory, the performance analysis of spectral methods on dense realistic graph models and on high dimensional kernel random matrices is performed through the study of the eigenvalues and eigenvectors of the similarity matrices characterizing those data. New improved methods are proposed and are shown to outperform state-of-the-art approaches. In a second part, a new algorithm is proposed for the detection of heterogeneous communities from multi-layer graphs using variational Bayes approaches to approximate the posterior distribution of the sought variables. The proposed methods are successfully applied to synthetic benchmarks as well as real-world datasets and are shown to outperform standard approaches to clustering in those specific contexts.
56

Mean-Variance Portfolio Optimization : Challenging the role of traditional covariance estimation / Effektiv portföljförvaltning : en utvärdering av metoder for kovariansskattning

MARAKBI, ZAKARIA January 2016 (has links)
Ever since its introduction in 1952, the Mean-Variance (MV) portfolio selection theory has remained a centerpiece within the realm of e_cient asset allocation. However, in scienti_c circles, the theory has stirred controversy. A strand of criticism has emerged that points to the phenomenon that Mean-Variance Optimization su_ers from the severe drawback of estimation errors contained in the expected return vector and the covariance matrix, resulting in portfolios that may signi_cantly deviate from the true optimal portfolio. While a substantial amount of e_ort has been devoted to estimating the expected return vector in this context, much less is written about the covariance matrix input. In recent times, however, research that points to the importance of the covariance matrix in MV optimization has emerged. As a result, there has been a growing interest whether MV optimization can be enhanced by improving the estimate of the covariance matrix. Hence, this thesis was set forth by the purpose to investigate whether nancial practitioners and institutions can allocate portfolios consisting of assets in a more e_cient manner by changing the covariance matrix input in mean-variance optimization. In the quest of chieving this purpose, an out-of-sample analysis of MV optimized portfolios was performed, where the performance of ve prominent covariance matrix estimators were compared, holding all other things equal in the MV optimization. The optimization was performed under realistic investment constraints, taking incurred transaction costs into account, and for an investment asset universe ranging from equity to bonds. The empirical _ndings in this study suggest one dominant estimator: the covariance matrix estimator implied by the Gerber Statistic (GS). Speci_cally, by using this covariance matrix estimator in lieu of the traditional sample covariance matrix, the MV optimization rendered more e_cient portfolios in terms of higher Sharpe ratios, higher risk-adjusted returns and lower maximum drawdowns. The outperformance was protruding during recessionary times. This suggests that an investor that employs traditional MVO in quantitative asset allocation can improve their asset picking abilities by changing to the, in theory, more robust GS  ovariance matrix estimator in times of volatile nancial markets.
57

Spin-glass models and interdisciplinary applications / Modèles de verre de spin et applications interdisciplinaires

Zarinelli, Elia 13 January 2012 (has links)
Le sujet principal de cette thèse est la physique des verres de spin. Les verres de spin ont été introduits au début des années 70 pour décrire alliages magnétiques diluées. Ils ont désormais été considerés pour comprendre le comportement de liquides sousrefroidis. Parmis les systèmes qui peuvent être décrits par le langage des systèmes desordonnés, on trouve les problèmes d’optimisation combinatoire. Dans la première partie de cette thèse, nous considérons les modèles de verre de spin avec intéraction de Kac pour investiguer la phase de basse température des liquides sous-refroidis. Dans les chapitres qui suivent, nous montrons comment certaines caractéristiques des modèles de verre de spin peuvent être obtenues à partir de résultats de la théorie des matrices aléatoires en connection avec la statistique des valeurs extrêmes. Dans la dernière partie de la thèse, nous considérons la connexion entre la théorie desverres de spin et la science computationnelle, et présentons un nouvel algorithme qui peut être appliqué à certains problèmes dans le domaine des finances. / The main subject of this thesis is the physics of spin glasses. After their introduction in the 70s in order to describe dilute magnetic alloys, spin-glass models have been considered prototype models to understand the behavior of supercooled liquids. Among the systems that can be described and analyzed using the language of disordered systems, there are problems of combinatorial optimization. In the first part of the thesis, we consider spin-glass models with Kac interactions in order to investigate the supercooled phase of glass-forming liquids. Afterwards, we show how some features of spin-glass models can be described by ubiquitous results of Random Matrix Theory in connection with Extreme Value Statistics. Finally, from the interaction of spin-glass theory and computer science, we put forward a new algorithm of immediate application in Financial problems.
58

Cross Layer Design in MIMO Multi-cell Systems / Conception de Mecanismes Inter-couches dans les Systemes MIMO Multi-cellulaires

Lakshminarayana, Subhash 06 December 2012 (has links)
Les prévisions relatives trafic de données au sein des systèmes de communications sans-fil suggèrent une croissance exponentielle, principalement alimentée par l’essor de transferts vidéo mobiles. Etant donné la nature soudaine et fluctuante des demandes de transfert vidéo, il faut dès à présent réfléchir à de nouveaux algorithmes d’allocation de ressources performants. En effet, les algorithmes en couche physique traditionnels, qui réalisent de l’allocation de ressources sous l’hypothèse classique que les transmetteurs sont toujours saturés avec des bits d’information, risquent à l’avenir de s’avérer inefficients. Pour cette raison, les algorithmes de demain se doivent d’être dynamiques, dans le sens où ils seront capables de prendre en compte la nature stochastique des fluctuations du trafic de données et qu’ils intégreront des informations issus de processus de couches supérieures.L’idée centrale de cette thèse est de développer des algorithmes, travaillant avec des informations issues de la couche PHY et de la couche NET, dans un scénario Multi-cells et MIMO (Multiple Inputs, Multiple Outputs).Plus particulièrement, nous considérons un réseau de stations de base (BS) équipés avec plusieurs antennes, chargés de servir plusieurs terminaux mobiles équipés d’une seule antenne (UT) dans leurs cellules respectives. Ce qui nous différencie des travaux précédents, c’est que nous tenons compte de l’aléa avec lequel des demandes de transferts peuvent arriver et que, pour cette raison, nous modélisons la formation de queue de données au niveau des stations de base. Dans cette disposition, nous développons plusieurs algorithmes multicouches, réalisant de l’allocation de ressources décentralisée, et ce, dans une optique d’efficacité énergétique. En particulier, il s’agit ici de réaliser des algorithmes réalisant du beamforming de façon décentralisée et capables de contrôler des fluctuations de trafic, des algorithmes optimisant l’efficacité énergétique sous une contrainte de qualité de service moyenne, des algorithmes de planification décentralisés dans des scénarios multi-cellulaires. Dans cette perspective, nous choisissons de recourir non seulement à des outils d’optimisation de la théorie de Lyapunov, mais également à la théorie des matrices aléatoires et à la théorie du contrôle stochastique. / Future wireless communication systems are expected to see an explosion in the wireless traffic which is mainly fueled by mobile video traffic. Due to the time varying and bursty nature of video traffic, wireless systems will see a widerrange of fluctuations in their traffic patterns. Therefore, traditional physical layer based algorithms which perform resource allocation under the assumption that the transmitters are always saturated with information bits, might no longer be efficient. It is, thus, important to design dynamic resource allocation algorithms which can incorporate higher layer processes and account for the stochastic nature of the wireless traffic.The central idea of this thesis is to develop cross-layer design algorithmsbetween the physical and the network layer in a multiple input multiple output (MIMO) multi-cell setup. Specifically, we consider base stations (BSs) equipped with multiple antennas serving multiple single antenna user terminals (UTs) in their respective cells. In contrast to the previous works, we consider the randomness in the arrival of information bits and hence account for the queuing at the BSs. With this setup, we develop various cross-layer based resource allocation algorithms. We incorporate two important design considerations namely decentralized design and energy efficiency. In particular, we focus on developing decentralized beamforming and traffic flow controller design, energy efficient design under time average QoS constraints and decentralized scheduling strategy in a multi-cell scenario. To this end, we use tools from Lyapunov optimization, random matrix theory and stochastic control theory.
59

Théorie des Matrices Aléatoires pour l'Imagerie Hyperspectrale / Random Matrix Theory for Hyperspectral Imaging

Terreaux, Eugénie 23 November 2018 (has links)
La finesse de la résolution spectrale et spatiale des images hyperspectrales en font des données de très grande dimension. C'est également le cas d'autres types de données, où leur taille tend à augmenter pour de plus en plus d'applications. La complexité des données provenant de l'hétérogénéité spectrale et spatiale, de la non gaussianité du bruit et des processus physiques sous-jacents, renforcent la richesse des informations présentes sur une image hyperspectrale. Exploiter ces informations demande alors des outils statistiques adaptés aux grandes données mais aussi à leur nature non gaussienne. Des méthodes reposant sur la théorie des matrices aléatoires, théorie adaptée aux données de grande dimension, et reposant sur la robustesse, adaptée aux données non gaussiennes, sont ainsi proposées dans cette thèse, pour des applications à l'imagerie hyperspectrale. Cette thèse propose d'améliorer deux aspects du traitement des images hyperspectrales : l'estimation du nombre d'endmembers ou de l'ordre du modèle et le problème du démélange spectral. En ce qui concerne l'estimation du nombre d'endmembers, trois nouveaux algorithmes adaptés au modèle choisi sont proposés, le dernier présentant de meilleures performances que les deux autres, en raison de sa plus grande robustesse.Une application au domaine de la finance est également proposée. Pour le démélange spectral, trois méthodes sont proposées, qui tiennent comptent des diff érentes particularités possibles des images hyperspectrales. Cette thèse a permis de montrer que la théorie des matrices aléatoires présente un grand intérêt pour le traitement des images hyperspectrales. Les méthodes développées peuvent également s'appliquer à d'autres domaines nécessitant le traitement de données de grandes dimensions. / Hyperspectral imaging generates large data due to the spectral and spatial high resolution, as it is the case for more and more other kinds of applications. For hyperspectral imaging, the data complexity comes from the spectral and spatial heterogeneity, the non-gaussianity of the noise and other physical processes. Nevertheless, this complexity enhances the wealth of collected informations, that need to be processed with adapted methods. Random matrix theory and robust processes are here suggested for hyperspectral imaging application: the random matrix theory is adapted to large data and the robustness enables to better take into account the non-gaussianity of the data. This thesis aims to enhance the model order selection on a hyperspectral image and the unmixing problem. As the model order selection is concerned, three new algorithms are developped, and the last one, more robust, gives better performances. One financial application is also presented. As for the unmixing problem, three methods that take into account the peculierities of hyperspectral imaging are suggested. The random matrix theory is of great interest for hyperspectral image processing, as demonstrated in this thesis. Differents methods developped here can be applied to other field of signal processing requiring the processing of large data.
60

La distribution des zéros des fonctions L

Comeau-Lapointe, Antoine 08 1900 (has links)
No description available.

Page generated in 0.0711 seconds