• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 12
  • 1
  • Tagged with
  • 24
  • 24
  • 24
  • 14
  • 14
  • 14
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Application des matrices aléatoires aux futurs réseaux flexibles de communications sans fil

Couillet, Romain 12 November 2010 (has links) (PDF)
Il est attendu que les radios flexibles constituent un tournant technologique majeur dans le domaine des communications sans fil. Le point de vue adopté en radios flexibles est de considérer les canaux de communication comme un ensemble de ressources qui peuvent être accédées sur demande par un réseau primaire sous licence ou de manière opportuniste par un réseau secondaire à plus faible priorité. Pour la couche physique, le réseau primaire n'a idéalement aucune information sur l'existence d'un ou plusieurs réseaux secondaires, de sorte que ces derniers doivent explorer l'environnement aérien de manière autonome à la recherche d'opportunités d'accès au canal et exploiter ces ressources de manière optimale au sein du réseau secondaire. Les phases d'exploration et d'exploitation, qui impliquent la gestion de nombreux agents, doivent être très fiables, rapides et efficaces. L'objectif du présent rapport est de modéliser, d'analyser et de proposer des solutions efficaces et quasi optimales pour ces dernières opérations. En particulier, en ce qui concerne la phase d'exploration, nous nous appuierons sur le principe d'entropie maximale pour modéliser des canaux de communication, pour lesquels nous calculerons le test optimal de Neyman-Pearson de détection de plusieurs sources via un réseau de capteurs. Cette procédure permet à un réseau secondaire d'établir la présence de ressources spectrales disponibles. La complexité calculatoire de l'approche optimale appelle cependant la mise en place de méthodes moins onéreuses, que nous rappellerons et discuterons. Nous étendrons alors le test de détection en l'estimation aveugle de la position de sources multiples, qui permet l'acquisition d'informations détaillées sur les ressources spectrales disponibles. Le dernier chapitre d'importance sera consacré à la phase d'exploitation optimale des ressources au niveau du réseau secondaire. Pour ce faire, nous obtiendrons une approximation fine du débit ergodique d'un canal multi-antennes à accès multiples et proposerons des solutions peu coûteuses en termes de feedback afin que les réseaux secondaires s'adaptent rapidement aux évolutions rapides du réseau primaire. Les outils mathématiques et algorithmes proposés dans ce rapport proviennent essentiellement de récents progrès en théorie des matrices aléatoires, et plus spécifiquement de l'étude de matrices aléatoires à grandes dimensions et à entrées statistiquement indépendantes. Une introduction précise des concepts principaux ainsi que des résultats récents requis à la compréhension complète du présent document sont également proposés.
12

Conception de Mecanismes Inter-couches dans les Systemes MIMO Multi-cellulaires

Lakshminarayana, Subhash 06 December 2012 (has links) (PDF)
Les prévisions relatives trafic de données au sein des systèmes de communications sans-fil suggèrent une croissance exponentielle, principalement alimentée par l'essor de transferts vidéo mobiles. Etant donné la nature soudaine et fluctuante des demandes de transfert vidéo, il faut dès à présent réfléchir à de nouveaux algorithmes d'allocation de ressources performants. En effet, les algorithmes en couche physique traditionnels, qui réalisent de l'allocation de ressources sous l'hypothèse classique que les transmetteurs sont toujours saturés avec des bits d'information, risquent à l'avenir de s'avérer inefficients. Pour cette raison, les algorithmes de demain se doivent d'être dynamiques, dans le sens où ils seront capables de prendre en compte la nature stochastique des fluctuations du trafic de données et qu'ils intégreront des informations issus de processus de couches supérieures.L'idée centrale de cette thèse est de développer des algorithmes, travaillant avec des informations issues de la couche PHY et de la couche NET, dans un scénario Multi-cells et MIMO (Multiple Inputs, Multiple Outputs).Plus particulièrement, nous considérons un réseau de stations de base (BS) équipés avec plusieurs antennes, chargés de servir plusieurs terminaux mobiles équipés d'une seule antenne (UT) dans leurs cellules respectives. Ce qui nous différencie des travaux précédents, c'est que nous tenons compte de l'aléa avec lequel des demandes de transferts peuvent arriver et que, pour cette raison, nous modélisons la formation de queue de données au niveau des stations de base. Dans cette disposition, nous développons plusieurs algorithmes multicouches, réalisant de l'allocation de ressources décentralisée, et ce, dans une optique d'efficacité énergétique. En particulier, il s'agit ici de réaliser des algorithmes réalisant du beamforming de façon décentralisée et capables de contrôler des fluctuations de trafic, des algorithmes optimisant l'efficacité énergétique sous une contrainte de qualité de service moyenne, des algorithmes de planification décentralisés dans des scénarios multi-cellulaires. Dans cette perspective, nous choisissons de recourir non seulement à des outils d'optimisation de la théorie de Lyapunov, mais également à la théorie des matrices aléatoires et à la théorie du contrôle stochastique.
13

Méthodes des matrices aléatoires pour l’apprentissage en grandes dimensions / Methods of random matrices for large dimensional statistical learning

Mai, Xiaoyi 16 October 2019 (has links)
Le défi du BigData entraîne un besoin pour les algorithmes d'apprentissage automatisé de s'adapter aux données de grande dimension et de devenir plus efficace. Récemment, une nouvelle direction de recherche est apparue qui consiste à analyser les méthodes d’apprentissage dans le régime moderne où le nombre n et la dimension p des données sont grands et du même ordre. Par rapport au régime conventionnel où n>>p, le régime avec n,p sont grands et comparables est particulièrement intéressant, car les performances d’apprentissage dans ce régime restent sensibles à l’ajustement des hyperparamètres, ouvrant ainsi une voie à la compréhension et à l’amélioration des techniques d’apprentissage pour ces données de grande dimension.L'approche technique de cette thèse s'appuie sur des outils avancés de statistiques de grande dimension, nous permettant de mener des analyses allant au-delà de l'état de l’art. La première partie de la thèse est consacrée à l'étude de l'apprentissage semi-supervisé sur des grandes données. Motivés par nos résultats théoriques, nous proposons une alternative supérieure à la méthode semi-supervisée de régularisation laplacienne. Les méthodes avec solutions implicites, comme les SVMs et la régression logistique, sont ensuite étudiées sous des modèles de mélanges réalistes, fournissant des détails exhaustifs sur le mécanisme d'apprentissage. Plusieurs conséquences importantes sont ainsi révélées, dont certaines sont même en contradiction avec la croyance commune. / The BigData challenge induces a need for machine learning algorithms to evolve towards large dimensional and more efficient learning engines. Recently, a new direction of research has emerged that consists in analyzing learning methods in the modern regime where the number n and the dimension p of data samples are commensurately large. Compared to the conventional regime where n>>p, the regime with large and comparable n,p is particularly interesting as the learning performance in this regime remains sensitive to the tuning of hyperparameters, thus opening a path into the understanding and improvement of learning techniques for large dimensional datasets.The technical approach employed in this thesis draws on several advanced tools of high dimensional statistics, allowing us to conduct more elaborate analyses beyond the state of the art. The first part of this dissertation is devoted to the study of semi-supervised learning on high dimensional data. Motivated by our theoretical findings, we propose a superior alternative to the standard semi-supervised method of Laplacian regularization. The methods involving implicit optimizations, such as SVMs and logistic regression, are next investigated under realistic mixture models, providing exhaustive details on the learning mechanism. Several important consequences are thus revealed, some of which are even in contradiction with common belief.
14

Nouvelles méthodes pour l’apprentissage non-supervisé en grandes dimensions. / New methods for large-scale unsupervised learning.

Tiomoko ali, Hafiz 24 September 2018 (has links)
Motivée par les récentes avancées dans l'analyse théorique des performances des algorithmes d'apprentissage automatisé, cette thèse s'intéresse à l'analyse de performances et à l'amélioration de la classification nonsupervisée de données et graphes en grande dimension. Spécifiquement, dans la première grande partie de cette thèse, en s'appuyant sur des outils avancés de la théorie des grandes matrices aléatoires, nous analysons les performances de méthodes spectrales sur des modèles de graphes réalistes et denses ainsi que sur des données en grandes dimensions en étudiant notamment les valeurs propres et vecteurs propres des matrices d'affinités de ces données. De nouvelles méthodes améliorées sont proposées sur la base de cette analyse théorique et démontrent à travers de nombreuses simulations que leurs performances sont meilleures comparées aux méthodes de l'état de l'art. Dans la seconde partie de la thèse, nous proposons un nouvel algorithme pour la détection de communautés hétérogènes entre plusieurs couches d'un graphe à plusieurs types d'interaction. Une approche bayésienne variationnelle est utilisée pour approximer la distribution apostériori des variables latentes du modèle. Toutes les méthodes proposées dans cette thèse sont utilisées sur des bases de données synthétiques et sur des données réelles et présentent de meilleures performances en comparaison aux approches standard de classification dans les contextes susmentionnés. / Spurred by recent advances on the theoretical analysis of the performances of the data-driven machine learning algorithms, this thesis tackles the performance analysis and improvement of high dimensional data and graph clustering. Specifically, in the first bigger part of the thesis, using advanced tools from random matrix theory, the performance analysis of spectral methods on dense realistic graph models and on high dimensional kernel random matrices is performed through the study of the eigenvalues and eigenvectors of the similarity matrices characterizing those data. New improved methods are proposed and are shown to outperform state-of-the-art approaches. In a second part, a new algorithm is proposed for the detection of heterogeneous communities from multi-layer graphs using variational Bayes approaches to approximate the posterior distribution of the sought variables. The proposed methods are successfully applied to synthetic benchmarks as well as real-world datasets and are shown to outperform standard approaches to clustering in those specific contexts.
15

Spin-glass models and interdisciplinary applications / Modèles de verre de spin et applications interdisciplinaires

Zarinelli, Elia 13 January 2012 (has links)
Le sujet principal de cette thèse est la physique des verres de spin. Les verres de spin ont été introduits au début des années 70 pour décrire alliages magnétiques diluées. Ils ont désormais été considerés pour comprendre le comportement de liquides sousrefroidis. Parmis les systèmes qui peuvent être décrits par le langage des systèmes desordonnés, on trouve les problèmes d’optimisation combinatoire. Dans la première partie de cette thèse, nous considérons les modèles de verre de spin avec intéraction de Kac pour investiguer la phase de basse température des liquides sous-refroidis. Dans les chapitres qui suivent, nous montrons comment certaines caractéristiques des modèles de verre de spin peuvent être obtenues à partir de résultats de la théorie des matrices aléatoires en connection avec la statistique des valeurs extrêmes. Dans la dernière partie de la thèse, nous considérons la connexion entre la théorie desverres de spin et la science computationnelle, et présentons un nouvel algorithme qui peut être appliqué à certains problèmes dans le domaine des finances. / The main subject of this thesis is the physics of spin glasses. After their introduction in the 70s in order to describe dilute magnetic alloys, spin-glass models have been considered prototype models to understand the behavior of supercooled liquids. Among the systems that can be described and analyzed using the language of disordered systems, there are problems of combinatorial optimization. In the first part of the thesis, we consider spin-glass models with Kac interactions in order to investigate the supercooled phase of glass-forming liquids. Afterwards, we show how some features of spin-glass models can be described by ubiquitous results of Random Matrix Theory in connection with Extreme Value Statistics. Finally, from the interaction of spin-glass theory and computer science, we put forward a new algorithm of immediate application in Financial problems.
16

Cross Layer Design in MIMO Multi-cell Systems / Conception de Mecanismes Inter-couches dans les Systemes MIMO Multi-cellulaires

Lakshminarayana, Subhash 06 December 2012 (has links)
Les prévisions relatives trafic de données au sein des systèmes de communications sans-fil suggèrent une croissance exponentielle, principalement alimentée par l’essor de transferts vidéo mobiles. Etant donné la nature soudaine et fluctuante des demandes de transfert vidéo, il faut dès à présent réfléchir à de nouveaux algorithmes d’allocation de ressources performants. En effet, les algorithmes en couche physique traditionnels, qui réalisent de l’allocation de ressources sous l’hypothèse classique que les transmetteurs sont toujours saturés avec des bits d’information, risquent à l’avenir de s’avérer inefficients. Pour cette raison, les algorithmes de demain se doivent d’être dynamiques, dans le sens où ils seront capables de prendre en compte la nature stochastique des fluctuations du trafic de données et qu’ils intégreront des informations issus de processus de couches supérieures.L’idée centrale de cette thèse est de développer des algorithmes, travaillant avec des informations issues de la couche PHY et de la couche NET, dans un scénario Multi-cells et MIMO (Multiple Inputs, Multiple Outputs).Plus particulièrement, nous considérons un réseau de stations de base (BS) équipés avec plusieurs antennes, chargés de servir plusieurs terminaux mobiles équipés d’une seule antenne (UT) dans leurs cellules respectives. Ce qui nous différencie des travaux précédents, c’est que nous tenons compte de l’aléa avec lequel des demandes de transferts peuvent arriver et que, pour cette raison, nous modélisons la formation de queue de données au niveau des stations de base. Dans cette disposition, nous développons plusieurs algorithmes multicouches, réalisant de l’allocation de ressources décentralisée, et ce, dans une optique d’efficacité énergétique. En particulier, il s’agit ici de réaliser des algorithmes réalisant du beamforming de façon décentralisée et capables de contrôler des fluctuations de trafic, des algorithmes optimisant l’efficacité énergétique sous une contrainte de qualité de service moyenne, des algorithmes de planification décentralisés dans des scénarios multi-cellulaires. Dans cette perspective, nous choisissons de recourir non seulement à des outils d’optimisation de la théorie de Lyapunov, mais également à la théorie des matrices aléatoires et à la théorie du contrôle stochastique. / Future wireless communication systems are expected to see an explosion in the wireless traffic which is mainly fueled by mobile video traffic. Due to the time varying and bursty nature of video traffic, wireless systems will see a widerrange of fluctuations in their traffic patterns. Therefore, traditional physical layer based algorithms which perform resource allocation under the assumption that the transmitters are always saturated with information bits, might no longer be efficient. It is, thus, important to design dynamic resource allocation algorithms which can incorporate higher layer processes and account for the stochastic nature of the wireless traffic.The central idea of this thesis is to develop cross-layer design algorithmsbetween the physical and the network layer in a multiple input multiple output (MIMO) multi-cell setup. Specifically, we consider base stations (BSs) equipped with multiple antennas serving multiple single antenna user terminals (UTs) in their respective cells. In contrast to the previous works, we consider the randomness in the arrival of information bits and hence account for the queuing at the BSs. With this setup, we develop various cross-layer based resource allocation algorithms. We incorporate two important design considerations namely decentralized design and energy efficiency. In particular, we focus on developing decentralized beamforming and traffic flow controller design, energy efficient design under time average QoS constraints and decentralized scheduling strategy in a multi-cell scenario. To this end, we use tools from Lyapunov optimization, random matrix theory and stochastic control theory.
17

Théorie des Matrices Aléatoires pour l'Imagerie Hyperspectrale / Random Matrix Theory for Hyperspectral Imaging

Terreaux, Eugénie 23 November 2018 (has links)
La finesse de la résolution spectrale et spatiale des images hyperspectrales en font des données de très grande dimension. C'est également le cas d'autres types de données, où leur taille tend à augmenter pour de plus en plus d'applications. La complexité des données provenant de l'hétérogénéité spectrale et spatiale, de la non gaussianité du bruit et des processus physiques sous-jacents, renforcent la richesse des informations présentes sur une image hyperspectrale. Exploiter ces informations demande alors des outils statistiques adaptés aux grandes données mais aussi à leur nature non gaussienne. Des méthodes reposant sur la théorie des matrices aléatoires, théorie adaptée aux données de grande dimension, et reposant sur la robustesse, adaptée aux données non gaussiennes, sont ainsi proposées dans cette thèse, pour des applications à l'imagerie hyperspectrale. Cette thèse propose d'améliorer deux aspects du traitement des images hyperspectrales : l'estimation du nombre d'endmembers ou de l'ordre du modèle et le problème du démélange spectral. En ce qui concerne l'estimation du nombre d'endmembers, trois nouveaux algorithmes adaptés au modèle choisi sont proposés, le dernier présentant de meilleures performances que les deux autres, en raison de sa plus grande robustesse.Une application au domaine de la finance est également proposée. Pour le démélange spectral, trois méthodes sont proposées, qui tiennent comptent des diff érentes particularités possibles des images hyperspectrales. Cette thèse a permis de montrer que la théorie des matrices aléatoires présente un grand intérêt pour le traitement des images hyperspectrales. Les méthodes développées peuvent également s'appliquer à d'autres domaines nécessitant le traitement de données de grandes dimensions. / Hyperspectral imaging generates large data due to the spectral and spatial high resolution, as it is the case for more and more other kinds of applications. For hyperspectral imaging, the data complexity comes from the spectral and spatial heterogeneity, the non-gaussianity of the noise and other physical processes. Nevertheless, this complexity enhances the wealth of collected informations, that need to be processed with adapted methods. Random matrix theory and robust processes are here suggested for hyperspectral imaging application: the random matrix theory is adapted to large data and the robustness enables to better take into account the non-gaussianity of the data. This thesis aims to enhance the model order selection on a hyperspectral image and the unmixing problem. As the model order selection is concerned, three new algorithms are developped, and the last one, more robust, gives better performances. One financial application is also presented. As for the unmixing problem, three methods that take into account the peculierities of hyperspectral imaging are suggested. The random matrix theory is of great interest for hyperspectral image processing, as demonstrated in this thesis. Differents methods developped here can be applied to other field of signal processing requiring the processing of large data.
18

La distribution des zéros des fonctions L

Comeau-Lapointe, Antoine 08 1900 (has links)
No description available.
19

Statistique de l'interférence quantique et circuits quantiques aléatoires

Arnaud, Ludovic 17 December 2009 (has links) (PDF)
Cette thèse présente différents résultats sur deux thèmes relatifs à l'information quantique. Le premier de ces thèmes concerne l'interférence présente dans les algorithmes quantiques, en se basant sur une mesure récemment introduite dans la littérature. Pour ce faire, deux types de modèles statistiques d'algorithmes quantiques ont été utilisés : l'un issu de la théorie des matrices aléatoires (l'ensemble circulaire unitaire CUE), le second étant un ensemble de circuits quantiques construits comme des séquences aléatoires de portes quantiques. Les résultats analytiques et numériques obtenus dans cette thèse montrent qu'en moyenne tout algorithme quantique contient une grande quantité d'interférence. L'influence de la décohérence engendrée par un bain thermique sur le comportement statistique de l'interférence a aussi était étudiée, entre autre grâce à l'utilisation de méthodes mathématiques d'intégrations sur le groupe unitaire U(N). Le deuxième thème étudié concerne la possibilité d'utiliser des algorithmes quantiques pour créer efficacement des ensembles de matrices aléatoires distribuer selon CUE. Pendant les travaux sur l'interférence, une équivalence entre CUE et le modèle de circuits quantiques aléatoires fût observée. Les résultats numériques de cette thèse montrent que certaines quantités statistiques propres à CUE sont bien reproduites par le modèle de séquences aléatoires, ceci de manière efficace, dans le sens où les séquences sont constituées d'un nombre de portes qui augmente comme le logarithme de la taille des matrices produites. Ces résultats sont en parfait accord avec des travaux analytiques récemment publiés.
20

Forte et fausse libertés asymptotiques de grandes matrices aléatoires / Strong and false asymptotic freeness of large random matrices

Male, Camille 05 December 2011 (has links)
Cette thèse s'inscrit dans la théorie des matrices aléatoires, à l'intersection avec la théorie des probabilités libres et des algèbres d'opérateurs. Elle s'insère dans une démarche générale qui a fait ses preuves ces dernières décennies : importer les techniques et les concepts de la théorie des probabilités non commutatives pour l'étude du spectre de grandes matrices aléatoires. On s'intéresse ici à des généralisations du théorème de liberté asymptotique de Voiculescu. Dans les Chapitres 1 et 2, nous montrons des résultats de liberté asymptotique forte pour des matrices gaussiennes, unitaires aléatoires et déterministes. Dans les Chapitres 3 et 4, nous introduisons la notion de fausse liberté asymptotique pour des matrices déterministes et certaines matrices hermitiennes à entrées sous diagonales indépendantes, interpolant les modèles de matrices de Wigner et de Lévy. / The thesis fits into the random matrix theory, in intersection with free probability and operator algebra. It is part of a general approach which is common since the last decades: using tools and concepts of non commutative probability in order to get general results about the spectrum of large random matrices. Where are interested here in generalization of Voiculescu's asymptotic freeness theorem. In Chapter 1 and 2, we show some results of strong asymptotic freeness for gaussian, random unitary and deterministic matrices. In Chapter 3 and 4, we introduce the notion of asymptotic false freeness for deterministic matrices and certain random matrices, Hermitian with independent sub-diagonal entries, interpolating Wigner and Lévy models.

Page generated in 0.2563 seconds