• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Preconditioned solenoidal basis method for incompressible fluid flows

Wang, Xue 12 April 2006 (has links)
This thesis presents a preconditioned solenoidal basis method to solve the algebraic system arising from the linearization and discretization of primitive variable formulations of Navier-Stokes equations for incompressible fluid flows. The system is restricted to a discrete divergence-free space which is constructed from the incompressibility constraint. This research work extends an earlier work on the solenoidal basis method for two-dimensional flows and three-dimensional flows that involved the construction of the solenoidal basis P using circulating flows or vortices on a uniform mesh. A localized algebraic scheme for constructing P is detailed using mixed finite elements on an unstructured mesh. A preconditioner which is motivated by the analysis of the reduced system is also presented. Benchmark simulations are conducted to analyze the performance of the proposed approach.
2

Linear Precoding for Downlink Network MIMO Systems

Sadeghzadeh Nokhodberiz, Seyedmehdi 22 May 2013 (has links)
No description available.
3

Convergence Properties for Different Null Space Bases When Solving the Initial Margin Optimization Problem Using CMA-ES / Konvergens för olika nollrumsrepresentationer vid optimering av inital margin med CMA-ES

Barnholdt, Jacob, Carlsson, Filip January 2020 (has links)
This thesis evaluates how the evolutionary algorithm CMA-ES (Covariance Matrix Adaption Evolution Strategy) can be used for optimizing the total initial margin for a network of banks trading bilateral OTC derivatives. The algorithm is a stochastic method for optimization of non-linear and, but not limited to, non-convex functions. The algorithm searches for an optimum by generating normally distributed samples and iteratively updating the mean and covariance matrix of the search distribution using the best candidate solutions in the sampled population. In this thesis, feasible solutions are represented by the null space obtained from the constraint of keeping all banks' market exposure unchanged throughout the optimization, and the generated samples for each iteration correspond to linear combinations of the base vectors spanning this null space. In particular, this thesis investigates how different representations of this null space affect the convergence speed of the algorithm. By applying the algorithm to problems of varying sizes, using several different null space representations coming from different matrix decomposition methods, it is found that as long as an orthonormal representation is used it does not matter which matrix decomposition method it comes from. This is found to be because, given any orthonormal null space representation, the algorithm will at start generate a rotationally invariant sample space in its search for the optimal solution, independent of the specific null space representation. If the representation is not orthogonal, the initial sample will in contrast be in the shape of an ellipsoid and thus biased in certain directions, which in general affects the performance negatively. A non-orthonormal representation can converge faster in specific optimization problems, if the direction of the solution is known in advance and the sample space is pointed towards that direction. However, the benefit of this aspect is limited in a realistic scenario and an orthonormal representation is recommended. Furthermore, as it is shown that different orthonormal representations perform equally, it is implied that other characteristics can be considered when deciding which matrix decomposition method to use; such as the importance of fast computation or desire for a sparse representation. / Denna avhandling utvärderar hur CMA-ES (Covariance Matrix Adaption Evolution Strategy) kan användas för att optimera en total "initial margin" för ett nätverk av banker som handlar bilaterala OTC derivat. Algoritmen är en stokastisk metod för optimering av icke-linjära och, men inte enbart, icke-konvexa funktioner. Algoritmen söker efter ett optimum genom att generera normalfördelade utfall och iterativt uppdatera medelvärdet och kovariansmatrisen för sök-fördelningen med hjälp av de bästa lösningarna i varje iteration. I detta arbete representeras tillåtna lösningar till problemet av nollrummet från bivillkoret att alla bankers marknadsexponering ska vara oförändrade genom optimeringen och de genererade utfallen består av slumpade linjärkombinationer av nollrummets basvektorer. I synnerhet undersöks hur olika representationer av nollrummet påverkar konvergenshastigheten för algoritmen. Algoritmen har applicerats med flera olika nollrumsrepresentationer, framtagna genom olika matrisfaktoriseringsmetoder, och det kan konstateras att så länge nollrummsrepresentationen är ortonormal är valet av faktoreringsmetod obetydlig. Detta då användande av orthornormala nollrumsrpresentationer i algoritmen leder till en initialt symmetrisk, rotationsmässigt invariant, sökning efter den optimala lösningen. Om representationen inte är ortogonal kommer det resulterande sökområdet i varje iteration att ha formen av en ellipsoid och sålunda viktas i vissa riktningar, vilket i allmänhet påverkar prestandan negativt. Emellertid kan en icke-ortonormal representation konvergera snabbare i specifika scenarier, givet att lösningens riktning är känd i förväg och sökområdet kan pekas mot den riktningen. Vidare, eftersom det har visats att olika ortonormala representationer konvergerar lika fort, innebär resultatet att andra egenskaper kan beaktas vid val av matrisfaktoriseringsmetod, såsom vikten av snabb beräkning eller önskan om en gles representation.
4

Orthogonal Precoder for Dynamic Spectrum Access in Wireless Networks / Précodeur orthogonal pour l'accès dynamique au spectre dans les réseaux sans fils

Sampaio Cardoso, Leonardo 18 November 2011 (has links)
Le déferlement mondial des services de télécommunications, impose, aux réseaux qui les supportent, d’augmenter de plus en plus leurs capacités afin de subvenir aux besoins de ses utilisateurs dont le nombre ne cesse de croître. Le spectre radio, ressource de base pour les communications sans fils, ne suit malheureusement pas cette croissance. Même si des marges réutilisables sont disponibles, leur accès est limité par des politiques strictes de gestion du spectre radio-fréquentiel. Pour remédier à cette situation, les organismes régulateurs des télécommunications se dirigent vers un paradigme de gestion plus flexible, en autorisant de nouvelles méthodes basées sur l’accès dynamique au spectre (DSA - dynamic spectrum access) et les radio cognitives (CR - cognitive radio). Dans ce travail doctoral, est proposée une nouvelle technique pour traiter la problématique de la disponibilité du spectre radio-fréquentiel. Appelée multiplexage fréquentiel par sous-espace de Vandermonde (VFDM -Vandermonde-subspace frequency division multiplexing), elle permet à deux technologies d’accès radio (RATs - radio access technologies) de fonctionner côte-a-côte dans un environnement de petites cellules CR. Ceci se fait en partageant la bande radio tout en protégeant des interférences les systèmes pour lesquels le spectre radio avait été originellement réservé. VFDM transmet les données pré-codées dans le noyau du canal interférant entre l’émetteur opportuniste et le récepteur originel en utilisant la sélectivité en fréquence des canaux et duplexage temporel (TDD - time division duplexing). Le travail de cette thèse propose une approche exhaustive du développement de la technologie VFDM, en allant des bases théoriques jusqu’à la démonstration de faisabilité. Ainsi, les bases théoriques proposées ont été en premier lieu analysées. Puis, en partant de ces bases théoriques, VFDM a été graduellement développé vers une chaîne émetteur-récepteur complète. Des résultats significatifs sont apparus à mi-chemin dans la phase de développement, comme par exemple, l’établissement de stratégies de précodage optimales ou la mise en évidence d‘aspects critiques lors de l’implémentation. Sous certaines conditions, VFDM permet aux réseaux secondaires opportunistes d’être utilisés en même temps que le réseau originel, aux seules contraintes de la connaissance des canaux et de l’accroissement de la complexité du système. Au travers des résultats obtenus en simulation, il a été démontré que des taux de transfert de données significatifs peuvent être atteints, et ce, malgré que les capacités de VFDM soient toujours limitées par la taille du sous-espace de Vandermonde du canal interfèrent primaire-secondaire. Finalement, la chaîne émetteur-récepteur développée démontre la faisabilité de cette méthode. / The global deployment of PCS is pushing for more and more network capacity to accommodate an exponentially growing user base. Radio spectrum, the basic resource in radio communications, unfortunately does not follow this growth. Even though the current spectrum usage leaves margins for re-use, it is limited by the current fixed spectrum management policies. To remediate this issue, spectrum regulators are switching to a flexible management paradigm, leveraging new DSA schemes based on CR. In this PhD work, a novel CR-DSA technology is introduced to address spectrum scarcity problem. Called VFDM, it allows two RAT to operate side-by-side in a small-cell CR setting, sharing the band while protecting the legacy system from interference. VFDM transmits data pre-coded on the null-space of the interfering cross channel (channel from the opportunistic transmitter to the legacy receiver), assuming frequency selectivity and TDD communications. This PhD work proposes a rather exhaustive approach to the development of VFDM: to go from the theoretical basis up to a proof-of-concept development. Initially the theoretical background, basis of the technique itself was introduced and analyzed. Then, VFDM was gradually developed from a pure mathematical concept up to a full transceiver. During this development, several important mid-way results were developed, such as the multi-user strategy for pre-coding and critical implementation aspects. VFDM, under certain constraints, has been shown to allow a secondary opportunistic network to successfully be installed along with a legacy primary one at merely the cost of channel knowledge and added complexity. By means of numerical examples, it has been shown that significative rates can be attained, even though VFDM's performance is constrained by the size of the Vandermonde-subspace of the interfering channel between the secondary transmitter and primary receiver. Finally, a working VFDM transceiver implementation is shown, providing a proof-of-concept of the technique.
5

Block-sparse models in multi-modality : application to the inverse model in EEG/MEG / Des modèles bloc-parcimonieux en multi-modalité : application au problème inverse en EEG/MEG

Afdideh, Fardin 12 October 2018 (has links)
De nombreux phénomènes naturels sont trop complexes pour être pleinement reconnus par un seul instrument de mesure ou par une seule modalité. Par conséquent, le domaine de recherche de la multi-modalité a émergé pour mieux identifier les caractéristiques riches du phénomène naturel de la multi-propriété naturelle, en analysant conjointement les données collectées à partir d’uniques modalités, qui sont en quelque sorte complémentaires. Dans notre étude, le phénomène d’intérêt multi-propriétés est l’activité du cerveau humain et nous nous intéressons à mieux la localiser au moyen de ses propriétés électromagnétiques, mesurables de manière non invasive. En neurophysiologie, l’électroencéphalographie (EEG) et la magnétoencéphalographie (MEG) constituent un moyen courant de mesurer les propriétés électriques et magnétiques de l’activité cérébrale. Notre application dans le monde réel, à savoir le problème de reconstruction de source EEG / MEG, est un problème fondamental en neurosciences, allant des sciences cognitives à la neuropathologie en passant par la planification chirurgicale. Considérant que le problème de reconstruction de source EEG /MEG peut être reformulé en un système d’équations linéaires sous-déterminé, la solution (l’activité estimée de la source cérébrale) doit être suffisamment parcimonieuse pour pouvoir être récupérée de manière unique. La quantité de parcimonie est déterminée par les conditions dites de récupération. Cependant, dans les problèmes de grande dimension, les conditions de récupération conventionnelles sont extrêmement strictes. En regroupant les colonnes cohérentes d’un dictionnaire, on pourrait obtenir une structure plus incohérente. Cette stratégie a été proposée en tant que cadre d’identification de structure de bloc, ce qui aboutit à la segmentation automatique de l’espace source du cerveau, sans utiliser aucune information sur l’activité des sources du cerveau et les signaux EEG / MEG. En dépit du dictionnaire structuré en blocs moins cohérent qui en a résulté, la condition de récupération conventionnelle n’est plus en mesure de calculer la caractérisation de la cohérence. Afin de relever le défi mentionné, le cadre général des conditions de récupération exactes par bloc-parcimonie, comprenant trois conditions théoriques et une condition dépendante de l’algorithme, a été proposé. Enfin, nous avons étudié la multi-modalité EEG et MEG et montré qu’en combinant les deux modalités, des régions cérébrales plus raffinées sont apparues / Three main challenges have been addressed in this thesis, in three chapters.First challenge is about the ineffectiveness of some classic methods in high-dimensional problems. This challenge is partially addressed through the idea of clustering the coherent parts of a dictionary based on the proposed characterisation, in order to create more incoherent atomic entities in the dictionary, which is proposed as a block structure identification framework. The more incoherent atomic entities, the more improvement in the exact recovery conditions. In addition, we applied the mentioned clustering idea to real-world EEG/MEG leadfields to segment the brain source space, without using any information about the brain sources activity and EEG/MEG signals. Second challenge raises when classic recovery conditions cannot be established for the new concept of constraint, i.e., block-sparsity. Therefore, as the second research orientation, we developed a general framework for block-sparse exact recovery conditions, i.e., four theoretical and one algorithmic-dependent conditions, which ensure the uniqueness of the block-sparse solution of corresponding weighted mixed-norm optimisation problem in an underdetermined system of linear equations. The mentioned generality of the framework is in terms of the properties of the underdetermined system of linear equations, extracted dictionary characterisations, optimisation problems, and ultimately the recovery conditions. Finally, the combination of different information of a same phenomenon is the subject of the third challenge, which is addressed in the last part of dissertation with application to brain source space segmentation. More precisely, we showed that by combining the EEG and MEG leadfields and gaining the electromagnetic properties of the head, more refined brain regions appeared.

Page generated in 0.0527 seconds