• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 475
  • 88
  • 87
  • 56
  • 43
  • 21
  • 14
  • 14
  • 11
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 989
  • 321
  • 204
  • 184
  • 169
  • 165
  • 154
  • 138
  • 124
  • 104
  • 97
  • 95
  • 93
  • 88
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

[pt] DETALHAMENTO DE SUPERFÍCIES UTILIZANDO TESSELAÇÃO EM HARDWARE / [en] SURFACE DETAILING USING HARDWARE TESSELLATION

08 November 2021 (has links)
[pt] Técnicas de mapeamento de rugosidade são amplamente utilizadas para simular detalhes estruturais de superfícies tridimensionais com o intuito de aumentar a qualidade visual e compensar o baixo detalhamento geométrico usualmente aplicado aos modelos enviados à GPU por questões de desempenho. Avanços recentes no pipeline de renderização permitiram a geração massiva de vértices no hardware gráfico através do recurso de tesselação, oferecendo aos desenvolvedores uma poderosa ferramenta para controle do nível de detalhes de objetos. Este trabalho apresenta uma técnica para o detalhamento geométrico de modelos utilizando tesselação em hardware, baseada tanto em mapas précomputados quanto em dados de deslocamento gerados inteiramente na GPU por meio de técnicas de texturas procedimentais. Análises de desempenho e qualidade visual demonstram as vantagens do método proposto em relação a uma técnica de detalhamento baseada em imagens que é utilizada frequentemente em jogos eletrônicos para enriquecimento da qualidade visual de seus ambientes. / [en] Bump mapping techniques are widely used to simulate structural details of tridimensional surfaces in order to improve visual quality and compensate for the low geometric detailing generally applied to models sent to the GPU due to performance issues. Recent advances in the rendering pipeline enabled the massive generation of vertex data in the graphics hardware by means of the tessellation feature, providing developers with a powerful tool to control the meshes’ level of details. The present work proposes a technique for geometric detailing of models using hardware tessellation, both based on pre-computed depth maps and on displacement data generated entirely on the GPU through procedural textures techniques. Performance and visual quality analysis demonstrates the advantages of the proposed method in relation to an image-based technique commonly used in videogames for enhancing the visual quality of the environments.
322

Vyhodnocování elektrochemických signálů neuronovou sítí / Recognition of electrochemical signals using artificial neuronal network

Šílený, Jan January 2011 (has links)
Automatical electrochemical measurements are sources of large data sets intended for further analysis. This work deals with classification, evaluation and processing of electrochemical signals using artificial neural networks. Due to high dimensionality of input data, an autoassociative neural network (AANN) is used in this work. This type of network performs dimensionality reduction via filtering the input data into relatively small number of principal parameters at the bottleneck output. These extracted parameters can be used for classification, evaluation and additional modelling of analyzed data trough the reconstructive part of this network. Furthermore, this work deals with implementation of a feedforward neural network in OpenCL language.
323

A la recherche de la haute performance pour les codes de calcul et la visualisation scientifique / Searching for the highest performance for simulation codes and scientific visualization

Colin de Verdière, Guillaume 16 October 2019 (has links)
Cette thèse vise à démontrer que l'algorithmique et la programmation, dans un contexte de calcul haute performance (HPC), ne peuvent être envisagées sans tenir compte de l'architecture matérielle des supercalculateurs car cette dernière est régulièrement remise en cause.Après avoir rappelé quelques définitions relatives aux codes et au parallélisme, nous montrons que l'analyse des différentes générations de supercalculateurs, présents au CEA lors de ces 30 dernières années, permet de dégager des points de vigilances et des recommandations de bonnes pratiques en direction des développeurs de code.En se reposant sur plusieurs expériences, nous montrons comment viser une performance adaptée aux supercalculateurs et comment essayer d'atteindre la performance portable voire la performance extrême dans le monde du massivement parallèle, incluant ou non l'usage de GPU.Nous expliquons que les logiciels et matériels dédiés au dépouillement graphique des résultats de calcul suivent les mêmes principes de parallélisme que pour les grands codes scientifiques, impliquant de devoir maîtriser une vue globale de la chaîne de simulation. Enfin, nous montrons quelles sont les tendances et contraintes qui vont s'imposer à la conception des futurs supercalculateurs de classe exaflopique, impactant de fait le développement des prochaines générations de codes de calcul. / This thesis aims to demonstrate that algorithms and coding, in a high performance computing (HPC) context, cannot be envisioned without taking into account the hardware at the core of supercomputers since those machines evolve dramatically over time. After setting a few definitions relating to scientific codes and parallelism, we show that the analysis of the different generations of supercomputer used at CEA over the past 30 years allows to exhibit a number of attention points and best practices toward code developers.Based on some experiments, we show how to aim at code performance suited to the usage of supercomputers, how to try to get portable performance and possibly extreme performance in the world of massive parallelism, potentially using GPUs.We explain that graphical post-processing software and hardware follow the same parallelism principles as large scientific codes, requiring to master a global view of the simulation chain.Last, we describe tendencies and constraints that will be forced on the new generations of exaflopic class supercomputers. These evolutions will, yet again, impact the development of the next generations of scientific codes.
324

Adéquation algorithme-architecture de réseaux de neurones à spikes pour les architectures matérielles massivement parallèles / Algorithm-architecture adequacy of spiking neural networks for massively parallel processing hardware

Ferré, Paul 11 July 2018 (has links)
Cette dernière décennie a donné lieu à la réémergence des méthodes d'apprentissage machine basées sur les réseaux de neurones formels sous le nom d'apprentissage profond. Bien que ces méthodes aient permis des avancées majeures dans le domaine de l'apprentissage machine, plusieurs obstacles à la possibilité d'industrialiser ces méthodes persistent, notamment la nécessité de collecter et d'étiqueter une très grande quantité de données ainsi que la puissance de calcul nécessaire pour effectuer l'apprentissage et l'inférence avec ce type de réseau neuronal. Dans cette thèse, nous proposons d'étudier l'adéquation entre des algorithmes d'inférence et d'apprentissage issus des réseaux de neurones biologiques pour des architectures matérielles massivement parallèles. Nous montrons avec trois contributions que de telles adéquations permettent d'accélérer drastiquement les temps de calculs inhérents au réseaux de neurones. Dans notre premier axe, nous réalisons l'étude d'adéquation du moteur BCVision de Brainchip SAS pour les plate-formes GPU. Nous proposons également l'introduction d'une architecture hiérarchique basée sur des cellules complexes. Nous montrons que l'adéquation pour GPU accélère les traitements par un facteur sept, tandis que l'architecture hiérarchique atteint un facteur mille. La deuxième contribution présente trois algorithmes de propagation de décharges neuronales adaptés aux architectures parallèles. Nous réalisons une étude complète des modèles computationels de ces algorithmes, permettant de sélectionner ou de concevoir un système matériel adapté aux paramètres du réseau souhaité. Dans notre troisième axe nous présentons une méthode pour appliquer la règle Spike-Timing-Dependent-Plasticity à des données images afin d'apprendre de manière non-supervisée des représentations visuelles. Nous montrons que notre approche permet l'apprentissage d'une hiérarchie de représentations pertinente pour des problématiques de classification d'images, tout en nécessitant dix fois moins de données que les autres approches de la littérature. / The last decade has seen the re-emergence of machine learning methods based on formal neural networks under the name of deep learning. Although these methods have enabled a major breakthrough in machine learning, several obstacles to the possibility of industrializing these methods persist, notably the need to collect and label a very large amount of data as well as the computing power necessary to perform learning and inference with this type of neural network. In this thesis, we propose to study the adequacy between inference and learning algorithms derived from biological neural networks and massively parallel hardware architectures. We show with three contribution that such adequacy drastically accelerates computation times inherent to neural networks. In our first axis, we study the adequacy of the BCVision software engine developed by Brainchip SAS for GPU platforms. We also propose the introduction of a coarse-to-fine architecture based on complex cells. We show that GPU portage accelerates processing by a factor of seven, while the coarse-to-fine architecture reaches a factor of one thousand. The second contribution presents three algorithms for spike propagation adapted to parallel architectures. We study exhaustively the computational models of these algorithms, allowing the selection or design of the hardware system adapted to the parameters of the desired network. In our third axis we present a method to apply the Spike-Timing-Dependent-Plasticity rule to image data in order to learn visual representations in an unsupervised manner. We show that our approach allows the effective learning a hierarchy of representations relevant to image classification issues, while requiring ten times less data than other approaches in the literature.
325

Paralelizace evolučních algoritmů pomocí GPU / GPU Parallelization of Evolutionary Algorithms

Valkovič, Patrik January 2021 (has links)
Graphical Processing Units stand for the success of Artificial Neural Networks over the past decade and their broader application in the industry. Another promising field of Artificial Intelligence is Evolutionary Algorithms. Their parallelization ability is well known and has been successfully applied in practice. However, these attempts focused on multi-core and multi-machine parallelization rather than on the GPU. This work explores the possibilities of Evolutionary Algorithms parallelization on GPU. I propose implementation in PyTorch library, allowing to execute EA on both CPU and GPU. The proposed implementation provides the most common evolutionary operators for Genetic Algorithms, Real-Coded Evolutionary Algorithms, and Particle Swarm Op- timization Algorithms. Finally, I show the performance is an order of magnitude faster on GPU for medium and big-sized problems and populations. 1
326

Solutions parallèles pour les grands problèmes de valeurs propres issus de l'analyse de graphe / Parallel solutions for large-scale eigenvalue problems arising in graph analytics

Fender, Alexandre 13 December 2017 (has links)
Les graphes, ou réseaux, sont des structures mathématiques représentant des relations entre des éléments. Ces systèmes peuvent être analysés dans le but d’extraire des informations sur la structure globale ou sur des composants individuels. L'analyse de graphe conduit souvent à des problèmes hautement complexes à résoudre. À grande échelle, le coût de calcul de la solution exacte est prohibitif. Heureusement, il est possible d’utiliser des méthodes d’approximations itératives pour parvenir à des estimations précises. Lesméthodes historiques adaptées à un petit nombre de variables ne conviennent pas aux matrices creuses de grande taille provenant des graphes. Par conséquent, la conception de solveurs fiables, évolutifs, et efficaces demeure un problème essentiel. L’émergence d'architectures parallèles telles que le GPU ouvre également de nouvelles perspectives avec des progrès concernant à la fois la puissance de calcul et l'efficacité énergétique. Nos travaux ciblent la résolution de problèmes de valeurs propres de grande taille provenant des méthodes d’analyse de graphe dans le but d'utiliser efficacement les architectures parallèles. Nous présentons le domaine de l'analyse spectrale de grands réseaux puis proposons de nouveaux algorithmes et implémentations parallèles. Les résultats expérimentaux indiquent des améliorations conséquentes dans des applications réelles comme la détection de communautés et les indicateurs de popularité / Graphs, or networks, are mathematical structures to represent relations between elements. These systems can be analyzed to extract information upon the comprehensive structure or the nature of individual components. The analysis of networks often results in problems of high complexity. At large scale, the exact solution is prohibitively expensive to compute. Fortunately, this is an area where iterative approximation methods can be employed to find accurate estimations. Historical methods suitable for a small number of variables could not scale to large and sparse matrices arising in graph applications. Therefore, the design of scalable and efficient solvers remains an essential problem. Simultaneously, the emergence of parallel architecture such as GPU revealed remarkable ameliorations regarding performances and power efficiency. In this dissertation, we focus on solving large eigenvalue problems a rising in network analytics with the goal of efficiently utilizing parallel architectures. We revisit the spectral graph analysis theory and propose novel parallel algorithms and implementations. Experimental results indicate improvements on real and large applications in the context of ranking and clustering problems
327

A Comparison of Smartphone GPSL1 and Galileo E1-B/C Spoofing Resilience

Leksell, Torbjörn January 2021 (has links)
Location-based services have grown in importance as smartphones, and location-based applications have become an integral part of everyday life. While Global Navigation Satellite Systems (GNSSs) provide the most accurate position determination, open service GNSS signals remain unprotected and susceptible to spoofing attacks. Previous work within the domain highlighted this issue, with many smartphone receivers shown susceptible to GPS L1 spoofing, suggesting that their resilience experiments should be extended to include other GNSS signals in the future. Given that multi-GNSS receivers now have become the norm in smartphones, this thesis investigates whether smartphone GNSS receiver spoofing resilience depends on the type of signal; by conducting a series of comparative spoofing experiments involving GPS L1 and Galileo E1-B/C signals. To conduct the experiments, we developed a Galileo E1-B/C signal simulator that, together with the open-source GPS-SDR-SIM signal simulator, was the basis for conducting a series of experiments designed to identify the potential presence of anti-spoofing measures. The result of our experiments indicates that smartphone multi-GNSS receivers were significantly more resilient towards Galileo E1-B/C spoofing attacks, often accepting GPS L1 signals with significant position, time, and data errors, while refusing to accept corresponding Galileo E1-B/C signals. While we never observed cases of E1-B/C signals being accepted while rejecting GPS L1 signals, external factors limited the scope of the investigation and do not allow a generalized conclusion. As such, to deepen our understanding of these issues and how they relate to the development of anti-spoofing measures and trust in different signals, it is essential to extend this research to include more devices and other GNSS signals. / Positionstjänster har växt i betydelse allteftersom smarttelefoner och positionsapplikationer har blivit en integral del av våran vardag. Även om satellitpositionering utger det mest precisa och vedertagna positionsbestämningen av tillgängliga positionstjänser så är de publika satellitnavigeringssignalarna oskyddade och sårbara för förfalskningsattacker. Tidigare forskning inom området har evaluerat dessa sårbarheter och visat att ett betydande antal smarttelefoner var sårbara för GPS-L1 förfalskningsattacker och att denna forskning borde utökas i framtiden allteftersom satellitnavigeringsmottagare med förmåga att mottaga olika satellitsignaler integreras i smarttelefoner. Givet att en majoritet av nya smarttelefoner nu integrerar denna typ av mottagare så utvärderar detta arbete hur sårbarheten mot förfalskningsattacker beror på typ av satellitsignal genom en komparativ jämförelse av sårbarhet mellan GPS-L1 och den nyare Galileo E1-B/C signalen. För att genomföra utvärderingen så utvecklade vi en Galileo E1-B/C signalsimulator som tillsammans med GPS-L1 signalsimulatorn (GPS-SDR-SIM) utgjorde grunden för en serie av experiment designade för att identifiera och utvärdera sårbarheter och potentiella motåtgärder i smarttelefoner. Våra resultat indikerar att smarttelefoner är betydligt mer sårbara for GPS-L1 forfalskningsattacker då de accepterade GPS-L1 signaler med betydande position, tid, och datafel medans motsvarande Galileo E1-B/C signaler ej accepterades. Trots resultaten så är det viktigt att inte dra för starka slutsatser då underlaget var kraftigt begränsat givet rådande omständigheter (Covid), som gjorde det svårt/omöjligt att på ett säkert sätt samla volontärer med olika smarttelefoner för våra experiment. Därav så är det viktigt att i framtiden utöka arbetet med ett större underlag och fler signaltyper.
328

GPU Parallelization of Astronomical Image Subtraction / GPU-parallelisering av astronomisk bildsubtraction

Arneving, Gustav, Wilhelmsson, Hugo January 2024 (has links)
Astronomical image subtraction is a method for generating a difference image from two images, which covers the same area but taken at different times, in order to see changes over time. Due to the images being taken at different times, one of the images has to be convolved, to match the atmospheric conditions ofthe other image. HOTPANTS is an open source software used for astronomical image subtraction. The problem is that HOTPANTS is written in serial C and therefore does not scale well with growing image sizes. There have been previous efforts to parallelize HOTPANTS, which include P-HOTPANTS and GBAISP. However, these projects are outdated or unavailable, respectively. The latest effort, BACH, is a reimplementation of HOTPANTS in C++, where the convolution and subtraction parts have been parallelized on a GPU using OpenCL. This thesis project is a continuation of BACH, called X-BACH, which aims to parallelize the remaining parts of the HOTPANTS algorithm using OpenCL. The results show that some parts of the HOTPANTS algorithm, excluding convolution and subtraction, are highly suitable for the GPU while other parts arenot suitable for the GPU. It is believed that some parts which are not suitable forthe GPU are highly suitable for CPU parallelization. Overall, running on an external GPU, X-BACH achieves a relative speed of 1 to 2 compared to BACH, and a relative of 0.8 to 2.5 compared to HOTPANTS. When running on an integrated GPU, X-BACH achieves a relative speed of 0.5 to 1.2 compared to BACH, and a relative speed of 0.3 to 2 compared to HOTPANTS. Some parts of the algorithm achieves a speedup of up to 10 times when parallelized on a GPU. In terms of accuracy, X-BACH generally obtains a maximum relative error in order of magnitude ranging from 10−7 to 10−1. However, on certain test images, the algorithm has been observed to be unstable.
329

Arquitecturas para la computación de altas prestaciones en la nube. Aplicación a procesos de geometría computacional

Sánchez-Ribes, Víctor 03 March 2024 (has links)
La computación en nube es una de las tecnologías que están dando forma al mundo actual. En este sentido, las empresas deben hacer uso de esta tecnología para seguir siendo competitivas en un mercado globalizado. Los sectores tradicionales de la industria manufacturera (calzado, muebles, juguetes, entre otros) se caracterizan principalmente por tener un diseño intensivo y un trabajo de fabricación en la producción de nuevos productos de temporada. Este trabajo se realiza a través de software de modelado y fabricación 3D. Este software se conoce habitualmente como “CAD/CAM”. Se basa principalmente en la aplicación de primitivas de modelado y cálculo geométrico. La externalización de procesamiento es el método utilizado para externalizar la carga de procesamiento a la nube. Esta técnica aporta muchas ventajas a los procesos de diseño y fabricación: reducción del coste inicial para pequeñas y medianas empresas que necesitan una gran capacidad de cálculo, infraestructura muy flexible para proporcionar potencia de cálculo ajustable, prestación de servicios informáticos “CAD/CAM” a diseñadores de todo el mundo, etc.. Sin embargo, la externalización del cálculo geométrico a la nube implica varios retos que deben superarse para que la propuesta sea viable. El objetivo de este trabajo es explorar nuevas formas de aprovechar los dispositivos especializados y mejorar las capacidades de las “GPUs” mediante la revisión y comparación de las técnicas de programación paralela disponibles, y proponer la configuración óptima de la arquitectura “Cloud” y el desarrollo de aplicaciones para mejorar el grado de paralelización de los dispositivos de procesamiento especializados, sirviendo de base para su mayor explotación en la nube para pequeñas y medianas empresas. Finalmente, este trabajo muestra los experimentos utilizados para validar la propuesta tanto a nivel de arquitectura de comunicación como de la programación en las "GPU" y aporta unas conclusiones derivadas de esta experimentación.
330

GPU component-based neighborhood search for Euclidean graph minimization problems / Méthodes GPU de recherche par voisinage pour les problèmes de minimisation de graphes Euclidiens

Qiao, Wenbao 22 September 2018 (has links)
Dans cette thèse, nous proposons des solutions parrallèles basées sur le systèmes actuel GPU (graphics processing unit) pour deux problèmes de minimisation de graphe Euclidien, à savoir le problème de forêt/arbre couvrant minimum Euclidien (EMSF / EMST) et le problème du voyageur commerce (TSP). Les solutions proposées résolvent également aussi le problème d'une paire bichromatique la plus proche (BCP), et suivent la technique de ``contrôle décentralisé, du parallélisme des données et des mémoires partagées par GPU".Nous proposons une technique de recherche dans le voisinage le plus proche de dimension K Euclidienne basée sur les approches classiques de NNS d’Elias qui divisent l’espace Euclidien en cellules congruentes et ne se chevauchant pas, où la taille des points de chaque cellule est délimitée. Nous proposons aussi une technique d'élagage pour obtenir le NNS à base de composants afin de trouver le point de sortie le plus proche de l'ensemble de points de requête de Q dans la complexité temporelle linéaire séquentielle lorsque les données sont uniformément réparties. Ces techniques sont utilisées conjointement avec deux GPU algorithmes proposés pour arbre traversement, à savoir la recherche en largeur bidirectionnelle GPU et la liste chaînée dynamique distribuée, afin d'adresser le BCP. Basé sur la solution BCP, un algorithme parallèle Divide and Conquer est implémenté pour construire EMSF et EMST totalement côté GPU. Le TSP est adressé avec différents algorithmes de recherche locaux parallèles 2-opt, dans lesquels nous proposons une méthodologie ``évaluation multiple K-opt, mouvements multiples K-opt" afin d’exécuter simultanément, sans interférence, des processus massifs 2-/3-opt mouvements qui se retrouvent globalement sur le même circuit TSP pour de nombreux bords. Cette méthodologie est expliquée en détail pour montrer comment nous obtenons un calcul haute performance à la fois du côté du GPU et CPU. Nous testons les solutions proposées et rapportons des résultats de comparaison expérimentale par rapport aux algorithmes de pointe. / In this thesis, we propose parallel solutions based on current graphics processing unit (GPU) system for two Euclidean graph minimization problems, namely the Euclidean minimum spanning forest/tree (EMSF/EMST) and the travelling salesman problem (TSP). The proposed solutions also solve the bichromatic closest pair (BCP) problem, and follow technique of ``decentralized control, data parallelism, GPU shared memories".We propose a Euclidean K-dimensional nearest neighbourhood search (NNS) technique based on classical Elias' NNS approaches that divide the Euclidean space into congruent and non-overlapping cells where size of points in each cell is bounded. We propose a pruning technique to obtain component-based NNS to find a query point set Q's closest outgoing point within sequential linear time complexity when the data is uniformly distributed. These techniques are used together with two proposed GPU tree traversal algorithms, namely the GPU two-direction Breadth-first search and distributed dynamic linked list, to address the BCP. Based on the BCP solution, a divide and conquer parallel algorithm is implemented for building EMSF and EMST totally on GPU side. The TSP is addressed with different parallel 2-opt local search algorithms, in which we propose a ``multiple K-opt evaluation, multiple K-opt moves" methodology in order to simultaneously execute, without interference, massive 2-/3-opt moves that are globally found on the same TSP tour for many edges. This methodology is explained in details to show how we obtain high performance computing both on GPU and CPU side. We test the proposed solutions and report experimental comparison results against the state-of-the-art algorithms.

Page generated in 0.0397 seconds