• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 14
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Υλοποίηση συστήματος κοινής ιδεατής μνήμης για συστάδες πολυεπεξεργαστικών συστημάτων / Software distributed shared memory for clusters of multiprocessors

Τουρναβίτης, Γεώργιος 16 May 2007 (has links)
Οι συστάδες υπολογιστών αποτελούν μία σύγχρονη ευρέως χρησιμοποιούμενη και ιδιαίτερα ανταγωνιστική αρχιτεκτονική για την υλοποίηση υπολογιστικών συστημάτων υψηλών επιδόσεων με χαμηλό κόστος. Παράλληλα, η ευρεία εμπορική διάθεση πολυεπεξεργαστικών συστημάτων μικρής κλίμακας, επιτρέπει τον συνδυασμό τους σε υβριδικά σχήματα συστάδων πολυεπεξεργαστών. Παρά την ευελιξία που παρέχεται στη σχεδίαση τους, η απαίτηση για χρήση κατανεμημένων μοντέλων προγραμματισμού αυξάνει σημαντικά την πολυπλοκότητα της ανάπτυξης εφαρμογών. Μία εναλλακτική προσέγγιση αποτελούν τα συστήματα κοινής ιδεατής μνήμης. Τα συστήματα κοινής ιδεατής μνήμης παρέχουν στις εφαρμογές, που εκτελούνται σε διαφορετικούς κόμβους της συστάδας, πρόσβαση σε έναν διαμοιραζόμενο χώρο διευθύνσεων αποκρύπτοντας την υποκείμενη κατανεμημένη αρχιτεκτονική. Βασικότερο περιορισμό της πλειονότητας των υπαρχόντων υλοποιήσεων αποτελεί η απουσία υποστήριξης πολυνηματισμού. Το χαρακτηριστικό αυτό έχει ως άμεση συνέπεια τη χαμηλή χρησιμοποίηση των σύγχρονων πολυεπεξεργαστικών υπολογιστικών μονάδων, καθώς ούτε η εφαρμογή αλλά ούτε και οι μηχανισμοί που εξασφαλίζουν τη συνέπεια της κοινής μνήμης εκτελούνται παράλληλα. Στα πλαίσια της παρούσας μεταπτυχιακής εργασίας παρουσιάζεται η σχεδίαση και η υλοποίηση μίας πλατφόρμας κοινής ιδεατής μνήμης χρησιμοποιώντας μηχανισμούς υλοποιημένους αποκλειστικά σε λογισμικό. Το προτεινόμενο σύστημα στοχεύει στην αποδοτικότερη χρησιμοποίηση των πόρων των πολυεπεξεργαστικών μονάδων της συστάδας, υποστηρίζοντας την πολυνηματική εκτέλεση της εφαρμογής σε κάθε κόμβο. Τόσο το πρωτόκολλο συνέπειας της κατανεμημένης μνήμης, όσο και το υποσύστημα επικοινωνίας, επανασχεδιάστηκαν ώστε να χρησιμοποιούν πολλαπλά νήματα εκτέλεσης. Επιπλέον παρουσιάζονται και αξιολογούνται εναλλακτικοί ιεραρχικοί αλγόριθμοι συγχρονισμού που επιτρέπουν την αποδοτικότερη χρήση της υβριδικής οργάνωσης των συστάδων. / Software Distributed Shared Memory (SDSM) systems provide an abstraction layer of shared memory semantics on top of a distributed set of computational nodes. The use of small-scale Symmetric Multiprocessor (SMP) nodes has the potential for bridging the performance-cost gap between the low-end SMPs and high-end Distributed Shared Memory (DSM) systems, using a hybrid software and hardware coherency model presented in this thesis. We present the design and discuss the main architectural choices involved in our implementation of a multithreaded SDSM system. Our implementation was developed on top of Pthreads and the TCP/IP network protocol, employing a simple yet efficient design. Finally, we evaluate and analyze the performance of the multithreading SDSM platform, using a wide set of benchmark applications.
12

Scene Analysis and Interpretation by ICA Based Polarimetric Incoherent Target Decomposition for Polarimetric SAR Data / Analyse et interprétation des données Radar à Synthèse d’Ouverture polarimétriques par des outils de type ACP-ICTD

Guimaraes figueroa pralon, Leandro 27 October 2016 (has links)
Cette thèse comprend deux axes de recherche. D´abord, un nouveau cadre méthodologique pour évaluer la conformité des données RSO (Radar à Synthèse d’Ouverture) multivariées à haute résolution spatiale est proposé en termes de statistique asymptotique par rapport au modèle produit. Plus précisément, la symétrie sphérique est étudiée en appliquant un test d'hypothèses sur la structure de la matrice de quadri-covariance. Deux jeux de données, simulées et réelles, sont prises en considération pour étudier la performance du test obtenu par l’analyse qualitative et quantitative des résultats. La conclusion la plus importante, en ce qui concerne la méthodologie employée dans l'analyse des données RSO multivariées, est que, selon les différents cas d’usages, une partie considérable de données hétérogènes peut ne pas s’ajuster asymptotiquement au modèle produit. Par conséquent, les algorithmes de classification et/ou détection conventionnels développés sur la base de celui-ci deviennent sub-optimaux. Cette observation met en évidence la nécessité de développer de modèles plus sophistiqués comme l'Analyse en Composantes Indépendantes, ce qui conduit à la deuxième partie de cette thèse qui consiste en l’étude du biais d’estimation des paramètres TSVM (Target Scattering Vector Model) lorsque l’ACP est utilisée. Enfin, les performances de l'algorithme sont également évaluées sous l'hypothèse du bruit gaussien corrélé spatialement. L’évaluation théorique de l'ACI comme un outil de type ICTD (In Coherent Target Decomposition) polarimétrique permet une analyse plus efficace de l’apport d’information fourni. A ce but, deux espaces de représentation sont utilisé, notamment H /alpha et TSVM / This thesis comprises two research axes. First, a new methodological framework to assess the conformity of multivariate high-resolution Synthetic Aperture Radar (SAR) data with respect to the Spherically Invariant Random Vector model in terms of asymptotic statistics is proposed. More precisely, spherical symmetry is investigated by applying statistical hypotheses testing on the structure of the quadricovariance matrix. Both simulated and real data are taken into consideration to investigate the performance of the derived test by a detailed qualitative and quantitative analysis. The most important conclusion drawn, regarding the methodology employed in analysing SAR data, is that, depending on the scenario under study, a considerable portion of high heterogeneous data may not fit the aforementioned model. Therefore, traditional detection and classification algorithms developed based on the latter become sub-optimal when applied in such kind of regions. This assertion highlights for the need of the development of model independent algorithms, like the Independent Component Analysis, what leads to the second part of the thesis. A Monte Carlo approach is performed in order to investigate the bias in estimating the Touzi's Target Scattering Vector Model (TSVM) parameters when ICA is employed using a sliding window approach under different scenarios. Finally, the performance of the algorithm is also evaluated under Gaussian clutter assumption and when spatial correlation is introduced in the model. These theoretical assessment of ICA based ICTD enables a more efficient analysis of the potential new information provided by the ICA based ICTD. Both Touzi TSVM as well as Cloude and Pottier H/alpha feature space are then taken into consideration for that purpose. The combined use of ICA and Touzi TSVM is straightforward, indicating new, but not groundbreaking information, when compared to the Eigenvector approach. Nevertheless, the analysis of the combined use of ICA and Cloude and Pottier H/alpha feature space revealed a potential aspect of the Independent Component Analysis based ICTD, which can not be matched by the Eigenvector approach. ICA does not introduce any unfeasible region in the H/alpha plane, increasing the range of possible natural phenomenons depicted in the aforementioned feature space.
13

SCINTRA: A Model for Quantifying Inconsistencies in Grid-Organized Sensor Database Systems

Schlesinger, Lutz, Lehner, Wolfgang 12 January 2023 (has links)
Sensor data sets are usually collected in a centralized sensor database system or replicated cached in a distributed system to speed up query evaluation. However, a high data refresh rate disallows the usage of traditional replicated approaches with its strong consistency property. Instead we propose a combination of grid computing technology with sensor database systems. Each node holds cached data of other grid members. Since cached information may become stale fast, the access to outdated data may sometimes be acceptable if the user has knowledge about the degree of inconsistency if unsynchronized data are combined. The contribution of this paper is the presentation and discussion of a model for describing inconsistencies in grid organized sensor database systems.
14

Distributed Support Vector Machine With Graphics Processing Units

Zhang, Hang 06 August 2009 (has links)
Training a Support Vector Machine (SVM) requires the solution of a very large quadratic programming (QP) optimization problem. Sequential Minimal Optimization (SMO) is a decomposition-based algorithm which breaks this large QP problem into a series of smallest possible QP problems. However, it still costs O(n2) computation time. In our SVM implementation, we can do training with huge data sets in a distributed manner (by breaking the dataset into chunks, then using Message Passing Interface (MPI) to distribute each chunk to a different machine and processing SVM training within each chunk). In addition, we moved the kernel calculation part in SVM classification to a graphics processing unit (GPU) which has zero scheduling overhead to create concurrent threads. In this thesis, we will take advantage of this GPU architecture to improve the classification performance of SVM.

Page generated in 0.0713 seconds