• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 466
  • 51
  • 49
  • 21
  • 15
  • 15
  • 15
  • 15
  • 15
  • 15
  • 11
  • 8
  • 6
  • 4
  • 3
  • Tagged with
  • 731
  • 117
  • 89
  • 87
  • 86
  • 83
  • 75
  • 74
  • 73
  • 67
  • 65
  • 64
  • 64
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
681

Human Influence on Marine Low-Level Clouds / Mänsklig inverkan på låga marina moln

Sporre, Moa January 2009 (has links)
<p>A study of air mass origin’s effect on marine stratus and stratocumulus clouds has been performed on clouds north of Scandinavia between 2000 and 2004. The aerosol number size distribution of the air masses has been obtained from measurements in northern Finland. A trajectory model has been used to calculate trajectories to and from the measurement stations. The back trajectories were calculated using the measurement site as receptor to make sure the air masses had the right origin, and forward trajectories were calculated from receptor stations to assure adequate flow conditions. Satellite data of microphysical parameters of clouds from the Moderate Resolution Imaging Spectrometer (MODIS) has been downloaded where the trajectories indicated that clouds could be studied, and where the satellite images displayed low-level clouds. The 25 % days with the highest number of aerosol with a diameter over 80 nm (N<sub>80</sub>) and the 35% with the lowest N<sub>80</sub> have been used to represent polluted and clean conditions respectively. After screening trajectories and satellite imagery, 22 cases of clouds with northerly trajectories that had low N<sub>80</sub> values (i.e. clean) and 25 southerly cases with high N<sub>80</sub> values (i.e. polluted) where identified for further analysis.</p><p>   The average cloud optical thickness (τ) for all polluted pixels was more than twice that of the clean pixels. This can most likely be related to the differences in aerosol concentrations in accordance with the indirect effect, yet some difference in τ caused by different meteorological situations cannot be ruled out. The mean cloud droplet effective radius (a<sub>ef</sub>) was for the polluted pixels 11.2 µm and for the clean pixels 15.5 µm, which results in a difference of 4.3 µm and clearly demonstrates the effect that increased aerosol numbers has on clouds. A non-linear relationship between a<sub>ef</sub> and N<sub>80</sub> has been obtained which indicates that changes in lower values of aerosol numbers affect a<sub>ef</sub> more than changes in larger aerosol loads. The results from this study also indicate that there is a larger difference in the microphysical cloud parameters between the polluted and clean cases in spring and autumn than in summer.</p>
682

Human Influence on Marine Low-Level Clouds / Mänsklig inverkan på låga marina moln

Sporre, Moa January 2009 (has links)
A study of air mass origin’s effect on marine stratus and stratocumulus clouds has been performed on clouds north of Scandinavia between 2000 and 2004. The aerosol number size distribution of the air masses has been obtained from measurements in northern Finland. A trajectory model has been used to calculate trajectories to and from the measurement stations. The back trajectories were calculated using the measurement site as receptor to make sure the air masses had the right origin, and forward trajectories were calculated from receptor stations to assure adequate flow conditions. Satellite data of microphysical parameters of clouds from the Moderate Resolution Imaging Spectrometer (MODIS) has been downloaded where the trajectories indicated that clouds could be studied, and where the satellite images displayed low-level clouds. The 25 % days with the highest number of aerosol with a diameter over 80 nm (N80) and the 35% with the lowest N80 have been used to represent polluted and clean conditions respectively. After screening trajectories and satellite imagery, 22 cases of clouds with northerly trajectories that had low N80 values (i.e. clean) and 25 southerly cases with high N80 values (i.e. polluted) where identified for further analysis.    The average cloud optical thickness (τ) for all polluted pixels was more than twice that of the clean pixels. This can most likely be related to the differences in aerosol concentrations in accordance with the indirect effect, yet some difference in τ caused by different meteorological situations cannot be ruled out. The mean cloud droplet effective radius (aef) was for the polluted pixels 11.2 µm and for the clean pixels 15.5 µm, which results in a difference of 4.3 µm and clearly demonstrates the effect that increased aerosol numbers has on clouds. A non-linear relationship between aef and N80 has been obtained which indicates that changes in lower values of aerosol numbers affect aef more than changes in larger aerosol loads. The results from this study also indicate that there is a larger difference in the microphysical cloud parameters between the polluted and clean cases in spring and autumn than in summer.
683

Searching for missing baryons through scintillation

Habibi, Farhang 15 June 2011 (has links) (PDF)
Cool molecular hydrogen H2 may be the ultimate possible constituent to the Milky-Way missing baryon. We describe a new way to search for such transparent matter in the Galactic disc and halo, through the diffractive and refractive effects on the light of background stars. By simulating the phase delay induced by a turbulent medium, we computed the corresponding illumination pattern on the earth for an extended source and a given passband. We show that in favorable cases, the light of a background star can be subjected to stochastic fluctuations of the order of a few percent at a characteristic time scale of a few minutes. We have searched for scintillation induced by molecular gas in visible dark nebulae as well as by hypothetical halo clumpuscules of cool molecular hydrogen (H2_He) during two nights, using the NTT telescope and the IR SOFI detector. Amongst a few thousands of monitored stars, we found one light-curve that is compatible with a strong scintillation effect through a turbulent structure in the B68 nebula. Because no candidate were found toward the SMC, we are able to establish upper limits on the contribution of gas clumpuscules to the Galactic halo mass. We show that the short time-scale monitoring of a few 10^6 star _ hour in the visible band with a >4 m telescope and a fast readout camera should allow one to interestingly quantify or constrain the contribution of turbulent molecular gas to the Galactic halo.
684

Automatische Extraktion von 3D-Baumparametern aus terrestrischen Laserscannerdaten / Automatic extraction of 3D tree parameters from terrestrial laser scanner point clouds

Bienert, Anne 06 August 2013 (has links) (PDF)
Ein großes Anwendungsgebiet des Flugzeuglaserscannings ist in Bereichen der Forstwirtschaft und der Forstwissenschaft zu finden. Die Daten dienen flächendeckend zur Ableitung von digitalen Gelände- und Kronenmodellen, aus denen sich die Baumhöhe ableiten lässt. Aufgrund der Aufnahmerichtung aus der Luft lassen sich spezielle bodennahe Baumparameter wie Stammdurchmesser und Kronenansatzhöhe nur durch Modelle schätzen. Der Einsatz terrestrischer Laserscanner bietet auf Grund der hochauflösenden Datenakquisition eine gute Ergänzung zu den Flugzeuglaserscannerdaten. Inventurrelevante Baumparameter wie Brusthöhendurchmesser und Baumhöhe lassen sich ableiten und eine Verdichtung von digitalen Geländemodellen durch die terrestrisch erfassten Daten vornehmen. Aufgrund der dichten, dreidimensionalen Punktwolken ist ein hoher Dokumentationswert gegeben und eine Automatisierung der Ableitung der Geometrieparameter realisierbar. Um den vorhandenen Holzvorrat zu kontrollieren und zu bewirtschaften, werden in periodischen Zeitabständen Forstinventuren auf Stichprobenbasis durchgeführt. Geometrische Baumparameter, wie Baumhöhe, Baumposition und Brusthöhendurchmesser, werden gemessen und dokumentiert. Diese herkömmliche Erfassung ist durch einen hohen Arbeits- und Zeitaufwand gekennzeichnet. Aus diesem Grund wurden im Rahmen dieser Arbeit Algorithmen entwickelt, die eine automatische Ableitung der geometrischen Baumparameter aus terrestrischen Laserscannerpunktwolken ermöglichen. Die Daten haben neben der berührungslosen und lichtunabhängigen Datenaufnahme den Vorteil einer objektiven und schnellen Parameterbestimmung. Letztendlich wurden die Algorithmen in einem Programm zusammengefasst, das neben der Baumdetektion eine Bestimmung der wichtigsten Parameter in einem Schritt realisiert. An Datensätzen von drei verschiedenen Studiengebieten werden die Algorithmen getestet und anhand manuell gewonnener Baumparameter validiert. Aufgrund der natürlich gewachsenen Vegetationsstruktur sind bei Aufnahmen von einem Standpunkt gerade im Kronenraum Abschattungen vorhanden. Durch geeignete Scankonfigurationen können diese Abschattungen minimiert, allerdings nicht vollständig umgangen werden. Zusätzlich ist der Prozess der Registrierung gerade im Wald mit einem zeitlichen Aufwand verbunden. Die größte Schwierigkeit besteht in der effizienten Verteilung der Verknüpfungspunkte bei dichter Bodenvegetation. Deshalb wird ein Ansatz vorgestellt, der eine Registrierung über die berechneten Mittelpunkte der Brusthöhendurchmesser durchführt. Diese Methode verzichtet auf künstliche Verknüpfungspunkte und setzt Mittelpunkte von identischen Stammabschnitten in beiden Datensätzen voraus. Dennoch ist die größte Unsicherheit in der Z-Komponente der Translation zu finden. Eine Methode unter Verwendung der Lage der Baumachsen sowie mit einem identischen Verknüpfungspunkt führt zu besseren Ergebnissen, da die Datensätze an dem homologen Punkt fixiert werden. Anhand eines Studiengebietes werden die Methoden mit den herkömmlichen Registrierungsverfahren über homologe Punkte verglichen und analysiert. Eine Georeferenzierung von terrestrischen Laserscannerpunktwolken von Waldbeständen ist aufgrund der Signalabschattung der Satellitenpositionierungssysteme nur bedingt und mit geringer Genauigkeit möglich. Deshalb wurde ein Ansatz entwickelt, um Flugzeuglaserscannerdaten mit terrestrischen Punktwolken allein über die Kenntnis der Baumposition und des vorliegenden digitalen Geländemodells zu verknüpfen und zusätzlich das Problem der Georeferenzierung zu lösen. Dass ein terrestrischer Laserscanner nicht nur für Forstinventuren gewinnbringend eingesetzt werden kann, wird anhand von drei verschiedenen Beispielen beleuchtet. Neben der Ableitung von statischen Verformungsstrukturen an Einzelbäumen werden beispielsweise auch die Daten zur Bestimmung von Vegetationsmodellen auf Basis von Gitterstrukturen (Voxel) zur Simulation von turbulenten Strömungen in und über Waldbeständen eingesetzt. Das aus Laserscannerdaten abgeleitete Höhenbild einer Rinde führt unter Verwendung von Bildverarbeitungsmethoden (Texturanalyse) zur Klassifizierung der Baumart. Mit dem terrestrischen Laserscanning ist ein interessantes Werkzeug für den Einsatz im Forst gegeben. Bestehende Konzepte der Forstinventur können erweiterte werden und es eröffnen sich neue Felder in forstwirtschaftlichen und forstwissenschaftlichen Anwendungen, wie beispielsweise die Nutzung eines Scanners auf einem Harvester während des Erntevorganges. Mit der stetigen Weiterentwicklung der Laserscannertechnik hinsichtlich Gewicht, Reichweite und Geschwindigkeit wird der Einsatz im Forst immer attraktiver. / An important application field of airborne laser scanning is forestry and the science of forestry. The captured data serve as an area-wide determination of digital terrain and canopy models, with a derived tree height. Due to the nadir recording direction, near-ground tree parameters, such as diameter at breast height (dbh) and crown base height, are predicted using forest models. High resolution terrestrial laser scanner data complements the airborne laser scanner data. Forest inventory parameters, such as dbh and tree height can be derived directly and digital terrain models are created. As a result of the dense three dimensional point clouds captured, a high level of detail exists, and a high degree of automation of the determination of the parameters is possible. To control and manage the existing stock of wood, forest inventories are carried out at periodic time intervals, on the base of sample plots. Geometric tree parameters, such as tree height, tree position and dbh are measured and documented. This conventional data acquisition is characterised by a large amount of work and time. Because of this, algorithms are developed to automatically determine geometric tree parameters from terrestrial laser scanner point clouds. The data acquisition enables an objective and fast determination of parameters, remotely, and independent of light conditions. Finally the majority of the algorithms are combined into a single program, allowing tree detection and the determination of relevant parameters in one step. Three different sample plots are used to test the algorithms. Manually measured tree parameters are also used to validate the algorithms. The natural vegetation structure causes occlusions inside the crown when scanning from one position. These scan shadows can be minimized, though not completely avoided, via an appropriate scan configuration. Additional the registration process in forest scenes is time-consuming. The largest problem is to find a suitable distribution of tie points when dense ground vegetation exists. Therefore an approach is introduced that allows data registration with the determined centre points of the dbh. The method removes the need for artificial tie points. However, the centre points of identical stem sections in both datasets are assumed. Nevertheless the biggest uncertainness is found in the Z co-ordinate of the translation. A method using the tree axes and one homologous tie point, which fixes the datasets, shows better results. The methods are compared and analysed with the traditional registration process with tie points, using a single study area. Georeferencing of terrestrial laser scanner data in forest stands is problematic, due to signal shadowing of global navigation satellite systems. Thus an approach was developed to register airborne and terrestrial laser scanner data, taking the tree positions and the available digital terrain model. With the help of three examples the benefits of applying laser scanning to forest applications is shown. Besides the derivation of static deformation structures of single trees, the data is used to determine vegetation models on the basis of a grid structure (voxel space) for simulation of turbulent flows in and over forest stands. In addition, the derived height image of tree bark using image processing methods (texture analysis) can be used to classify the tree species. Terrestrial laser scanning is a valuable tool for forest applications. Existing inventory concepts can be enlarged, and new fields in forestry and the science of forestry are established, e. g. the application of scanners on a harvester. Terrestrial laser scanners are becoming increasingly important for forestry applications, caused by continuous technological enhancements that reduce the weight, whilst increasing the range and the data rate.
685

Προσεγγίζοντας την παιδική σκέψη μέσω της "Κοινωνικο-πολιτισμικής, ιστορικής προσέγγισης" : μία ανίχνευση νοητικών παραστάσεων παιδιών νηπιαγωγείου για τα σύννεφα

Φραγκιαδάκη, Γλυκερία 30 April 2014 (has links)
Βασισμένη στην «κοινωνικό- πολιτισμική, ιστορική προσέγγιση» η παρούσα έρευνα συνιστά μια προσπάθεια αξιοποίησης θεωρητικών εργαλείων και μεθοδολογικών αρχών από το συγκεκριμένο θεωρητικό πλαίσιο κατά την ερευνητική διαδικασία της ανίχνευσης παραστάσεων παιδιών νηπιαγωγείου σε σχέση με τα σύννεφα. Τα επιμέρους ερευνητικά ερωτήματα που τίθενται αφορούν στο πώς αντιλαμβάνονται τα παιδιά του νηπιαγωγείου τα σύννεφα, πώς συγκροτούν τις σχετικές νοητικές τους παραστάσεις και πώς διαχειρίζονται, αναδομούν, μετασχηματίζουν τις παραστάσεις αυτές σε διαφορετικές κοινωνικές περιστάσεις. Δείγμα της έρευνας αποτέλεσαν δέκα έξι (16) μαθητές δημόσιου νηπιαγωγείου αστικής περιοχής της περιφέρειας Δυτικής Ελλάδας. Η συλλογή των δεδομένων έγινε μέσω διευρυμένων ανοικτού τύπου συζητήσεων ανά δύο παιδιών του δείγματος και της ερευνήτριας. Η παρατήρηση, ανάλυση και παρουσίαση των αποτελεσμάτων έγινε με άξονα τη «μέθοδο τριπλής εστίασης» της Rogoff (προσωπική εστίαση, διαπροσωπική, πλαισίου). Τα αποτελέσματα που προκύπτουν αφήνουν να διαφανεί, πέραν από τις νοητικές παραστάσεις των παιδιών, ο τρόπος με τον οποίο κοινωνικά- πολιτισμικά και ιστορικά στοιχεία και εργαλεία διαμεσολαβούν στη σκέψη τους και στις διαδικασίες συγκρότησής της. Συμπεραίνεται επομένως πως, μέσω της οπτικής που μελετάται, οδηγούμαστε σε μια διευρυμένη και ολιστική προσέγγιση της παιδικής σκέψης αποκεντρωμένη από την αυστηρά εννοιολογική προοπτική του πιαζετικού προτύπου. Η έρευνα καταλήγει με την ανάδειξη σημαντικών ερευνητικών προοπτικών σε θεωρητικό, εμπειρικό και διδακτικό επίπεδο. / This Master Thesis, based on the “sociocultural-historical” approach on child thought development, constitutes an attempt of exploiting the theoretical tools and methodology principles from this particular theoretical field during research procedures of tracing kinder-garden children views on clouds. The various raised research questions are related to how kinder-garden children comprehend clouds, how they construct cloud-related conceptual schemes and how they manage, restructure and transform these schemes in different social circumstances. The research sample consisted of sixteen (16) public urban-area kinder-garden students in the vicinity of Western Greece. The data collection has been done using expanded, open type, conversations between the sample’s children in pairs and the researcher. The observation, analysis and presentation of results has been done using Rogoff’s “three foci approach” (personal, interpersonal, contextual or cultural-institutional focus of analysis). Through those results, beyond conceptual schemes, the way that socio-cultural and historical elements and tools intercede in children thinking and the process of structuring it, is highlighted. It can be concluded that, through the studied perspective, we are led to an expanded and holistic approach of the sample’s children thinking, which is detached from the strictly conceptual viewpoint. The outcome of the Master Thesis research results has highlighted the important research potentials of the sociocultural approach in theoretical, empirical and didactic level.
686

Μελέτη και ανάπτυξη τεχνικών για την αποτελεσματική διαχείριση πόρων σε δίκτυα πλέγματος και υποδομές υπολογιστικών νεφών

Κρέτσης, Αριστοτέλης 25 February 2014 (has links)
Οι τεχνολογίες κατανεμημένου υπολογισμού, όπως τα δίκτυα πλέγματος και οι υποδομές Νέφους, έχουν διαμορφώσει πλέον ένα καινούργιο περιβάλλον σχετικά με τον τρόπο που εκτελούνται οι εργασίες των χρηστών, αποθηκεύονται τα δεδομένα και γενικότερα χρησιμοποιούνται οι εφαρμογές. Τα δίκτυα πλέγματος αποτέλεσαν το επίκεντρο της σχετικής ερευνητικής δραστηριότητας για μεγάλο χρονικό διάστημα, με βασικό στόχο τη δημιουργία υποδομών για την εκτέλεση ερευνητικών εφαρμογών με πολύ υψηλές υπολογιστικές και αποθηκευτικές απαιτήσεις. Ωστόσο είναι πλέον προφανές ότι υπάρχει μια στροφή προς τις υποδομές Νέφους που προσφέρουν υπηρεσίες κατανεμημένου υπολογισμού και αποθήκευσης μέσω πλήρως διαχειρίσιμων πόρων. Η συγκεκριμένη μετάβαση έχει ως αποτέλεσμα μια μετατόπιση από το μοντέλο των πολλών και ισχυρών πόρων που βρίσκονται κατανεμημένοι σε διάφορες περιοχές του κόσμου (όπως στα δίκτυα πλέγματος) προς σχετικά λιγότερα αλλά πολύ μεγαλύτερα ως προς το μέγεθος κέντρα δεδομένων τα οποία αποτελούνται από χιλιάδες υπολογιστικούς πόρους οι οποίοι φιλοξενούν ακόμη περισσότερες εικονικές μηχανές. Η έρευνα που διεξάγαμε ακολούθησε αυτή την αλλαγή, μελετώντας αλγοριθμικά θέματα για δίκτυα πλέγματος και υποδομές Νεφών και αναπτύσσοντας μια σειρά από εργαλεία και εφαρμογές που διαχειρίζονται, παρακολουθούν και αξιοποιούν τους πόρους που προσφέρουν οι συγκεκριμένες υποδομές. Αρχικά, μελετούμε τα ζητήματα που προκύπτουν κατά την υλοποίηση αλγορίθμων χρονοπρογραμματισμού, που είχαν προηγουμένως μελετηθεί σε περιβάλλοντα προσομοίωσης, σε ένα πραγματικό σύστημα ενδιάμεσου λογισμικού για δίκτυα πλέγματος, και συγκεκριμένα το gLite. Το πρώτο ζήτημα που αντιμετωπίσαμε είναι το γεγονός ότι οι πληροφορίες που παρέχει το ενδιάμεσο λογισμικό gLite στους αλγορίθμους χρονοπρογραμματισμού δεν είναι πάντα έγκυρες, γεγονός που επηρεάζει την αποδοσή τους. Για την αντιμετώπιση του προβλήματος αναπτύξαμε ένα εσωτερικό, στο χρονοπρογραμματιστή, μηχανισμό που καταγράφει τις αποφάσεις του σχετικά με ποιές εργασίες ανατέθηκαν σε ποιούς υπολογιστικούς πόρους και λειτουργεί συµπληρωµατικά µε την υπηρεσία πληροφοριών του gLite. Επιπλέον, εξετάζουμε το ζήτημα του δίκαιου διαμοιρασμού της υπολογιστικής χωρητικότητας ενός πόρου στις εργασίες που έχουν ανατεθεί σε αυτόν. Για το σκοπό αυτό, επεκτείνουμε το ενδιάμεσο λογισμικό gLite ώστε να περιλαμβάνει ένα νέο μηχανισμό που μέσω της αξιοποίησης της τεχνολογίας εικονικοποίησης επιτρέπει τον ταυτόχρονο διαμοιρασμό της υπολογιστικής χωρητικότητας ενός κόμβου σε πολλές εργασίες. Στην συνέχεια εξατάζουμε το πρόβλημα της συνδυασμένης μεταφοράς πολλαπλών εικονικών μηχανών σε σύγχρονες υπολογιστικές υποδομές. Πιο συγκεκριμένα, προτείνουμε μια μεθοδολογία που στοχεύει στην καλύτερη χρησιμοποίηση των διαθέσιμων υπολογιστικών και δικτυακών πόρων, λαμβάνοντας υπόψη στις αποφάσεις σχετικά με τη συνδυασμένη μεταφορά εικονικών μηχανών τις αλληλεξαρτήσεις που δημιουργούνται από την επικοινωνία τους. Η προτεινόμενη μεθοδολογία χρησιμοποιεί την προσέγγιση πολλαπλών κριτηρίων για την επιλογή των εικονικών μηχανών που θα μετακινηθούν, αναθέτοντας διαφορετικά βάρη στα διάφορα κριτήρια ενδιαφέροντος. Επιπλέον, επιλέγει τους υπολογιστικούς κόμβους όπου οι μετακινούμενες εικονικές μηχανές θα φιλοξενηθούν, λαμβάνοντας υπόψη τον τρόπο με τον οποίο οι μετακινήσεις επηρεάζουν τις λογικές (ή εικονικές) τοπολογίες που σχηματίζονται από την επικοινωνία τους και αντιμετωπίζοντας τη συγκεκριμένη επιλογή ως ένα πρόβλημα αναδιάρθρωσης λογικών τοπολογιών. Η αξιολόγηση επιβεβαίωσε τη δυνατότητα της μεθοδολογίας να επιλύει, μέσω των κατάλληλων μετακινήσεων, ένα σημαντικό αριθμό προβλημάτων που οφείλονται σε ελλείψεις υπολογιστικών ή επικοινωνιακών πόρων, ελαχιστοποιώντας παράλληλα τον αριθμό των μετακινήσεων και την προκαλούμενη επιβάρυνση του δικτύου. Το επόμενο θέμα που εξετάζουμε αφορά το πρόβλημα της ανάλυσης δεδομένων επικοινωνίας μεταξύ εικονικών μηχανών οι οποίες φιλοξενούνται σε ένα κέντρο δεδομένων. Προτείνουμε και αξιολογούμε, μέσω της ανάλυσης δεδομένων από ένα πραγματικό κέντρο δεδομένων, την εφαρμογή μετρικών και τεχνικών από τη θεωρία ανάλυσης κοινωνικών δικτύων για τον προσδιορισμό σημαντικών εικονικών μηχανών, για παράδειγμα εικονικές μηχανές οι οποίες απαιτούν περισσότερο εύρος ζώνης σε σχέση με άλλες, και ομάδων εικονικών μηχανών που συσχετίζονται με κάποιο τρόπο μεταξύ τους. Μέσω της συγκεκριμένης προσέγγισης έχουμε τη δυνατότητα να εξάγουμε σημαντικές πληροφορίες οι οποίες μπορούν να αξιοποιηθούν για τη λήψη καλύτερων αποφάσεων σχετικά με τη διαχείριση του πολύ μεγάλου πλήθους των εικονικών μηχανών που φιλοξενούνται στα σύγχρονα κέντρα δεδομένων. Στη συνέχεια προσδιορίζουμε τρόπους με τους οποίους οι πληροφορίες παρακολούθησης που συλλέγονται από τη λειτουργία μιας δημόσιας υποδομής Υπολογιστικού Νέφους, και ιδίως από την υπηρεσία Amazon Web Services (AWS), μπορούν να χρησιμοποιηθούν με ένα αποδοτικό τρόπο προκειμένου να εξάγουμε πολύτιμες πληροφορίες, που μπορούν να αξιοποιηθούν από τους τελικούς χρήστες για την αποτελεσματικότερη διαχείριση των εικονικών πόρων τους. Πιο συγκεκριμένα, παρουσιάζουμε το σχεδιασμό και την υλοποίηση ενός εργαλείου ανοιχτού κώδικα, του SuMo, στο όποιο έχουμε υλοποίησει όλη την απαραίτητη λειτουργικότητα για τη συλλογή και ανάλυση δεδομένων παρακολούθησης από την υπηρεσία AWS. Επιπλέον, προτείνουμε ένα μηχανισμό για τη βελτιστοποίηση του κόστους και της αξιοποίησης (Cost and Utilization Optimization - CUO) των εικονικών υπολογιστικών πόρων της υπηρεσίας AWS. Ο μηχανισμός CUO χρησιμοποιεί πληροφορίες (πλήθος, ακριβή χαρακτηριστικά, ποσοστό αξιοποίησης) για τους διαθέσιμους εικονικούς πόρους ενός χρήστη και προτείνει ένα νέο (βέλτιστο) σύνολο πόρων που θα μπορούσαν να χρησιμοποιηθούν για την αποδοτικότερη εξυπηρέτηση του ίδιου φορτίου εργασίας με μειωμένο κόστος. Τέλος, παρουσιάζουμε την υλοποίηση ενός ολοκληρωμένου εργαλείου, που ονομάζουμε Mantis, για το σχεδιασμό και τη λειτουργία των μελλοντικών ευέλικτων (flex-grid) οπτικών δικτύων που υποστηρίζει επιπλέον οπτικά δίκτυα σταθερού πλέγματος τόσο μοναδικού ρυθμού μετάδοσης όσο και πολλαπλών ρυθμών μετάδοσης. Οι χρήστες έχουν τη δυνατότητα να καθορίζουν δικτυακές τοπολογίες, απαιτήσεις κίνησης, παραμέτρους για το κόστος απόκτησης και λειτουργίας των δικτυακών συσκευών, ενώ επιπλέον έχουν πρόσβαση σε αρκετούς αλγορίθμους για το σχεδιασμό, λειτουργία και αξιολόγηση διαφόρων οπτικών δικτύων. Το εργαλείο έχει σχεδιαστεί ώστε να μπορεί να λειτουργεί είτε ως υπηρεσία (Software as a Service) είτε ως κλασσική εφαρμογή (Desktop Application). Λειτουργώντας ως υπηρεσία παρέχει κλιμάκωση με βάση τις απαιτήσεις των χρηστών, αξιοποιώντας τα πλεονεκτήματα των υποδομών Υπολογιστικού Νέφους, εκτελώντας γρήγορα και αποτελεσματικά τις εργασίες των χρηστών. Για τη λειτουργία αυτή, μπορεί να χρησιμοποιεί τόσο δημόσιες υποδομές Υπολογιστικού Νέφους όπως η υπηρεσία Amazon Web Services (AWS) και η υπηρεσία της ΕΔΕΤ (~okeanos), όσο και ιδιωτικές που βασίζονται στο OpenStack. Επιπλέον, η αρθρωτή αρχιτεκτονική και η υλοποίηση των διαφόρων λειτουργικών τμημάτων επιτρέπουν την εύκολη επέκταση του εργαλείου ώστε να υποστηρίζει μελλοντικά περισσότερες υποδομές Υπολογιστικού Νέφους. / Distributed computing technologies, like grids and clouds, shape today a new environment, regarding the way tasks are executed, data are stored and retrieved, and applications are used. Though grids and desktop grids have been the focus of the research community for a long time, a shift has become evident today towards cloud and virtualization related technologies in general, which are supported by large computing factories, namely the data centers. As a result there is also a shift from the model of several powerful resources distributed at various locations in the world (as in grids) towards fewer huge data centers consisting of thousands of “simple” computers that host Virtual Machines. The research performed over the course of my PhD followed this shift, investigating algorithmic issues in the context of grids and then of clouds and developing a number of tools and applications that manage, monitor and utilize these kinds of resources. Initially, we describe the steps followed, the difficulties encountered, and the solutions provided in developing and evaluating a scheduling policy, initially implemented in a simulation environment, in the gLite grid middleware. Our focus is on a scheduling algorithm that allocates in a fair way the available resources among the requested users or jobs. During the actual implementation of this algorithm in gLite, we observed that the validity of the information used by the scheduler for its decisions affects greatly its performance. To improve the accuracy of this information, we developed an internal feedback mechanism that operates along with the scheduling algorithm. Also, a Grid computation resource cannot be shared concurrently between different users or jobs, making it difficult to provide actual fairness. For this reason we investigated the use of virtualization technology in the gLite middleware. We implement and evaluate our scheduling algorithm and the proposed mechanisms in a small gLite testbed. Next, we present a methodology, called communication-aware virtual infrastructures (COMAVI), for the concurrent migration of multiple Virtual Machines (VMs) in computing infrastructures, which aims at the optimum use of the available computational and network resources, by capturing the interdependencies between the communicating VMs. This methodology uses multiple criteria for selecting the VMs that will migrate, with different weights assigned to each of them. COMAVI also selects the computing sites where the migrating VMs will be hosted, by accounting for the way migration affects the logical (or virtual) topologies formed by the communicating VMs and viewing this selection as a logical topology reconfiguration problem. We apply COMAVI to two basic computing infrastructures that exhibit different constraints/criteria and characteristics: a grid infrastructure operating over a wide area network (WAN) and a data center infrastructure operating over a local area network (LAN). Through the presented methodology different communication-aware VM migration algorithms can be tailored to the needs of the resource provider. The algorithms presented resolve the maximum possible number of VM violations (due to computing or communication resource shortages), while tending to minimize the number of migrations performed, the induced network overhead, the logical topology reconfigurations required, and the corresponding service interruptions. We evaluate the proposed methods through simulations in realistic computing environments, and we exhibit their performance benefits. We also consider the use of social network analysis methods on communication traces, collected from Virtual Machines (VMs) located in computing infrastructures, like a data center. Our aim is to identify important VMs, for example VMs that require more bandwidth than other VMs or VMs that communicate often with other VMs. We believe that this approach can handle the large number of VMs present in computing infrastructures and their interactions in the same way social interactions of millions of people are analyzed in today’s social networks. We are interested in identifying measures that can locate these important VMs or groups of interacting VMs, missed through other usual metrics and also capture the time-dynamicity of their interactions. In our work we use real traces and evaluate the applicability of the considered methods and measures. In addition, we consider the analysis and optimization of public clouds. For this reason, we identify important algorithmic operations that should be part of a cloud analysis and optimization tool, including resource profiling, performance spike detection and prediction, resource resizing, and others, and we investigate ways in which the collected monitoring information can be processed towards these purposes. The analyzed information is valuable since it can drive important virtual resource management decisions. We also present an open-source tool we developed, called SuMo, which contains the necessary functionalities for collecting monitoring data from Amazon Web Services (AWS), analyzing them and providing resource optimization suggestions. We also present a Cost and Utilization Optimization (CUO) mechanism for optimizing the cost and the utilization of a set of running Amazon EC2 instances, which is formulated as an Integer Linear Programming (ILP) problem. This CUO mechanism receives information regarding the current set of instances used (their number, type, utilization) and proposes a new set of instances for serving the same load, so as to minimize cost and maximize utilization and performance efficiency. Finally, we present a network planning and operation tool, called Mantis, for designing the next generation optical networks, supporting both flexible and mixed line rate WDM networks. Through Mantis, the user is able to define the network topology, current and forecasted traffic matrices, CAPEX/OPEX parameters, set up basic configuration parameters, and use a library of algorithms to plan, operate, or run what-if scenarios for an optical network of interest. Mantis is designed to be deployed either as a cloud service or as a desktop application. Using the cloud infrastructures features Mantis can scale according to the user demands, executing fast and efficiently the scenarios requested. Mantis supports different cloud platforms either public such as Amazon Elastic Compute Cloud (Amazon EC2) and ~okeanos the GRNET’s cloud service or private based on OpenStack, while its modular architecture allows other cloud infrastructures to be adopted in the future with minimum effort.
687

Knowledge-based 3D point clouds processing

Truong, Quoc Hung 15 November 2013 (has links) (PDF)
The modeling of real-world scenes through capturing 3D digital data has proven to be both useful andapplicable in a variety of industrial and surveying applications. Entire scenes are generally capturedby laser scanners and represented by large unorganized point clouds possibly along with additionalphotogrammetric data. A typical challenge in processing such point clouds and data lies in detectingand classifying objects that are present in the scene. In addition to the presence of noise, occlusionsand missing data, such tasks are often hindered by the irregularity of the capturing conditions bothwithin the same dataset and from one data set to another. Given the complexity of the underlyingproblems, recent processing approaches attempt to exploit semantic knowledge for identifying andclassifying objects. In the present thesis, we propose a novel approach that makes use of intelligentknowledge management strategies for processing of 3D point clouds as well as identifying andclassifying objects in digitized scenes. Our approach extends the use of semantic knowledge to allstages of the processing, including the guidance of the individual data-driven processing algorithms.The complete solution consists in a multi-stage iterative concept based on three factors: the modeledknowledge, the package of algorithms, and a classification engine. The goal of the present work isto select and guide algorithms following an adaptive and intelligent strategy for detecting objects inpoint clouds. Experiments with two case studies demonstrate the applicability of our approach. Thestudies were carried out on scans of the waiting area of an airport and along the tracks of a railway.In both cases the goal was to detect and identify objects within a defined area. Results show that ourapproach succeeded in identifying the objects of interest while using various data types
688

Dual-field-of-view Raman lidar measurements of cloud microphysical properties

Schmidt, Jörg 11 August 2014 (has links) (PDF)
Im Rahmen der vorliegenden Arbeit wurde eine neuartige Lidartechnik in ein leistungsstarkes Lidar-System implementiert. Mit Hilfe des realisierten Aufbaus wurden Aerosol-Wolken-Wechselwirkungen in Flüssigwasserwolken über Leipzig untersucht. Die angewandte Messmethode beruht auf der Detektion von Licht, das an Wolkentröpfchen mehrfach in Vorwärtsrichtung gestreut und an Stickstoffmolekülen inelastisch zurückgestreut wurde. Dabei werden zwei Gesichtsfelder unterschiedlicher Größe verwendet. Ein Vorwärtsiterations-Algorithmus nutzt die gewonnenen Informationen zur Ermittlung von Profilen wolkenmikrophysikalischer Eigenschaften. Es können der Extinktionskoeffizient, der effektive Tröpfchenradius, der Flüssigwassergehalt sowie die Tröpfchenanzahlkonzentration bestimmt werden. Weiterhin wird die exakte Erfassung der Wolkenunterkantenhöhe durchdie eingesetzte Messtechnik ermöglicht. Darüber hinaus ist die Bestimmung von Aerosoleigenschaften mit dem eingesetzten Lidargerät möglich. Die Qualität des realisierten Messaufbaus wurde geprüft und eine Fehleranalyse durchgeführt. Unter anderem wurde der aus einer Wolkenmessung bestimmte Flüssigwassergehalt mit einem Mikrowellen-Radiometer bestätigt. Anhand von Fallbeispielen konnte das Potential dieser Messtechnik demonstriert werden. Die Bedeutung von Profilinformationen von Wolkeneigenschaften für die Untersuchung von Aerosol-Wolken-Wechselwirkungen wurde gezeigt. Weiterhin wurde mit Hilfe eines Doppler-Windlidars der Einfluss der Vertikalwindgeschwindigkeit auf Wolkeneigenschaften und damit Aerosol-Wolken-Wechselwirkungen verdeutlicht. Neunundzwanzig Wolkenmessungen wurden für eine statistische Auswertung bezüglich Aerosol-Wolken-Wechselwirkungen genutzt. Dabei konnte erstmalig die Abhängigkeit von Aerosol-Wolken-Wechselwirkungen von der Wolkeneindringtiefe untersucht werden. Es wurde festgestellt, dass diese auf die untersten 70m von Wolken beschränkt sind. Weiterhin wurden deutlich stärkere Aerosol-Wolken-Wechselwirkungen in Wolkengebieten festgestellt, die von Aufwinden dominiert werden. Für der Quantifizierung der Stärke von Aerosol-Wolken-Wechselwirkungen wurden ACIN-Werte genutzt, welche den Zusammenhang zwischen der Tröpfchenanzahlkonzentration und dem Aerosol-Extinktionskoeffizienten beschreiben. Dabei wurde zwischen der Untersuchung der entsprechenden mikrophysikalischen Prozesse und deren Bedeutung für die Wolkenalbedo und damit dem Strahlungsantrieb der Wolken unterschieden. Für die erstgenannte Zielstellung wurde ein ACIN-Wert von 0.80 +/- 0.40 ermittelt, für Letztere 0.13 +/- 0.07.
689

Quantifying compositional impacts of ambient aerosol on cloud formation

Lance, Sara 14 November 2007 (has links)
It has been historically assumed that most of the uncertainty associated with the aerosol indirect effect on climate can be attributed to the unpredictability of updrafts. We assess the sensitivity of cloud droplet number density to realistic variations in aerosol chemical properties and to variable updraft velocities using a 1-dimensional cloud parcel model. The results suggest that aerosol chemical variability may be as important to the aerosol indirect effect as the effect of unresolved cloud dynamics, especially in polluted environments. We next used a continuous flow streamwise thermal gradient Cloud Condesnation Nuclei counter (CCNc) to study the water-uptake properties of the ambient aerosol, by exposing an aerosol sample to a controlled water vapor supersaturation and counting the resulting number of droplets. The heat transfer properties and droplet growth within the CCNc were first modeled and experimentally characterized. We describe results from the MIRAGE field campaign at a ground-based site during March, 2006. Size-resolved CCN activation spectra and hygroscopic growth factor distributions of the ambient aerosol in Mexico City were obtained, and an analytical technique was developed to quantify a probability distribution of solute volume fractions for the CCN, as well as the aerosol mixing-state. The CCN were shown to be much less CCN active than ammonium sulfate, with water uptake properties more consistent with low molecular weight organic compounds. We also describe results from the GoMACCS field study, an airborne field campaign in Houston, Texas during August-September, 2006. GoMACCS tested our ability to predict CCN for highly polluted conditions with limited chemical information. Assuming the particles were composed purely of ammonium sulfate, CCN closure was obtained with a 10% overprediction bias on average for CCN concentrations ranging from less than 100 cm-3 to over 10,000 cm-3, but with on average 50% variability. Assuming measured concentrations of organics to be internally mixed and insoluble tended to reduce the overprediction bias for less polluted conditions, but led to underprediction bias in the most polluted conditions. Comparing the two campaigns, it is clear that the chemistry of the particles plays an important role in our ability to predict CCN concentrations.
690

Étude sous-millimétrique de l’interaction entre le magnétisme et la turbulence dans les milieux interstellaires

Coudé, Simon 08 1900 (has links)
No description available.

Page generated in 0.0384 seconds