• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 8
  • 1
  • Tagged with
  • 83
  • 46
  • 18
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Υπολογιστική επίλυση προβλημάτων μαγνητορευστοδυναμικής και θερμικής ροής υγρών μετάλλων εντός αγωγών

Μπακάλης, Παντελεήμων 09 July 2013 (has links)
Αντικείμενο της παρούσας διδακτορικής διατριβής αποτέλεσε η ανάπτυξη μιας ακριβούς υπολογιστικής μεθοδολογίας για τη μελέτη της μαγνητοϋδροδυναμικής και θερμικής ροής ενός ηλεκτρικώς αγώγιμου ρευστού υπό την επίδραση ενός εξωτερικού μαγνητικού πεδίου, για μεγάλο φάσμα τιμών των παραμέτρων της ροής. Η μελέτη της διαμόρφωσης της μαγνητορευστοδυναμικής και θερμικής ροής των ηλεκτρικώς αγώγιμων ρευστών, όπως είναι τα υγρά μέταλλα, υπό την επίδραση της εφαρμογής ενός εξωτερικού μαγνητικού πεδίου, είναι ιδιαίτερα σημαντική για την εκτίμηση της μείωσης της αξονικής βαθμίδας της πίεσης, του συντελεστή μεταφοράς θερμότητας και άλλων φυσικών ποσοτήτων, σε μια σειρά προβλημάτων όπως είναι η σταθεροποίηση και ο περιορισμός του πλάσματος, η ψύξη των αντιδραστήρων σύντηξης με υγρά μέταλλα, η χύτευση μετάλλων με ηλεκτρομαγνητικά μέσα, η χρήση ηλεκτρομαγνητικών αντλιών για υγρά μέταλλα, στη γεωλογία, για τη μελέτη του εσωτερικού της Γης, και στην αστροφυσική όπου μελετώνται μεταξύ άλλων αστέρες, νεφελώματα και σχετικιστικά τζετ. Η ροή θεωρείται ασυμπίεστη και στρωτή, ενώ μελετάται για τις περιπτώσεις της πλήρως ανεπτυγμένης και της αναπτυσσόμενης ροή στην περιοχή μεταξύ δύο ομοαξονικών ευθύγραμμων ή καμπύλων αγωγών κυκλικής διατομής, υπό την επίδραση ισχυρού εξωτερικού μαγνητικού πεδίου. Τα τοιχώματα των αγωγών είναι ηλεκτρικώς μονωμένα και ανάλογα με το πρόβλημα βρίσκονται σε διαφορετικές σταθερές θερμοκρασίες ή σε διαφορετικές ροές θερμότητας. Από τα αποτελέσματα προέκυψε πως το μαγνητικό πεδίο έχει πολύ σημαντική επίδραση στην κατανομή της ταχύτητας και στην πτώση πίεσης, ενώ η επίδραση του στη μετάδοση θερμότητας στην περίπτωση των υγρών μετάλλων είναι μηδαμινή. / The aim of the present doctorate thesis was the development of an accurate και robust computational methodology for the study of the magnetohydrodynamic flow of an electrically conducting fluid under the effect of an external magnetic field, for large regions of values of the parameters of the flow. The study of the magnetohydrodynamic και thermal flow of an electrically conducting fluid, such as liquid metals, is very important for the estimation of the pressure drop, the heat transfer coefficient και other physical quantities in several engineering applications such as stabilization και control of plasma, fusion reactor blankets, metallurgy, electromagnetic pumps, geology for the study of the inner core of the earth και astrophysics where stars, nebula και relativity jets are studied. The flow is considered as incompressible και laminar και it is studied for the cases of the fully developed και the developing flow in the region between two homoaxial straight or curved ducts of circular cross-sections, under the effect of an external magnetic field. The duct walls are considered as electrically insulated και maintained at uniform temperatures or uniform heat fluxes. The results show that the magnetic field has a significant effect on the velocity distribution και the pressure drop και a minor effect on the heat transfer.
12

Νέοι αλγόριθμοι υπολογιστικής νοημοσύνης και ομαδοποίησης για την εξόρυξη πληροφορίας

Τασουλής, Δημήτρης 10 August 2007 (has links)
Αυτή η Διδακτορική Διατριβή πραγματεύεται το θέμα της ομαδοποίησης δεδομένων (clustering), καθώς και εφαρμογές των τεχνικών αυτών σε πραγματικά προβλήματα. Η παρουσίαση των επιμέρους θεμάτων και αποτελεσμάτων της διατριβής αυτής οργανώνεται ως εξής: Στο Κεφάλαιο 1 παρέχουμε τον ορισμό της Υπολογιστικής Νοημοσύνης σαν τομέας ερευνάς, και αναλύουμε τα ξεχωριστά τμήματα που τον αποτελούν. Για κάθε ένα από αυτά παρουσιάζεται μια σύντομη περιγραφή. Το Κεφάλαιο 2, ασχολείται με την ανάλυση του ερευνητικού πεδίου της ομαδοποίησης. Κάθε ένα από τα χαρακτηριστικά της αναλύεται ξεχωριστά και γίνεται μια επισκόπηση των σημαντικότερων αλγόριθμων ομαδοποίησης. Το Κεφάλαιο 3, αφιερώνεται στη παρουσίαση του αλγορίθμου UKW, που κατά την εκτέλεση του έχει την ικανότητα να προσεγγίζει το πλήθος των ομάδων σε ένα σύνολο δεδομένων. Επίσης παρουσιάζονται πειραματικά αποτελέσματα με σκοπό τη μελέτη της απόδοσης του αλγορίθμου. Στο Κεφάλαιο 4, προτείνεται μια επέκταση του αλγορίθμου UKW, σε μετρικούς χώρους. Η προτεινόμενη επέκταση διατηρεί όλα τα πλεονεκτήματα του αλγορίθμου UKW. Τα πειραματικά αποτελέσματα που παρουσιάζονται επίσης σε αυτό το κεφάλαιο, συγκρίνουν την προτεινόμενη επέκταση με άλλους αλγορίθμους. Στο επόμενο κεφάλαιο παρουσιάζουμε τροποποιήσεις του αλγορίθμου με στόχο την βελτίωση των αποτελεσμάτων του. Οι προτεινόμενες τροποποιήσεις αξιοποιούν πληροφορία από τα τοπικά χαρακτηριστικά των δεδομένων, ώστε να κατευθύνουν όσο το δυνατόν καλύτερα την αλγοριθμική διαδικασία. Το Κεφάλαιο 6, πραγματεύεται επεκτάσεις του αλγορίθμου σε κατανεμημένες Βάσεις δεδομένων. Για τις διάφορες υποθέσεις που μπορούν να γίνουν όσον αφορά τη φύση του περιβάλλοντος επικοινωνίας, παρουσιάζονται κατάλληλοι αλγόριθμοι. Στο Κεφάλαιο 7, εξετάζουμε την περίπτωση δυναμικών βάσεων δεδομένων. Σε ένα τέτοιο μη στατικό περιβάλλον αναπτύσσεται μια επέκταση του αλγορίθμου UKW, που ενσωματώνει τη δυναμική δομή δεικτοδότησης Bkd-tree. Επιπλέον παρουσιάζονται θεωρητικά αποτελέσματα για την πολυπλοκότητα χειρότερης περίπτωσης του αλγορίθμου. Το Κεφάλαιο 8, μελετά την εφαρμογή αλγορίθμων ομαδοποίησης σε δεδομένα γονιδιακών εκφράσεων. Επίσης προτείνεται και αξιολογείται ένα υβριδικό σχήμα που καταφέρνει να αυτοματοποιήσει την όλη διαδικασία επιλογής γονιδίων και ομαδοποίησης. Τέλος, η παρουσίαση του ερευνητικού έργου αυτής της διατριβής ολοκληρώνεται στο Κεφάλαιο 9 που ασχολείται με την ανάπτυξη υβριδικών τεχνικών που συνδυάζουν την ομαδοποίηση και τα Τεχνητά Νευρωνικά Δίκτυα, και αναδεικνύει τις δυνατότητες τους σε δύο πραγματικά προβλήματα. / This Doctoral Dissertation appoints the issue of data Clustering, as well as the applications of these kind of methods in real world problems. The presentation of the individual results of this dissertation is organised as follows: In Chapter 1, the definition of Computational Intelligence is provided as a research area. For each distinct part of this area a short description is supplied. Chapter 2, deals with the analysis of the research area of Clustering per se, and its characteristics are analysed separably. Moreover, we provide a review of the most representative clustering algorithms. Chapter 3, is devoted to the presentation of the UKW algorithm, that is able to endogenously provide approximations for the number of clusters in a dataset, during its execution. Furthermore, the included experimental results demonstrate the algorithm's efficiency. In Chapter 4, an extension of the UKW algorithm to metric spaces is proposed. This extension preserves all the advantages of the original algorithm. The included experimental results compare the proposed extension to other approaches. In the next chapter we present modifications of the UKW algorithm that scope to improve its efficiency. This is performed through the utilisation of information from the local characteristics of the data, so as to direct more efficiently the whole clustering procedure. Chapter 6, deals with extensions of the algorithm in distributed data bases. For the various assumptions that can be postulated for the nature of the communication environment different algorithms are proposed. In Chapter 7, we consider the case of dynamic databases. In such a non-static environment, an algorithm is developed that draws form the principles of the UKW algorithm, and embodies the dynamic indexing Bkd-tree data structure. Moreover, theoretical results are presented regarding the worst case complexity of the algorithm. Chapter 8, studies the application of clustering algorithms in gene expression data. Besides, it is proposed and evaluated, a hybrid algorithmic scheme that manages to automate the whole procedure of gene selection and clustering. Finally, the presentation of the research work of this dissertation is fulfilled in Chapter 9. This Chapter is devoted to the development of hybrid techniques that combine clustering methods and Artificial Neural Networks, and demonstrate their abilities in two real world problems.
13

Επίδραση τεχνικών μείωσης θορύβου στην τμηματοποίηση πνευμονικών πεδίων στην υπολογιστική τομογραφία / Evaluating the effect of image denoising in lung field segmentation algorithm in computed tomography

Αρκούδη, Μαρία 26 July 2013 (has links)
Η υπολογιστική τομογραφία θώρακος αποτελεί την απεικονιστική τεχνική επιλογής για την διάγνωση και την ποσοτικοποίηση των διάμεσων νοσημάτων του πνεύμονα (1). Η διάγνωση όμως τέτοιων παθολογιών χαρακτηρίζεται από μεγάλη ένδο- και μεταξύ παρατηρητών μεταβλητότητα λόγω της μη ύπαρξης κριτηρίων του απεικονιστικού προτύπου των παθολογιών καθώς και του μεγάλου όγκου δεδομένων της εξέτασης. Για τον λόγο αυτό στην βιβλιογραφία έχει προταθεί η χρήση συστημάτων αυτόματης ποσοτικοποίησης με σκοπό την ακριβή μέτρηση των παθολογιών η οποία έως σήμερα πραγματοποιείται με ημι-ποσοτικές κλίμακες. Τα συστήματα αυτά λειτουργούν είτε σε επίπεδο τομής (2Δ) είτε σε ολόκληρο των όγκο (3Δ) του πνευμονικού πεδίου. Τα 3Δ συστήματα υπερτερούν τον 2Δ καθώς καλύπτουν το σύνολο του όγκου των πνευμονικών πεδίων περιορίζονται όμως λόγο της μειωμένης ποιότητας εικόνας (2-4). Τα συστήματα ποσοτικοποίησης αποτελούνται (συνήθως) από δύο στάδια προ-επεξεργασίας τα οποία προηγούνται του σταδίου ποσοτικοποίησης των παθολογιών. Τα στάδια προ-επεξεργασίας στοχεύουν στην απομόνωση του πνευμονικού παρεγχύματος. Ειδικότερα στο πρώτο στάδιο πραγματοποιείται απομόνωση των πνευμονικών πεδίων ενώ στο δεύτερο στάδιο πραγματοποιείται η αφαίρεση του αγγειακού δένδρου με αποτέλεσμα την απομόνωση του πενυμονικού πεδίου φυσιολογικού η μη. Η επίδραση των δύο βημάτων προ-επεξεργασίας είναι καθοριστική στην ακρίβεια του συστήματος ποσοτικοποίησης όπως έχει διατυπωθεί στην βιβλιογραφία. Τα συστήματα ποσοτικοποίησης που έχουν προταθεί έως σήμερα υιοθετούν σαν τεχνικές τμηματοποίησης πνευμονικών πεδίων είτε τεχνικές κατωφλίωσης σε συνδυασμό με μορφολογική επεξεργασία (2) είτε συνδυασμό τεχνικών που βασίζονται στην ανάλυση υφής περιοχής (5-8). Στα πλαίσια τμηματοποίησης των πνευμονικών πεδίων έχει προταθεί μια σειρά αλγορίθμων ικανή να τμηματοποίηση πνευμονικά πεδία χωρίς παρουσία παθολογιών ή με την παρουσία μικρών όγκων (οζιδίων) (9-14) ενώ μόλις πρόσφατα προτάθηκαν τεχνικές τμηματοποίησης οι οποίες στοχεύουν στην τμηματοποίηση πνευμονικών πεδίων με παρουσία διάχυτων ασθενειών του πνεύμονα (3) (15). Στην εικόνα 2 παρουσιάζονται τόσο φυσιολογικά όσο και παθολογικά πνευμονικά πεδία. Στην περίπτωση των παθολογικών πνευμονικών πεδίων είναι φανερό πως η τμηματοποίηση υπό την παρουσία προτύπων διάχυτων νοσημάτων δεν είναι «εύκολη αποστολή» καθώς τα πρότυπα της παθολογίας και ο περιβάλλον ιστός μοιράζονται κοινά απεικονιστικά χαρακτηριστικά. Λεπτομερής περιγραφή των αλγορίθμων τμηματοποίησης θα πραγματοποιηθεί στα επόμενα κεφάλαια. Στην υπολογιστική τομογραφία το σήμα (προβολές) που καταγράφεται στους ανιχνευτές χαρακτηρίζεται από παρουσία θορύβου, φαινόμενο που κυρίως οφείλεται στην τυχαιότητα απορρόφησης των φωτονίων στους ανιχνευτές. Ο θόρυβος αυτός γενικότερα αναφέρεται ως κβαντικός θόρυβος. O θόρυβος μέσω της διαδικασίας ανακατασκευής εικόνας κληροδοτείται και στη τελική εικόνα. Ο θόρυβος αυτός μπορεί να μειωθεί είτε αυξάνοντας τα στοιχεία λήψης (υψηλότερη δόση), είτε εφαρμόζοντας τεχνικές ανακατασκευής οι οποίες χρησιμοποιούν πυρήνες εξομάλυνσης (smoothing kernel).΄Όμως, λαμβάνοντας υπόψη τη βασική αρχή ακτινοπροστασίας ALARA (As Low As Reasonable Achievable) τα στοιχεία λήψης πρέπει να είναι όσο το δυνατόν χαμηλότερα. Κάνοντας όμως χρήση του πυρήνα εξομάλυνσης μειώνεται η διακριτική ικανότητα εικόνας. Αυτό φανερώνει ότι η μείωση θορύβου δεν είναι ένα τετριμμένο πρόβλημα. Με εικόνες που χαρακτηρίζονται από υψηλό SNR (σήμα προς θόρυβο) μπορεί να επιτευχθεί ακριβής διάγνωση αλλά και να αξιοποιηθούν στα πλαίσια τεχνικών ανάλυσης εικόνας όπως τεχνικές αντιστοίχισης και τμηματοποίησης [1]. Όπως προαναφέραμε τα 3Δ πρωτόκολλα χαρακτηρίζονται από μειωμένη ποιότητα εικόνας λόγω παρουσίας θορύβου σε σχέση με τα 2Δ πρωτόκολλα υψηλής ανάλυσης Έως τώρα στη βιβλιογραφία έχουν προταθεί πολλές τεχνικές για μείωση θορύβου στην υπολογιστική τομογραφία. Για παράδειγμα έχουν χρησιμοποιηθεί επαναληπτικές τεχνικές ανακατασκευής οι οποίες αποσκοπούν στην μείωση θορύβου, μέσω της βελτιστοποίησης στατιστικών συναρτήσεων [2]-[4]. To βασικό μειονέκτημα αυτών των τεχνικών είναι η υψηλή υπολογιστική πολυπλοκότητα (high computational complexity). Η εφαρμογή αλγορίθμου μείωσης θορύβου μετά την ανακατασκευή εικόνας (post-processing) αποτελεί πρόκληση κυρίως λόγω του χαρακτήρα του θορύβου στην ανακατασκευασμένη εικόνα. Επιπλέον η κατευθυντικότητα του θορύβου λόγω υψηλής απορρόφησης κατά μήκος συγκεκριμένων κατευθύνσεων καθιστά τη διαφοροποίηση μεταξύ δομών και θορύβου ιδιαίτερα πολύπλοκη. Μια πολύ βασική αρχή στην οποία θα πρέπει να υπακούει κάθε τεχνική μείωσης θορύβου που εφαρμόζεται σε ιατρικές εικόνες είναι ότι η κλινική πληροφορία της εικόνας πρέπει να διατηρείται. Οι πιο πρόσφατες τεχνικές που σχετίζονται με την μείωση θορύβου στις ανακατασκευασμένες εικόνες χρησιμοποιούν τεχνικές οι οποίες αφαιρούν το θόρυβο αλλά ταυτόχρονα διατηρούν τις αιχμές της εικόνας (16). Χαρακτηριστικό ιδιαίτερα χρήσιμο στην περίπτωση των περίπλοκων απεικονιστικών προτύπων τις διάχυτης παθολογίας του πνεύμονα όπως το γραμμικό δικτυωτό πρότυπο τις πνευμονικής ίνωσης το οποίο μπορεί να συνυπάρχει με το πρότυπο της θαμβή υάλου το οποίο δεν περιέχει δομές αλλά εύκολα συγχέεται με το φυσιολογικό πνευμονικό παρέγχυμα παρουσία θορύβου. Ανοικτό ζήτημα στην βιβλιογραφία αποτελεί η τμηματοποίηση των πνευμονικών πεδίων, ιδιαίτερα στην περίπτωση όπου η παθολογία επηρεάζει τα όρια αυτών. Οι τεχνικές που έχουν προταθεί έως σήμερα εστιάζουν στην εφαρμογή των αλγορίθμων σε δεδομένα τα οποία έχουν προέλθει από τον ίδιο υπολογιστικό τομογράφο με συγκεκριμένο πρωτόκολλο λήψης. Στις μελέτες αυτές δεν έχει γίνει διερεύνηση της επίδρασης του θορύβου στους αλγορίθμους τμηματοποίησης. Οι αλγόριθμοι μείωσης θορύβου έχουν προταθεί στην βιβλιογραφία έως βήμα προ επεξεργασίας για δεδομένα τα οποία είτε προέρχονται από διαφορετικά κέντρα ή έχουν ληφθεί αξιοποιώντας διαφορετικό πρωτόκολλο. Στην παρούσα μελέτη πραγματοποιήθηκε μελέτη της επίδρασης των τεχνικών μείωσης θορύβου στις τεχνικές τμηματοποίησης σε δεδομένα υπολογιστικής τομογραφίας θώρακος. Στην μελέτη αξιοποιήθηκαν δεδομένα τα όποια ελήφθησαν με πρωτόκολλο λήψης 3D δεδομένων ενώ στα πνευμονικά πεδία υπήρχαν πρότυπα ενδιάμεσης πνευμονοπάθειας. Οι τεχνικές τμηματοποίησης η οποίες αξιοποιήθηκαν ήταν οι k-means, Voxel Classification based, thresholding, MRF και η ΜΕΤΕΤ. Η τεχνική k-means είχε μια παράμετρο των αριθμών κλάσεων στην εικόνα η όποια προέκυψε έπειτα από πειραματικό προσδιορισμό (κ=4). Η τεχνική MRF απαιτούσε τον καθορισμό δυο παραμέτρων, του αριθμού των κλάσεων καθώς και του Β μιας παραμέτρου που καθορίζει την βαρύτητα που παίζει η γειτονία ενός pixel. Στην παρούσα μελέτη χρησιμοποιήθηκε μια σχετικά μεγάλη τιμή προκειμένου να μειωθεί η επίδραση του θορύβου στην τελική τμηματοποίηση. Τέλος η τεχνική ΜΕΤΕΤ περιέχει μια παράμετρο (του αριθμού κλάσεων) η όποια επιλεγεί να είναι κ=4 όπως προτείνεται στην βιβλιογραφία. Για την αξιολόγηση των αλγορίθμων τμηματοποίησης αξιοποιήθηκε η πλειοψηφία των δεικτών τμηματοποίησης που χρησιμοποιούνται στην βιβλιογραφία. Στην μελέτη αυτή χρησιμοποιήθηκαν όλοι οι δείκτες και όχι αποσπασματικά όπως εφαρμόζονται σε διάφορες δημοσιεύσεις. Το δείγμα αληθείας προέκυψε έπειτα από χειροκίνητη τμηματοποίηση 370 τομών από ακτινολόγο με χρόνια εμπειρίας στην ερμηνεία δεδομένων υπολογιστικής τομογραφίας. Για την υλοποίηση της εργασίας σχεδιάστηκε και αναπτύχθηκε στο εργαστήριο Ιατρικής Φυσικής του Πανεπιστήμιου Πατρών κατάλληλη γραφική επιφάνεια διεπαφής η οποία επέτρεπε στην ‘φόρτωση’ των δεδομένων, την τμηματοποίηση των πνευμονικών πεδίων, την εφαρμογή των αλγορίθμων μειώσης θορύβου, την χειροκίνητη τμηματοποίηση του υπολογισμού των δεικτών ακρίβειας και τέλος την αποθήκευση όλων των δεδομένων. Στην βιβλιογραφία έως σήμερα έχουν προταθεί μια σειρά αλγορίθμων τμηματοποίησης πνευμονικών πεδίων οι οποίες στοχεύουν είτε στην τμηματοποίηση υγιών πνευμονικών πεδίων είτε παθολογικών πνευμονικών πεδίων. Ωστόσο όλοι οι αλγόριθμοι εφαρμόζονται σε δεδομένα τα οποία προέρχονται από υπολογιστικούς τομογράφους με συγκεκριμένο πρωτόκολλο χωρίς να γίνεται περαιτέρω μελέτη συμπεριφοράς των αλγορίθμων σε δεδομένα από διαφορετικό πρωτόκολλο λήψης (διαφορετικό επίπεδο θορύβου). Βάση των αποτελεσμάτων τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες η τεχνική ΜΕΤΕΤ έδωσε τα καλύτερα αποτέλεσμα ως προς όλους τους δείκτες εκτός του δείκτη TPF όπου εκεί η μέθοδος k-means έδωσε το καλύτερο αποτέλεσμα. Το γεγονός αυτό μπορούμε να το αποδώσουμε επειδή η τεχνική βασίζεται στην ένταση των επιπέδων του γκρι τμηματοποιεί όλα τα τμήματα με φυσιολογική εμφάνιση άρα συμπίπτει καλύτερα με την τμηματοποίηση του ακτινολόγου χωρίς να εμφανίζει υπερ-τμηματοποίηση. Ο δείκτης TPF αποτελεί το κοινό τμήμα των δυο τμηματοποιήσεων. H στατιστική ανάλυση βάσης του δείκτη ρ που προκύπτει από το student t test ανέδειξε ότι η συμπεριφορά της ΜΕΤΕΤ δεν εμφανίζει στατιστικές σημαντικές διαφορές στις αρχικές όσο και στις επεξεργασμένες εικόνες. Τέλος οι τεχνικές τμηματοποίησης MRF, Thresholding, και Voxel Classification based εμφανίζουν την ίδια συμπεριφορά τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες. / Accurate and automated Lung Field (LF) segmentation in volumetric computed tomography protocols is highly challenged by the presence of pathologies affecting lung borders, also affecting the performance of computer-aided diagnosis (CAD) schemes. In this work, 4 three-dimensional LF segmentation algorithms are evaluated. The 4 algorithms considered are: • k-means based unsupervised segmentation. • Thresholding based segmentation (based on minimum error thresholding proposed by Kittler et al.). • Unsupervised segmentation followed by supervised border refinement. • Markov Random Field based unsupervised segmentation. Further more the algorithms are applied with or without denoising of data as a pre-processing step. Denoising techniques have been proposed to deal with the use of multi-center data i.e. datasets acquired with equipment from different vendors or different protocols. A home developed graphical user interface was used to apply the segmentation algorithms, perform denoising and finally allow for ground truth derivation. Seven quantitative indexes were used including overlap, Dice similarity coefficient, true and false positive fraction, mean distance, root mean square distance and finally distance maximum. Based on the analysis performed, unsupervised segmentation followed by supervised border refinement outperformed all the other methods exploited with respect to all quantitative measures considered except false positive fraction. Additionally the technique was robust against noise levels (performance with or without denoising did not present statistically significant difference). K-means unsupervised segmentation performed better from the other methods with respect to false positive fraction. This can be attributed to under-segmentation occurred since in this study k-means algorithm was based only on gray level information.
14

Υπολογιστική τομογραφία διπλής ενέργειας : Δόση και ποιότητα εικόνας / Dual energy computed tomography : Dose and image quality

Πετρόπουλος, Ανδρέας 26 July 2013 (has links)
Η υπολογιστική τομογραφία διπλής ενέργειας είναι μια σύγχρονη και συνεχώς εξελισσόμενη τεχνική, η οποία ενισχύει την διαφοροποίηση υλικών, βασιζόμενη στις φασματικές τους ιδιότητες. Φασματική απεικόνιση στην υπολογιστική τομογραφία απαιτεί τη χρήση δυο διαφορετικών ενεργειακών φασμάτων, και μπορεί να διαχωρίσει υλικά τα οποία διαφέρουν σημαντικά στον ατομικό τους αριθμό. Για το λόγο αυτό το ιώδιο (Ζ=53), το οποίο χρησιμοποιείται ως σκιαγραφική ουσία, καθώς και το οστό και οι ασβεστώσεις, τα οποία περιέχουν ασβέστιο (Ζ=20) σε μεγάλο ποσοστό, μπορούν να είναι διακριτά από τα υπόλοιπα στοιχεία τα οποία αποτελούν το ανθρώπινο σώμα, όπως υδρογόνο (Ζ=1), οξυγόνο (Ζ=8), άνθρακα (Ζ=6) και άζωτο (Ζ=7), τα οποία είναι υλικά χαμηλού ατομικού αριθμού. Αυτή τη στιγμή υπάρχουν τρεις διαφορετικές τεχνολογίες υπολογιστικής τομογραφίας διπλής ενεργείας. Ο τομογράφος με ανιχνευτή δυο στρωμάτων, ο οποίος χρησιμοποίει μια λυχνία ακτίνων Χ και ένα ανιχνευτή με δύο στρώματα σπινθηρισμού τοποθετημένα το ένα πάνω στο άλλο. Το πάνω στρώμα απορροφά τα μεγαλύτερο μέρος φωτονίων χαμηλής ενέργειας, ενώ το κάτω τα εναπομείναντα φωτόνια υψηλής ενέργειας, κάνοντας λήψη δυο σειρών δεδομένων διαφορετικών ενεργειών ταυτόχρονα. Η δεύτερη τεχνολογική προσέγγιση είναι μέσω ταχύτατης εναλλαγής της τάσης της λυχνίας. Με αυτό τον τρόπο γίνεται λήψη δυο σειρών δεδομένων διαφορετικών ενεργειών, μεταβάλλοντας τη τάση της λυχνίας από χαμηλή σε υψηλή μέσα σε μια μόνο περιστροφή. Τέλος ο τρίτος υπολογιστικός τομογράφος διπλής ενεργείας, ο οποίος χρησιμοποιείται και σε αυτή τη μελέτη, είναι ο τομογράφος δύο λυχνιών, οποίος αποτελείται από δυο λυχνίες ακτίνων Χ και δυο ανιχνευτές. Οι δύο λυχνίες μπορούν να λειτουργήσουν σε διαφορετικά kV ανεξάρτητα η μία από την άλλη, λαμβάνοντας δύο σειρές δεδομένων διαφορετικών ενεργειών ταυτόχρονα. Όταν ο υπολογιστικός τομογράφος δυο λυχνιών χρησιμοποιείται για λήψη εικόνων διπλής ενέργειας, η μια λυχνία λειτουργεί στα 80 kV και η άλλη στα 140 kV. Σε αυτή τη μελέτη εξετάστηκε η συμπεριφορά σε δύο ενέργειες μέσω μια σειράς πειραμάτων, υλικών όπως, πολυμερών ισοδύναμων με μαλακούς ιστούς και οστό, καθώς επίσης, συγκεντρώσεων ιωδίου και ασβεστίου. Χρησιμοποιήθηκαν δυο πρωτόκολλα λήψεων, ένα μιας ενέργειας με λήψεις στα 80, 100, 120, και 140 kV, καθώς και ένα πρωτόκολλο διπλής ενέργειας. Στα πειράματα που πραγματοποιήθηκαν μετρήθηκαν οι αριθμοί CT των υλικών, ο θόρυβος, η αντίθεση και ο λόγος αντίθεσης προς θόρυβο. Επίσης έγινε σύγκριση ως προς τα παραπάνω χαρακτηριστικά ποιότητα εικόνας με βάση τους παραπάνω δείκτες μεταξύ της συμβατικής 120 kV εικόνας και της ανακατασκευασμένης διπλής ενέργειας “virtual 120” kV. Η λεγόμενη “virtual 120” kV, μια αναμεμιγμένη εικόνα, κατασκευασμένη από δυο σειρές δεδομένων διαφορετικών ενεργειών, με γραμμικό συνδυασμό . Επιπλέον διερευνήθηκαν και συγκρίθηκαν ως προς τη ποιότητα εικόνας όλοι οι πιθανοί συνδυασμοί των δυο σειρών δεδομένων ενέργειας. Τα αποτελέσματα έδειξαν ότι μόνο υλικά υψηλού ενεργού ατομικού αριθμού, όπως το οστό και οι υψηλές συγκεντρώσεις ιωδίου 17, 25 και 35 mg/ml, καθώς και ασβεστίου 200, 250 και 300 mg/ml, είχαν ενισχυμένη αντίθεση στα 80 kV. Αξίζει να σημειωθεί ότι για μικρές συγκεντρώσεις ,όπως 1.25, 2.5, 3.5 mg/ml και 45, 83 mg/ml ιωδίου και ασβεστίου αντιστοίχως, η αντίθεση έχει συμπεριφορά μαλακού ιστού. Αντίθετα η τιμή του λόγου αντίθεσης προς θόρυβο δεν είναι όσο υψηλή είναι η τιμή της αντίθεσης. Τα επίπεδα θορύβου της εικόνας στα 80 kV είναι τόσο υψηλά, με αποτέλεσμα οι τιμές του λόγου αντίθεσης προς θόρυβο για όλα τα υλικά υψηλού ατομικού αριθμού να είναι χαμηλότερες στα 80 kV, συγκρινόμενες με τις αντίστοιχες τιμές στις υπόλοιπες τάσεις, παρά το γεγονός ότι η τιμή της αντίθεσης είναι πολύ υψηλή στα 80 kV. Όσο αναφορά τη σύγκριση της 120 kV εικόνας με την λεγόμενη “virtual 120” kV, τα αποτελέσματα των πειραμάτων έδειξαν ότι οι τιμές αντίθεσης του οστού, καθώς επίσης και των συγκεντρώσεων ιωδίου και ασβεστίου, ήταν ισοδύναμες, αλλά η τιμή του λόγου αντίθεσης προς θόρυβο της “virtual 120” kV εικόνας ήταν αρκετά χαμηλότερη σε σχέση με την 120 kV εικόνα. Τέλος το τρίτο πείραμα έδειξε ότι η τιμή της αντίθεσης αυξάνεται όσο αυξάνεται το ποσοστό της 80 kV πληροφορίας στη μεικτή εικόνα, ενώ ο λόγος αντίθεσης προς θόρυβο έχει ένα εύρος συνδυασμών που είναι υψηλός. Συγκεκραμένα οι γραμμικοί συνδυασμοί οι όποιοι είχαν τη μεγαλύτερη τιμή αντιθέσεις προς θόρυβο ήταν οι συντελεστές της 80 kV πληροφορίας από 0.4 έως 0.7. / Dual Energy Computed Tomography (DECT) is an evolving technique, which enhances material differentiation benefiting from the spectral properties of the materials. Spectral CT imaging requires the use of two different energy spectra, and it can distinguish elements, which differ considerably in atomic number. Therefore iodine (Z=53) which is used as contrast agent in CT scans, bone and plaque calcifications which contain calcium (Z=20), can be distinguished from other elements of which the human body consists, such as hydrogen (Z=1), oxygen (Z=8), carbon (Z=6) and nitrogen (Z=7), which are low atomic number elements. Currently there are three technical approaches of dual energy computed tomography. The dual layer detector system, which uses a single x-ray source and a detector with two scintillation layers one on top of one another. The top layer absorbs most of the low energy photons, while the bottom one the remaining high energy photons, acquiring two energy datasets simultaneously. The second technology of dual energy imaging is via fast kVp switching, which acquires two different energy spectra, alternating on a view by view basis between low and high kVp in a single rotation. Finally the third dual energy imaging technique, used in this study, is via the dual source CT system, which contains two x-ray tubes and two detectors. The two tubes can be operated independently at different kV. The dual source CT when it is used for dual energy scan is operated 80 kV/140 kV. Thus two dual energy datasets are acquired simultaneously. In this study the dual energy behavior of soft tissue equivalent materials, bone, iodine and calcium water solutions are examined through a series of experiments. Two acquisition protocols are used, a single energy at 80, 100, 120 and 140 kV, and a dual energy protocol. The CT numbers of these materials, as well as image noise, contrast and contrast to noise ratio are measured. Moreover comparison of these image quality features for standard single energy 120 kV image, which is the convention CT scan, and the “virtual 120” kV image is presented. The “virtual 120” kV is a blended image, reconstructed by the two dual energy datasets in a linear combination of In addition examination of all the possible linear combinations of the two dual energy datasets, and comparison in image quality, is presented. The results showed that only high Zeff materials had enhanced contrast at 80 kV, like bone, and the high iodine and calcium concentrations, such as 17, 25, and 35 mg/ml and 200, 250, and 300 mg/ml respectively. It is noteworthy that for small concentrations, such as 1.25, 2.5, 3.5 mg/ml and 45, 83 mg/ml of iodine and calcium respectively, contrast behavior is like the one of a soft tissue. Contrarily contrast to noise ratio is not as high as contrast at 80 kV. Image noise values at 80 kV are so high that CNR values for all high atomic number materials are lower at 80 kV compared to the ones of other voltages, despite the fact that contrast is very high at 80 kV. As it concerns the comparison of the single energy 120 kV image and the “virtual 120” kV, the results of the experiments showed that contrast values of bone, iodine and calcium concentrations, were equal, but contrast to noise ratio of the “virtual 120” was quite lower compared to the single energy 120 kV. Finally the third experiment showed that contrast values increase as the percentage of the 80 kV datasets increases in the blended image, while contrast to noise ratio has a range in which is higher. Specifically the linear combinations which had the highest CNR values were the ones with weighting factor of the 80 kV starting from 0.4 to 0.7.
15

Αυτόματη μετατροπή από φωνητική σε ορθογραφική γραφή

Ρεντζεπόπουλος, Παναγιώτης 11 September 2009 (has links)
- / -
16

Υπολογιστική συντακτική επεξεργασία κειμένων της νέας ελληνικής γλώσσας βασισμένη σε εμπειρικές μεθόδους

Μίχος, Στέφανος 22 September 2009 (has links)
- / -
17

Monitoring and control of distributed web services on cloud computing infrastructure / Παρακολούθηση και έλεγχος κατανεμημένων δικτυακών υπηρεσιών σε υπολογιστική αρχιτεκτονική νέφους

Δεχουνιώτης, Δημήτριος 26 August 2014 (has links)
This thesis concerns two main research areas of distributed web services deployed on cloud computing infrastructure. The first category is about monitoring of cloud computing infrastructure. In chapter 2 a novel general technique is used to infer relationships between different service components in a data center. This approach relies on a small set of fuzzy rules, produced by a hybrid genetic algorithm with high classification rate. Furthermore, the strength of detected dependencies is measured. Although we do not know the ground truth about relationships in a network, the proposed method mines realistic relationships without having any previous information about network topology and infrastructure. This approach can be a useful monitoring tool for administrators to obtain a clear view of what is happening in the underlying network. Finally, because of the simplicity of our algorithm and the flexibility of FIM, an online approach seems feasible. The second major problem, which is addressed in chapter 3, is the automated resource control of consolidated web applications on cloud computing infrastructure. ACRA is an innovative modeling and controlling technique of distributed services that are co-located on server cluster. The system dynamics are modeled by a group of linear state space models, which cover all the range of workload conditions. Because of the variant workload conditions, there are non-linear term and uncertainties which are modeled by an additive term in the local linear models. Due to the several types of service transactions with varying time and resources demands there are many desired candidate reference values of the SLOs during a day. Due to these requirements and the workload circumstances, we choose the appropriate model and we compute the closest feasible operating point according to several optimization criteria. Then using a set-theoretic technique a state feedback controller is designed that successfully leads and stabilize the system in the region of the equilibrium point. ACRA controller computes a positively invariant set on the state-space, which includes the target set and drives the system trajectories in it. Thus provide stability guarantee and high levels of robustness against system disturbances and nonlinearities. Furthermore we compare ACRA with an MPC and a PI controller and the results are very promising, since our solution outperforms the two other approaches. Secondly, a unified local level modeling and control framework for consolidated web services in a server cluster was presented, which can be a vital element of a holistic distributed control platform. Admission control and resource allocation were addressed as a common decision problem. Stability and constraint satisfaction was guaranteed. A real testbed was built and from a range of examples, in different operating conditions, we can conclude that both the identification scheme and controller provide high level of QoS. A novel component of this approach is the determination of a set of feasible operating (equilibrium) points which allows choosing the appropriate equilibrium point, depending only on what our objectives are, such as maximizing throughput, minimizing consumption or maximizing profit. Evaluation shows that our approach has high performance compared to well-known solutions, such as queuing models and measurement approach of equilibrium points. Both controllers succeed in their main targets respectively to the already proposed studies in literature. Firstly they satisfy the SLA requirements and the constraints of the underlying cloud computing infrastructure. To the best of our knowledge they are the only studies that calculate a set of feasible operating points that ensure system stability. Furthermore they adopt modern control theory and beyond the stability guarantee they introduce new control properties such as positively invariant sets , ultimate boundedness and e- contractive sets. / Στη παρούσα διδακτορική διατριβή δύο ερευνητικά θέματα επιλύονται. Αρχικά αναπτύσσεται μια τεχνική παρακολούθηση της δικτυακής κίνησης με σκοπό την εύρεση λειτουργικών σχέσεων μεταξύ των διάφορων μερών μιας δικτυακής εφαρμογής. Στο δεύτερο μέρος επιλύεται το πρόβλημα της αυτοματοποιημένη διανομής των πόρων σε δικτυακές εφαρμογές που μοιράζονται ένα κοινό περιβάλλον ΥΑΝ ( Υπολογιστική Αρχιτεκτονική Νέφους). Στόχος του πρώτου κεφαλαίου της διατριβής σε σχέση με την υπάρχουσα βιβλιογραφία είναι η δημιουργία ενός εργαλείου ανάλυσης της δικτυακής κίνησης έτσι ώστε να γίνονται κατανοητές οι λειτουργικές σχέσεις μεταξύ μερών των κατανεμημένων δικτυακών υπηρεσιών. Αυτός ο γράφος είναι πρωτεύον εργαλείο για πολλές εργασίες ενός διαχειριστή που εντάσσονται στο πεδίο της ανάλυσης της απόδοσης και της ανάλυσης των αρχικών αιτίων. Για παράδειγμα η ανίχνευση λανθασμένων εγκαταστάσεων ή διαδικτυακών επιθέσεων και ο σχεδιασμός για την επέκταση η μετατροπή των ΥΑΝ υποδομών. Το δεύτερο μέρος της παρούσας διατριβής ασχολείται με το θέμα της αυτοματοποιημένης κατανομής των υπολογιστικών πόρων ενός υπολογιστικού κέντρου ΥΑΝ σε ένα σύνολο εγκατεστημένων δικτυακών εφαρμογών. Η σύγχρονη τεχνολογία της εικονικοποίησης είναι ο κύριος παράγοντας για την «συστέγαση» πολλών κατανεμημένων υπηρεσιών σε υπολογιστικά κέντρα ΥΑΝ. Το ΕΑΚΠ (έλεγχος αποδοχής και κατανομή πόρων) είναι ένα αυτόνομο πλαίσιο μοντελοποίησης και ελέγχου, το οποίο παρέχει ακριβή μοντέλα και λύνει ενοποιημένα τα προβλήματα ΕΑ και ΚΠ των δικτυακών εφαρμογών που είναι συγκεντρωμένες σε υπολογιστικά κέντρα ΥΑΝ. Στόχος του ΕΑΚΠ είναι να μεγιστοποιεί την είσοδο των αιτήσεων των χρηστών στη παρεχόμενη υπηρεσία εκπληρώνοντας παράλληλα και τις προδιαγεγραμμένες απαιτήσεις ΠΥ (Ποιότητα Υπηρεσίας). Ο δεύτερος τοπικός ελεγκτής που παρουσιάζεται σε αυτή τη διατριβή είναι ένα αυτόνομο πλαίσιο μοντελοποίησης και ελέγχου κατανεμημένων δικτυακών εφαρμογών σε περιβάλλον ΥΑΝ, το οποίο λύνει συγχρόνως τα προβλήματα ΕΑ και ΚΠ με ενιαίο τρόπο.
18

Δημιουργία χάρτη βάθους σκηνής σε υπολογιστικά συστήματα παράλληλης επεξεργασίας

Παπαϊωάννου, Μαγδαληνή 12 June 2015 (has links)
Σκοπός της παρούσας εργασίας ήταν η μελέτη της μεθόδου κατασκευής του χάρτη βάθους μιας σκηνής από δύο εικόνες της, οι οποίες προσομοιάζουν την ανθρώπινη διοφθαλμική όραση. Η μέθοδος αναλύθηκε στους βασικούς της αλγορίθμους, και εξετάστηκε κατά πόσο και με ποιόν τρόπο θα μπορούσαν αυτοί να παραλληλοποιηθούν. Το OpenCL framework και η OpenCV βιβλιοθήκη μελετήθηκαν, και βρέθηκαν κατάλληλες και ικανές για την παραλληλοποίηση ενός αλγορίθμου υπολογιστικής όρασης. Με χρήση των παραπάνω υλοποιήθηκαν ενδεικτικά κάποιοι αλγόριθμοι και υπολογίστηκε το σχετικό βάθος των χαρακτηριστικών σημείων των εικόνων. Τέλος έγινε αξιολόγηση των αλγορίθμων ως προς την ταχύτητα και την ποιότητα των αποτελεσμάτων. / The goal of the present thesis was to study a scene's depthmap creation, using a pair of images simulating human binocular vision. At first the whole method was cut down to its elementary algorithms. Then it was examined wether and how could these algorithms be parallelized. OpenCL framework and OpenCV library were found adequate and capable of parallelizing computer vision algorithms, so they were used to implement some indicative algorithms. Finally, the relative depth of image features was calculated via various algorithm combinations, that were then evaluated according to speed and accuracy.
19

Stress-gradient induced migration of polymers in complex geometries / Μετανάστευση πολυμερούς που προκαλείται από τη βαθμίδα των τάσεων σε σύνθετες γεωμετρίες

Τσούκα, Σοφία 08 June 2015 (has links)
We study the flow of a dilute polymer solution in a wavy channel under steady-state flow conditions by employing the non-equilibrium thermodynamics two-fluid model (Mavrantzas-Beris, 1992), allowing for the coupling between polymer concentration and polymer stresses. The resulting highly complex system of partial differential equations describing inhomogeneous transport phenomena in the fluid are solved with an efficient implementation of the mixed finite-element method. We present numerical results for polymer concentration, stress, velocity and fluxes of polymer as a function of the non-dimensional parameters of the problem (the Deborah number , the Peclet number , the Reynolds number , the ratio of the solvent viscosity to the total fluid viscosity , and the constriction ratio of the channel width ). We find that the constricted part of the wall is depleted of polymer, when the polymer diffusion length-scale, expressed by the ratio of / , increases. The migration is more pronounced for macromolecules characterized by longer relaxation times, and takes place towards the expanding part of the channel or towards the centerplane. Migration is also enhanced by the width variability of the channel: the more corrugated the channel, the stronger the transfer of polymer to the centerplane. This increases the spatial extent of polymer depletion near the wall or induces a zone of sharp variation in polymer stress and concentration, which moves away from the channel wall, especially in lower polymer concentration. The development of a polymer-depleted layer smooths out the boundary layer which is known to arise with Boger fluids at the walls of such corrugated channels or tubes and gives rise to an “apparent” slip in the constricted section of the wall and to a very low value of the drag force on the wall. When and where boundary layers arise, they scale as (1/De) for the stresses and as (De⁄Pe)^(1⁄3) for the concentration. / --
20

Αντικεραυνική προστασία κτηρίων μεγάλου ύψους και εφαρμοσμένη υπολογιστική εξομοίωση

Νικολάου, Νικόλας 28 August 2009 (has links)
Σκοπός αυτής της διπλωματικής εργασίας, είναι να παραθέσει τους τρόπους με τους οποίους προστατεύουμε ψηλά κτίρια - κατασκευές από κεραυνικά πλήγματα. Η προστασία των ψηλών κατασκευών είναι εντελώς διαφορετική από την προστασία χαμηλότερων κατασκευών αφού παύουν να ισχύουν οι κανόνες και τα επίπεδα προστασίας για κτίρια μέχρι 60m που ισχύουν στους διεθνείς οργανισμούς και τον Ε.Λ.Ο.Τ. Από τα 60m και πάνω οι συνθήκες είναι πολύ διαφορετικές, γι αυτό το λόγο γίνεται επεξήγηση για όλους τους παράγοντες που επηρεάζουν μια ψηλή κατασκευή όσον αφορά την προστασία της με τη γειωμένη μεταλλική ράβδο του αλεξικέραυνου του Franklin. Επίσης, μέσω της εφαρμοσμένης υπολογιστικής εξομοίωσης γίνεται προσπάθεια να βρεθεί η απόσταση διάσπασης ( stricking distance ) δηλαδή η ακτίνα προστασίας που καλύπτει μια κατασκευή με μέθοδο προστασίας την ακίδα Franklin. Τα αποτελέσματα και τα συμπεράσματα συγκρίνονται με πειραματικές μετρήσεις που έγιναν σε εργαστήριο. Παρακάτω παρατίθενται τα περιεχόμενα του κάθε κεφαλαίου της εν λόγω εργασίας. Στο 2ο κεφάλαιο γίνεται πλήρης ανάλυση για τη φυσική των κεραυνών. Γίνεται κατηγοριοποίηση των φάσεων που εξελίσσονται σε κεραυνό από τη γη μέχρι τα σύννεφα και παρουσιάζεται ο μηχανισμός των ατμοσφαιρικών εκκενώσεων. Ακόμα, γίνεται εξήγηση για τους ανοδικούς συνδετικούς οχετούς και την απόσταση διάσπασης από τα’ αλεξικέραυνα και τους οχετούς καθόδου. Στο 3ο κεφάλαιο αναπτύσσονται οι βασικοί παράμετροι και εξισώσεις που ισχύουν για ψηλά κτίρια όπως η ελάχιστη ακτίνα προστασίας-απόσταση διάσπασης, η ισοδύναμη επιφάνεια, η πιθανότητα της ελάχιστης ακτίνας διάσπασης και ανοδικών leader από τέτοια ψηλά κτίρια, ο επηρεασμός της ακίδας προστασίας και απόστασης διάσπασης από θετικούς κεραυνούς, τη σχέση που έχουν τα ψηλά κτίρια με την απόσταση διάσπασης και την επίδραση των γειτονικών κατασκευών. Ακολούθως, γίνεται περιγραφή της μεθόδου CVM για το χειρισμό ψηλών κατασκευών με επίπεδα και γωνίες προστασίας και πίνακες ρίσκου βασισμένα σε στατιστικές από κεραυνούς. Μετέπειτα, βλέπουμε πως επηρεάζεται η απόσταση διάσπασης από τη γεωμετρία της κατασκευής, από την γεωμετρία της ακίδας προστασίας Franklin, αλλά και από τη βέλτιστη ακτίνα κορυφής της ακίδας προστασίας Franklin. Στο 4ο κεφάλαιο γίνεται προσπάθεια να προσδιορίσουμε τη ζώνη προστασίας με τη χρήση υπολογιστικού μοντέλου. Αρχικά, αναφέρουμε κάποια στοχαστικά μοντέλα διάσπασης διηλεκτρικών. Μετά προχωρούμε στην περιγραφή με λεπτομέρεια των υπολογιστικών εξομοιώσεων που πραγματοποιήσαμε και την τακτική επεξεργασίας τους. Ακολούθως, προσδιορίσαμε τη ζώνη προστασίας των εξομοιώσεων για ύψος ακίδας 80cm και 100cm με γραμμικές εξισώσεις από προσαρμογή των μετρήσεων στις γραφικές παραστάσεις που δείχνουμε και αντίστοιχα στοιχεία για τις δυο ακίδες με αύξηση της τάσης 10%. Στο τέλος γίνεται επεξεργασία των δεδομένων και συγκρίνουμε τις μετρήσεις που βρήκαμε μεταξύ τους αλλά και με άλλους μελετητές. Αναφέρουμε τα αποτελέσματα της διεξαγωγής των υπολογιστικών εξομοιώσεων και τα συμπεράσματα. Στο 5ο κεφάλαιο κάνουμε ανακεφαλαίωση των θεωρητικών στοιχείων που ισχύουν για τις ψηλές κατασκευές και γενική συζήτηση. Επίσης εξάγονται χρήσιμα συμπεράσματα από τις υπολογιστικές εξομοιώσεις που πραγματοποιήθηκαν τόσο για την απόσταση διάσπασης όσο και για τις εξομοιώσεις που πραγματοποιήσαμε / The purpose of this project is to set out the possible ways that protect tall structures from lightning strikes. The protection of the tall structures is a completely different task from the protection of the shorter structures. That is because the rules and the protection levels applied by National Organizations (International Committee) and Ε.Λ.Ο.Τ. that concern structures to 60 meters, cease to exist in the case of taller structures. Concerning the structures that are taller than 60 meters the protection circumstances are very different from those of shorter structures. That is why this thesis explain all the factors that affect a tall structure, as far as its protection with the “Franklin Rod” is concerned. Furthermore, through computer simulation the author attempted to determine the striking distance, which is the protection radius that covers a structure, by utilizing as a method of protection the Franklin Rod. The results and conclusions that arose were compared with experimental measurements that took place in the lab. Below, the content of each chapter of this thesis is described. In the second chapter it is attempted a thorough analysis of the nature of lightning. Then there is a categorization of the phases that evolve to a lightning, from the ground to the clouds. The mechanism of atmospheric evacuation is also presented. Moreover, the upward connection leaders, the striking distance from the lightning rods and the downward leaders are described and explained. In the third chapter, the basic parameters and equations that apply to tall buildings are described. Some of these parameters are the attractive radius, the striking distance, the equivalent exposure area, the weighted average attractive area, the upward leaders from such tall buildings, the influence of the Franklin rod, the striking distance from positive flashes, the relation that the tall structures have with the striking distance and finally the influence of the surrounding structures. In addition, the CVM (Collection Volume Method) is described which deals with tall structures by utilizing protection levels and derating angles and risk analysis tables based on lightning’s statistics. Moreover, we see how the striking distance is affected by the structure geometry, by the geometry of the Franklin rod but also by the optimum tip radius of Franklin rod. In the fourth chapter the author attempted to determine the protection zone by using a computer model. Firstly, some stochastic models of dielectric breakdown are described. Furthermore, a detailed description of the computer simulations that we accomplished and the method of processing them are described. Moreover, the author determined the protection zone of the simulations for rod height: 80cm and 100cm with linear equations, by using measurement fitting to graphs where we show the respective elements for the two rods by raising 10 % of the Volts of the measurement. In the end, the data were processed and a comparison of this thesis’ findings and that of other authors were compared. The author also describes the results of the computer simulations and the conclusions that arose. In the fifth chapter the author revised the theoretical elements that apply to the tall structures and makes reflections on the findings. Moreover, useful conclusions arise from computer simulations that took place as far as the striking distance as well as the simulation is concerned.

Page generated in 0.029 seconds