• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 5
  • 1
  • Tagged with
  • 61
  • 54
  • 13
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Optimization of magnification mammography using Monte Carlo simulation techniques / Βελτιστοποίηση μεγεθυντικών λήψεων στη μαστογραφία με χρήση τεχνικών προσομοίωσης Monte Carlo

Κουταλώνης, Ματθαίος 14 October 2008 (has links)
Στα πλαίσια της συγκεκριμενης διδακτορικής διατριβής, δύο μοντέλα προσομοίωσης Monte Carlo επεκτάθηκαν ώστε να συμπεριλάβουν γεωμετρίες μεγέθυνσης και διάφορες περιεκτικότητες μαστού σε μαζικό αδένα, και χρησιμοποιήθηκαν με σκοπό τη βελτιστοποίηση των μεγεθυντικών λήψεων στη μαστογραφία. Με τα μοντέλα αυτά έγιναν δοσιμετρικές μελέτες, καθώς επίσης και μελέτες για την ποιότητα εικόνας. Πιο συγκεκριμένα, η δοση στο μαζικό αδένα του μαστού, η οποία συνδέεται άμεσα με την πιθανότητα καρκινογέννεσης κατά τη διάρκεια της μαστογραφίας, βρέθηκε να αυξάνει με το βαθμό μεγέθυνσης κυρίως λόγω του νόμου αντιστρόφου τετραγώνου της απόστασης. Ο λόγος αντίθεσης προς το θόρυβο επίσης αυξάνει με το βαθμό μεγέθυνσης. Ωστόσο, ο ρυθμός αύξησης είναι μεγαλύτερος για μεγέθυνση μέχρι 1.4. Με την εισαγωγή ενός δείκτη απόδοσης ο οποίος είναι συνάρτηση του επιθυμητού κέρδους (εκφραζόμενο από το CNRν) και του κόστους (εκφραζόμενο από τη δόση) διάφορες παράμετροι έκθεσης (βαθμός μεγέθυνσης και φάσμα) αποτιμήθηκαν υπό συνθήκες μεγέθυνσης. Ο βαθμός μεγέθυνσης 1.3 βρέθηκε να έχει την καλύτερη απόδοσηγια όλους τους συνδυασμούς υλικών ανόδου/φίλτρου που μελετήθηκαν. Διάφοροι συνδυασμοί όπως οι W/0.050mmAl, Rh/0.51mmAl, W/0.030mmRh, Rh/0.029mmRh, Rh/0.030mmRu και Mo/0.029mmRh θα μπορούσαν να ανταγωνιστούν το Mo/0.030mmMo σε γεωμετρίες επαφής. Ωστόσο, όταν εφαρμόζεται η τεχνική της μεγέθυνσης και ειδικά βαθμός μεγαλύτερος από 1.3, το Mo/0.030mmMo έχει τη μεγαλύτερη συνολική απόδοση μεταξύ των συνδυασμών που μελετήθηκαν. Επιπλεον, μελετήθηκε η επίδραση του μεγέθους της εστίας και της κατανομής εκπεμπόμενης ακτινοβολίας ακτίων-χ στη χωρική διακριτική ικανότητα υπό συνθήκες μεγέθυνσης, χρησιμοποιώντας τη μέθοδο της αιχμής. Εστίες μεγαλύτερες από 0.12 mm θα έπρεπε να χρησιμοποιούνται μόνο για προληπτικές μαστογραφίες, ειδικά όταν συνδυάζονται με ομοιόμορφες ή κανονικές κατανομές διπλής κορυφής. Εστίες των 0.04 mm ή και ακόμα μικρότερες, συνδυασμένες με κανονικές κατανομές μονής κορυφής και μικρής τυπικής απόκλισης οδηγούν σε αποδεκτές τιμές διακριτικής ικανότητας με βάση τους διεθνείς κανονισμούς, ακόμα και σε μεγάλους βαθμούς μεγέθυνσης. Τέλος, βρέθηκε ότι η διακριτική ικανότητα υποβαθμίζεται με τη μεγέθυνση λόγω της γεωμετρικής ασάφειας. / In the framework of this doctorate thesis, two simulation models based on Monte Carlo were expanded in order to include magnification geometries and various breast compositions, and were utilized aiming to study and optimize the magnification views in mammography. With the use of these models, dosimetric as well as image quality characteristics were evaluated and combined in order to come into conclusions. More specifically, the dose in the glandular tissue of the breast, which is directly associated with the carcinogenic risk during mammography, was found to increase with the degree of magnification, mainly due to the inverse square law. Contrast to Noise Ratio also increases with magnification. However, the increase rate is higher for magnification up to 1.4. With the introduction of a Performance Index, which is a function of the desirable benefit (expressed by the (CNR)ν) and the cost (expressed by the dose), several exposure and design parameters (degree of magnification, spectrum) were evaluated under magnification conditions. Degree of magnification 1.3 was found to have the best overall performance for all the anode/filter combinations considered. Several combinations like W/0.050mmAl, Rh/0.51mmAl, W/0.030mmRh, Rh/0.029mmRh, Rh/0.030mmRu and Mo/0.029mmRh can compete with the Mo/0.030mmMo under contact geometry. However, when magnification is performed and especially degree higher than 1.3, Mo/0.030mmMo has the best overall performance between the anode/filter combinations considered. Moreover, the effect of focal spot size and x-ray intensity distribution on the spatial resolution was studied under magnification, using the edge method. Focal spots larger than 0.12 mm should be utilized only for screening mammography, especially when combined with uniform or double Gaussian intensity distributions. Small focal spots of 0.04 mm or less, combined with Gaussian distribution result in acceptable values of spatial resolution, according to the international regulations, even for high degrees of magnification. Finally, a degradation of the spatial resolution was found with the degree of magnification, which is mainly caused by the geometrical unsharpness.
32

Βελτιστοποίηση σχεδιαστικών παραμέτρων τριφασικής ασύγχρονης μηχανής με τη μέθοδο των πεπερασμένων στοιχείων

Δούβαλη, Αγγελική 15 February 2011 (has links)
Η παρούσα διπλωματική εργασία εκπονήθηκε στο τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών του Πανεπιστημίου Πατρών. Πραγματεύεται τη βελτιστοποίηση των σχεδιαστικών παραμέτρων της τριφασικής ασύγχρονης μηχανής με στόχο την επίτευξη μεγιστοποίησης της ροπής εκκίνησης και ελαχιστοποίησης του ρεύματος εκκίνησης. Μελετήθηκε η σχέση που υπάρχει ανάμεσα στα γεωμετρικά χαρακτηριστικά (διαστάσεις) και στις επιδόσεις και τη γενικότερη λειτουργία της μηχανής. Η σχεδίαση και η παραμετροποίηση του τριφασικού επαγωγικού κινητήρα βραχυκυκλωμένου κλωβού που μελετήθηκε, έγινε μέσω του προγράμματος «Opera» της Vector Fields, το οποίο χρησιμοποιεί τη μέθοδο των πεπερασμένων στοιχείων. Όσον αφορά τη διαδικασία της εύρεσης του βέλτιστου μοντέλου, αυτή πραγματοποιήθηκε με τη βοήθεια του εργαλείου Optimizer που παρέχεται από το πρόγραμμα «Opera». Στη συνέχεια μελετήθηκε και αξιολογήθηκε το αρχικό και το βέλτιστο μοντέλο ώστε να αποκτηθεί σαφής εικόνα για τη λειτουργία τους καθώς επίσης και για τις διαφορές που παρουσιάζουν. Στο πρώτο κεφάλαιο παρουσιάζεται η βελτιστοποίηση σαν έννοια αρχικά και στη συνέχεια περιγράφονται τα βήματα που ακολουθούνται για το σωστό ορισμό ενός προβλήματος βελτιστοποίησης. Γίνεται μια ταξινόμηση των προβλημάτων σύμφωνα με την πολυπλοκότητα, το μέγεθος και την ταχύτητα εύρεσης της λύσης. Επιπλέον, αναφέρονται και αναλύονται οι κυριότερες μέθοδοι βελτιστοποίησης και όσες χρησιμοποιούνται περισσότερο με βάση τη βιβλιογραφία. Στο δεύτερο κεφάλαιο παρουσιάζονται οι βασικές αρχές κατασκευής και λειτουργίας της τριφασικής ασύγχρονης μηχανής. Μέσα από αυτή την ανάλυση προκύπτουν συμπεράσματα για τα πιθανά πεδία λειτουργίας της Α.Μ. στα οποία μπορεί να υπεισέλεθει ζήτημα βελτιστοποίησης. Αναφέρονται και σχολιάζονται για κάθε πεδίο τα μεγέθη και τα φυσικά φαινόμενα που συμμετέχουν. Επίσης, μελετώνται οι σχεδιαστικές παράμετροι του στάτη και του δρομέα που καθορίζουν τη χαρακτηριστική ροπής-στροφών και την απόδοση της μηχανής και οι οποίες στη συνέχεια θα χρησιμοποιηθούν στο δικό μας πρόβλημα. Το τρίτο καφάλαιο, περιγράφει τη διαδικασία παραμετροποίησης του μοντέλου του προς μελέτη τριφασικού ασύγχρονου κινητήρα βραχυκυκλωμένου κλωβού στο πρόγραμμα Opera. Εξηγείται η πορεία σχεδίασης για κάθε «κομμάτι» της μηχανής ξεχωριστά ξεκινώντας από το στάτη, συνεχίζοντας με το δρομέα και τέλος με την εισαγωγή του διακένου. Υπάρχουν επίσης αναφορές σχετικές με την ανάλυση και μετ-επεξεργασία του μοντέλου. Ακόμη, δίνεται ένα τμήμα του αρχείου στο οποίο υπάρχει το παραμετροποιημένο μοντέλο σαν μια πρώτη εικόνα για το πώς αυτό δημιουργήθηκε. Η παραμετροποίηση έγινε κατά το μεγαλύτερο μέρος της στο περιβάλλον εργασίας του Pre and Post Processor του Opera-2D και κατά ένα μικρότερο μέρος γράφτηκε κώδικας. Στο τέταρτο κεφάλαιο καθορίζεται και διατυπώνεται πλέον το πρόβλημα που θα μας απασχολήσει στην παρούσα εργασία. Το κεφάλαιο αυτό αποτελεί έναν πλήρη «οδηγό χρήσης» του εργαλείου Optimizer που χρησιμοποιήθηκε για την εύρεση του βέλτιστου μοντέλου στην περίπτωση που αυτό είναι σχεδιασμένο στις δύο διαστάσεις με τη βοήθεια του προγράμματος Opera-2D. Αναφέρονται με κάθε λεπτομέρεια τα βήματα που ακολουθούνται ώστε να μπορέσει ένα οποιοδήποτε μοντέλο να δοθεί για βελτιστοποίηση στο συγκεκριμένο πρόγραμμα όπως επίσης και τα βήματα για τον ορισμό των αντικειμενικών συναρτήσεων, των σχεδιαστικών παραμέτρων και των περιορισμών στον Optimizer. Υπάρχουν επισημάνσεις και παρατηρήσεις στα σημεία που αντιμετωπίστηκαν οι περισσότερες δυσκολίες και καθυστερήσεις κατά τη διάρκεια εκπόνησης της εργασίας. Τέλος, στο πέμπτο κεφάλαιο παρουσιάζονται τα αποτελέσμα της βελτιστοποίησης, αναλύεται το αρχικό και το βέλτιστο μοντέλο, γίνεται αντιπαραβολή των αποτελεσμάτων, πραγματοποιείται σύγκριση των δύο μοντέλων και τελικά διατυπώνονται τα συμπεράσματα που προκύπτουν. / -
33

Μη γραμμικές μέθοδοι συζυγών κλίσεων για βελτιστοποίηση και εκπαίδευση νευρωνικών δικτύων

Λιβιέρης, Ιωάννης 04 December 2012 (has links)
Η συνεισφορά της παρούσας διατριβής επικεντρώνεται στην ανάπτυξη και στη Μαθηματική θεμελίωση νέων μεθόδων συζυγών κλίσεων για βελτιστοποίηση χωρίς περιορισμούς και στη μελέτη νέων μεθόδων εκπαίδευσης νευρωνικών δικτύων και εφαρμογών τους. Αναπτύσσουμε δύο νέες μεθόδους βελτιστοποίησης, οι οποίες ανήκουν στην κλάση των μεθόδων συζυγών κλίσεων. Οι νέες μέθοδοι βασίζονται σε νέες εξισώσεις της τέμνουσας με ισχυρά θεωρητικά πλεονεκτήματα, όπως η προσέγγιση με μεγαλύτερη ακρίβεια της επιφάνεια της αντικειμενικής συνάρτησης. Επιπλέον, μία σημαντική ιδιότητα και των δύο προτεινόμενων μεθόδων είναι ότι εγγυώνται επαρκή μείωση ανεξάρτητα από την ακρίβεια της γραμμικής αναζήτησης, αποφεύγοντας τις συχνά αναποτελεσματικές επανεκκινήσεις. Επίσης, αποδείξαμε την ολική σύγκλιση των προτεινόμενων μεθόδων για μη κυρτές συναρτήσεις. Με βάση τα αριθμητικά μας αποτελέσματα καταλήγουμε στο συμπέρασμα ότι οι νέες μέθοδοι έχουν πολύ καλή υπολογιστική αποτελεσματικότητα, όπως και καλή ταχύτητα επίλυσης των προβλημάτων, υπερτερώντας σημαντικά των κλασικών μεθόδων συζυγών κλίσεων. Το δεύτερο μέρος της διατριβής είναι αφιερωμένο στην ανάπτυξη και στη μελέτη νέων μεθόδων εκπαίδευσης νευρωνικών δικτύων. Προτείνουμε νέες μεθόδους, οι οποίες διατηρούν τα πλεονεκτήματα των κλασικών μεθόδων συζυγών κλίσεων και εξασφαλίζουν τη δημιουργία κατευθύνσεων μείωσης αποφεύγοντας τις συχνά αναποτελεσματικές επανεκκινήσεις. Επιπλέον, αποδείξαμε ότι οι προτεινόμενες μέθοδοι συγκλίνουν ολικά για μη κυρτές συναρτήσεις. Τα αριθμητικά αποτελέσματα επαληθεύουν ότι οι προτεινόμενες μέθοδοι παρέχουν γρήγορη, σταθερότερη και πιο αξιόπιστη σύγκλιση, υπερτερώντας των κλασικών μεθόδων εκπαίδευσης. Η παρουσίαση του ερευνητικού μέρους της διατριβής ολοκληρώνεται με μία νέα μέθοδο εκπαίδευσης νευρωνικών δικτύων, η οποία βασίζεται σε μία καμπυλόγραμμη αναζήτηση. Η μέθοδος χρησιμοποιεί τη BFGS ενημέρωση ελάχιστης μνήμης για τον υπολογισμό των κατευθύνσεων μείωσης, η οποία αντλεί πληροφορία από την ιδιοσύνθεση του προσεγγιστικού Eσσιανού πίνακα, αποφεύγοντας οποιαδήποτε αποθήκευση ή παραγοντοποίηση πίνακα, έτσι ώστε η μέθοδος να μπορεί να εφαρμοστεί για την εκπαίδευση νευρωνικών δικτύων μεγάλης κλίμακας. Ο αλγόριθμος εφαρμόζεται σε προβλήματα από το πεδίο της τεχνητής νοημοσύνης και της βιοπληροφορικής καταγράφοντας πολύ καλά αποτελέσματα. Επίσης, με σκοπό την αύξηση της ικανότητας γενίκευσης των εκπαιδευόμενων δικτύων διερευνήσαμε πειραματικά και αξιολογήσαμε την εφαρμογή τεχνικών μείωσης της διάστασης δεδομένων στην απόδοση της γενίκευσης των τεχνητών νευρωνικών δικτύων σε μεγάλης κλίμακας δεδομένα βιοϊατρικής. / The contribution of this thesis focuses on the development and the Mathematical foundation of new conjugate gradient methods for unconstrained optimization and on the study of new neural network training methods and their applications. We propose two new conjugate gradient methods for unconstrained optimization. The proposed methods are based on new secant equations with strong theoretical advantages i.e. they approximate the surface of the objective function with higher accuracy. Moreover, they have the attractive property of ensuring sufficient descent independent of the accuracy of the line search, avoiding thereby the usual inefficient restarts. Further, we have established the global convergence of the proposed methods for general functions under mild conditions. Based on our numerical results we conclude that our proposed methods outperform classical conjugate gradient methods in both efficiency and robustness. The second part of the thesis is devoted on the study and development of new neural network training algorithms. More specifically, we propose some new training methods which preserve the advantages of classical conjugate gradient methods while simultaneously ensure sufficient descent using any line search, avoiding thereby the usual inefficient restarts. Moreover, we have established the global convergence of our proposed methods for general functions. Encouraging numerical experiments on famous benchmarks verify that the presented methods provide fast, stable and reliable convergence, outperforming classical training methods. Finally, the presentation of the research work of this dissertation is fulfilled with the presentation of a new curvilinear algorithm for training large neural networks which is based on the analysis of the eigenstructure of the memoryless BFGS matrices. The proposed method preserves the strong convergence properties provided by the quasi-Newton direction while simultaneously it exploits the nonconvexity of the error surface through the computation of the negative curvature direction without using any storage and matrix factorization. Our numerical experiments have shown that the proposed method outperforms other popular training methods on famous benchmarks. Furthermore, for improving the generalization capability of trained ANNs, we explore the incorporation of several dimensionality reduction techniques as a pre-processing step. To this end, we have experimentally evaluated the application of dimensional reduction techniques for increasing the generalization capability of neural network in large biomedical datasets.
34

Ανάπτυξη και θεμελίωση νέων μεθόδων υπολογιστικής νοημοσύνης, ευφυούς βελτιστοποίησης και εφαρμογές / Development and foundation of new methods of computational intelligence, intelligent optimization and applications

Επιτροπάκης, Μιχαήλ 17 July 2014 (has links)
Η παρούσα διατριβή ασχολείται με τη μελέτη, την ανάπτυξη και τη θεμελίωση νέων μεθόδων Υπολογιστικής Νοημοσύνης και Ευφυούς Βελτιστοποίησης. Συνοπτικά οργανώνεται στα ακόλουθα τρία μέρη: Αρχικά παρουσιάζεται το πεδίο της Υπολογιστικής Νοημοσύνης και πραγματοποιείται μία σύντομη αναφορά στους τρεις κύριους κλάδους της, τον Εξελικτικό Υπολογισμό, τα Τεχνητά Νευρωνικά Δίκτυα και τα Ασαφή Συστήματα. Το επόμενο μέρος αφιερώνεται στην παρουσίαση νέων, καινοτόμων οικογενειών των αλγορίθμων Βελτιστοποίησης Σμήνους Σωματιδίων (ΒΣΣ) και των Διαφοροεξελικτικών Αλγόριθμων (ΔΕΑ), για την επίλυση αριθμητικών προβλημάτων βελτιστοποίησης χωρίς περιορισμούς, έχοντας είτε ένα, είτε πολλαπλούς ολικούς βελτιστοποιητές. Οι αλγόριθμοι ΒΣΣ και ΔΕΑ αποτελούν τις βασικές μεθοδολογίες της παρούσας διατριβής. Όλες οι οικογένειες μεθόδων που προτείνονται, βασίζονται σε παρατηρήσεις των κοινών δομικών χαρακτηριστικών των ΒΣΣ και ΔΕΑ, ενώ η κάθε προτεινόμενη οικογένεια τις αξιοποιεί με διαφορετικό τρόπο, δημιουργώντας νέες, αποδοτικές μεθόδους με αρκετά ενδιαφέρουσες ιδιότητες και δυναμική. Η παρουσίαση του ερευνητικού έργου της διατριβής ολοκληρώνεται με το τρίτο μέρος στο οποίο περιλαμβάνεται μελέτη και ανάπτυξη μεθόδων ολικής βελτιστοποίησης για την εκπαίδευση Τεχνητών Νευρωνικών Δικτύων Υψηλής Τάξης, σε σειριακά και παράλληλα ή / και κατανεμημένα υπολογιστικά συστήματα. Η διδακτορική διατριβή ολοκληρώνεται με βασικά συμπεράσματα και τη συνεισφορά της. / The main subject of the thesis at hand revolves mainly around the development and foundations of new methods of computational intelligence and intelligent optimization. The thesis is organized into the following three parts: Firstly, we briefly present an overview of the field of Computational Intelligence, by describing its main categories, the Evolutionary Computation, the Artificial Neural Networks and the Fuzzy Systems. In the second part, we provide a detailed description of the newly developed families of algorithms for solving unconstrained numerical optimization problems in continues spaces with at least one global optimum. The proposed families are based on two well-known and widely used algorithms, namely the Particle Swarm Optimization (PSO) and the Differential Evolution (DE) algorithm. Both DE and PSO are the basic components for almost all methodologies proposed in the thesis. The proposed methodologies are based on common observations of the dynamics, the structural and the spacial characteristics of DE and PSO algorithms. Four novel families are presented in this part which exploit the aforementioned characteristics of the DE and the PSO algorithms. The proposed methodologies are efficient methods with quite interesting properties and dynamics. The presentation and description of our research contribution ends with the third and last part of the thesis, which includes the study and the development of novel global optimization methodologies for training Higher order Artificial Neural Networks in serial and parallel / distributed computational environments. The thesis ends with a brief summary, conclusions and discussion of the contribution of this thesis.
35

Ακέραιος προγραμματισμός

Ρεντζή, Ρωμαλέα 06 November 2014 (has links)
Ο Ακέραιος Προγραμματισμός είναι κλάδος του Γραμμικού Μαθηματικού Προγραμματισμού, και αποτελεί τμήμα της συνδιαστικής βελτιστοποίησης. Στόχος της χρήσης του είναι η βελτιστοποίηση συστημάτων παραγωγής ή διοίκησης. Ο Ακέραιος Προγραμματισμός χρησιμοποιείται για την επίλυση πρακτικών προβλημάτων, όπως: • Χρονοδιαγράμματα (Scheduling) • Σχεδιασμός παραγωγής • Παράλληλη εκτέλεση εργασιών • Τηλεπικοινωνίες Μπορεί να φαίνεται ότι τα προβλήματα ακεραίου προγραμματισμού είναι εύκολο να λυθούν. Παρ’όλ’αυτά, κάτι τέτοιο δεν ισχύει, διότι οι αστρονομικά μεγάλοι ακέραιοι αριθμοί, καθώς επίσης και η στρογγυλοποίηση και αφαίρεση μη ακεραίων λύσεων από ένα πρόβλημα γραμμικού προγραμματισμού οδηγούν σε προβλήματα και λανθασμένα συμπεράσματα. Οι κυριότερες τεχνικές Ακεραίου Προγραμματισμού είναι οι εξής: • Μέθοδος κλάδου και φραγής (Branch and Bound) • Τεχνικές περιορισμού του εφικτού χώρου (Cutting Planes) • Μέθοδοι απαρίθμησης • Διαμεριστικοί αλγόριθμοι • Αλγόριθμοι βασισμένοι στη θεωρία ομάδων (Gomory) Η προπτυχιακή αυτή διπλωματική εργασία έχει στόχο να παρουσιάσει δύο από αυτές τις τεχνικές λεπτομερώς, την μέθοδο κλάδου και φραγής και τεχνικές περιορισμού του εφικτού χώρου, και να κάνει κατανοητή τη χρησιμότητα των αλγορίθμων αυτών μέσα από παραδείγματα που αφορούν προβλήματα ακέραιου προγραμματισμού. / Integer Programming is a branch of Linear Mathematical Programming, and is part of the combinatorial optimization. The purpose of using the system optimization of production or administration. The Integer Programming is used to solve practical problems, such as: • Timelines (Scheduling) • Production Design • Parallel execution of works • Telecommunications It may seem that the integer programming problems are easy to solve. However, this is not true, because the astronomically large integers, as well as rounding and removing non-integer solutions of a linear programming problem lead to problems and false conclusions. The main technical Integer Programming are: • branch and bound method (Branch and Bound) • Technical limitations of feasible region (Cutting Planes) • Methods of enumeration • Diameristikoi algorithms • Algorithms based on the theory of groups (Gomory) Undergraduate this thesis aims to present two of these techniques in detail, the branch and bound method and techniques to reduce the feasible region, and make understandable the usefulness of these algorithms through examples involving integer programming problems.
36

Βελτιστοποίηση πλάνου θεραπείας στο μαστό: Field in a Field (FiF) vs. υψηλές ενέργειες φωτονίων / Breast treatment planning optimization: field-in-a-field (FIF) vs. higher photon energies

Γρηγοριάδης, Ηλίας 02 March 2015 (has links)
Ο σκοπός της διπλωματικής εργασίας ήταν η βελτιστοποίηση του πλάνου θεραπείας στο μαστό για τα 2 εφαπτόμενα συνεπίπεδα πεδία ενέργειας 6 MV. Η ανάγκη αυτή πρόκυψε από το γεγονός της εμφάνισης ελλείμματος στην κατανομή της δόσης καθώς όπως φαίνεται και στις παρακάτω εικόνες (στην αξονική και στην οβελιαία τομή) είχαμε ικανοποιητική κάλυψη του CTV στην περιφέρεια του μαστού αλλά στο κέντρο του CTV και σε μεγαλύτερα βάθη όχι. Για την πραγματοποίηση του παραπάνω σκοπού εφαρμόστηκαν 4 τεχνικές ακτινοβόλησης: 1. Δύο εφαπτόμενα συνεπίπεδα πεδία ενέργειας 6 MV, 2. Δύο εφαπτόμενα συνεπίπεδα πεδία ενέργειας 15 MV, 3. Δύο εφαπτόμενα συνεπίπεδα πεδία ενέργειας 6 MV + 1 Field In a Filed (FiF) πεδίο ενέργειας 15 MV και 4. . Δύο εφαπτόμενα συνεπίπεδα πεδία ενέργειας 6 MV + 2 Field In a Filed (FiF) πεδία ενέργειας 15 MV. Η παραπάνω μεθοδολογία εφαρμόστηκε σε πλήθος Ν=100 ασθενών, κατά 95% μεγέθους όγκου Τ1 (έως 2cm) και Τ2 (2-5 cm) και με αριθμό διηθημένων λεμφαδένων Ν<3. Ο υλικοτεχνικός εξοπλισμός που χρησιμοποιήθηκε για την υλοποίηση της εργασίας ήταν: 1. Αξονικός τομογράφος- Simulator Somatom Duo Siemens, 2. Σύστημα διαχείρισης (RVS) ακτινοθεραπευτικού τμήματος ARIA της VARIAN, 3. Σύστημα σχεδιασμού θεραπείας (TPS) Eclipse της VARIAN, 4. Σύστημα κλασσικού εξομοιωτή Aquity της VARIAN και 5. Γραμμικός Επιταχυντής ELEKTA SL 15. Για την στατιστική επεξεργασία των αποτελεσμάτων για πλήθος Ν=100 ασθενών χρησιμοποιήθηκε το πρόγραμμα IBM SPSS (Statistical Package for Social Sciences) έκδοση 20. Η στατιστική επεξεργασία έδειξε ότι μέσος όρος της μέσης δόσης για τις διάφορες τεχνικές ήταν 96.5%, 98.9%, 100.7%, 101.9% για τα 6MV, 15MV, 6MV + 1FIF 15MV και 6MV + 2FIF 15MV, αντίστοιχα. Τα 95% διαστήματα εμπιστοσύνης (Confidence Intervals) ήταν (96.2-96.8), (98.6-99.1), (100.4-100.9), (101.7-102.1) αντίστοιχα. Η ανάλυση έδειξε πως όλες οι ομάδες διέφεραν μεταξύ τους σε επίπεδο στατιστικής σημαντικότητας p < 0.001. Τα αποτελέσματα της εργασίας ήταν ότι η μέση δόση αυξάνεται από μέθοδο σε μέθοδο όπως έδειξε και η στατιστική ανάλυση, ο δείκτης ομοιογένειας μειώνεται αντίστοιχα από μέθοδο σε μέθοδο και αυτό αποτελεί δείγμα βελτίωσης της κατανομής της δόσης. Ακόμα ότι από ένα συγκεκριμένο όγκο του CTV και πάνω η καλύτερη μέθοδος αποδείχτηκε ότι είναι η 6MV + 2FIF 15MV, ενώ από ένα συγκεκριμένο όγκο του CTV και κάτω οι μέθοδοι έχουν περίπου την ίδια αποτελεσματικότητα. Τέλος όσον αφορά τα φυσιολογικά όργανα (organs at risk), τον αντίστοιχο πνεύμονα και την καρδιά, μετρήθηκε το V20 (ο όγκος του οργάνου που λαμβάνει από 2000 cGy και πάνω) και αποδείχτηκε ότι είναι ανεξάρτητο από την τεχνική ακτινοβόλησης. / The purpose of this thesis is to optimize the breast cancer treatment planning for the coplanar tangential fields of 6MV energy. The need for this arose as the dose distribution appears deficient both at the center and deeper in the CTV, as shown in the CT and sagittal images below, whereas the dose is satisfactory distributed at the perimeter of the breast. In order to accomplish that, there were applied 4 radiation techniques: 1. Two coplanar tangential fields of 6MV energy, 2. Two coplanar tangential fields of 15MV energy, 3. Two coplanar tangential fields of 6MV energy with Field in a Field (FiF) of 15MV energy and 4. Two coplanar tangential fields of 6MV energy with two Fields in a Field (FiF’s) of 15MV energy. The method above was applied on 100 patients. 95% of them had T1 tumor (T<2cm), T2 tumor (T=2-5cm) and a number of infiltrated lymph N<3. The equipment that has been used for the materialization of the procedure was: 1. A Computed Tomographer Somatom Duo Siemens, 2. An RVS system of VARIAN, 3. A TPS Eclipse system of VARIAN, 4. A Simulator Aquity of VARIAN and 5. A linear accelerator ELEKTA SL 15. Using the program IBM SPSS 20 (Statistical Package for Social Sciences), for a hundred patients, the statistical analysis showed that the average of the mean dose was 96.5% for the 6MV, 98.9% for the 15MV, 100.7% for the 6MV + 1 FIF of 15MV and 101.9% for the 6MV + 2 FIF of 15MV respectively (95% CI, p<0.001). There was an interaction between CTV size and mean dose, notably for large breasted patients (CTV>750cc). In this particular clinical scenario two 6MV tangential fields with 2 FIFs consistently outperformed the others. Minimum dose was also statistically different among all groups (p<0.05) except for the two FIF-less tangential fields with 6 and 15 MV. Interestingly, minimum dose (%) lacked a dependence on volume size. The result of this procedure was that the mean dose increases from method to method as it was obvious from the statistical analysis. The homogeneity index decreases respectively from method to method which indicates improvement of the dose distribution. It was also proved that, for certain large volumes of CTV the best method was the 6MV with two FIF’s of 15MV energy, whereas for smaller volumes of CTV the other three methods were of the same effectiveness. In conclusion, as far as the organs at risk concern, it has been found that the V20, of the heart and the right or left lung each time, is irrelevant of the technique that has been used each time.
37

A numerical approach for the shape optimization of woven fabric composite structural elements / Αριθμητική μεθοδολογία για την βελτιστοποίηση της γεωμετρίας δομικών στοιχείων από πλεγμένα σύνθετα υλικά

Κουμπιάς, Αντώνιος 14 May 2015 (has links)
In the present thesis a novel numerical approach for the optimization of composite structures fabricated from woven composite materials is developed. The aim is to increase the ultimate strength of the structure while at the same time decreasing its weight. The numerical approach is based on a combination of the numerical algorithm of progressive damage modelling (PDM), along with shape optimization (SO) in an iterative subroutine. PDM, which is comprised of three steps, namely stress analysis, failure analysis and material property degradation, is used to predict the initiation and propagation of failure in the structure. During the phase of SO certain geometrical parameters are varied within limits in order to minimize the stresses that lead the structure to ultimate failure as indicated by PDM results. Finally the resulting geometry is solved with PDM to ensure the enhancement in the ultimate strength and the decrease in ultimate weight. Within the frame of this approach, a new methodology for the numerical modeling and the simulation of mechanical behavior of woven composite materials is proposed. The highly inhomogeneous nature of woven composite materials in the micro-scale is taken under consideration to create accurate representative volume element (RVE) FE models which represent the actual material. Then PDM is used for the simulation of their mechanical response. The calculated properties, in terms of stiffnesses and strengths, are then inserted as inputs in the global FE model of the composite structure. Additionally, the reliability and applicability of a continuum damage model (CDM), in comparison with cohesive zone model (CZM), are assessed in order to use the CDM for the modeling of the adhesive’s mechanical behavior. The mentioned numerical approach is applied in an H-shaped joining element fabricated from two different woven composite materials for the loading case of tension. In the first case NCF composite is used while in the second case the joint is made of 3D fully interlaced weave (FIW) composite. The purpose of the H-shaped element is the joining of two composite plates via the method of adhesive bonding. / Στην παρούσα διατριβή αναπτύχθηκε μια νέα μέθοδος αριθμητικής βελτιστοποίησης δομικών στοιχείων από σύνθετα υλικά με σκοπό την αύξηση της αντοχής τους. Η μέθοδος βασίζεται σε έναν αριθμητικό αλγόριθμο Προοδευτικής Εξέλιξης της Βλάβης (ΠΕΒ) και τη Βελτιστοποίηση Σχήματος (ΒΣ) τα οποία συνδυάζονται σε μια επαναληπτική υπό-ρουτίνα. Στην ΠΕΒ περιλαμβάνονται τα βήματα της ανάλυσης τάσεων, ανάλυσης αστοχίας και υποβάθμιση των ιδιοτήτων των στοιχείων. Η χρησιμότητα της έγκειται στην πρόβλεψη της έναρξης και εξέλιξης της αστοχίας στο δομικό στοιχείο κάτι απαραίτητο για την κατανόηση της μηχανικής συμπεριφοράς. Η ΒΣ έχει ως σκοπό την μεταβολή συγκεκριμένων γεωμετρικών παραμέτρων για να επιτευχθεί ελαχιστοποίηση των κρίσιμών τάσεων που προκύπτουν από τα αποτελέσματα της ΠΕΒ και οδηγούν στην αστοχία του στοιχείου. Παράλληλα, για την μοντελοποίηση και τον υπολογισμό των μηχανικών ιδιοτήτων πρωτότυπων πλεγμένων σύνθετων υλικών προτείνεται καινούργια μια μεθοδολογία η οποία λαμβάνει υπ’ όψιν την υψηλή ανομοιογένεια των υλικών στην μικρό-κλίμακα για να υπολογίσει τις ιδιότητες τους. Η μεθοδολογία εφαρμόστηκε σε ένα νέο συνδετικό στοιχείο σχήματος H κατασκευασμένο από δύο διαφορετικά πλεγμένα σύνθετα υλικά, τα μη πτυχωτά και τα τρισδιάστατα πλεγμένα σύνθετα υλικά, για την περίπτωση του εφελκυσμού. Σκοπός του συνδέσμου είναι η ένωση δύο πλακών από σύνθετα υλικά χρησιμοποιώντας κόλλα. Αρχικά το μοντέλο πεπερασμένων στοιχείων του συνδέσμου δημιουργείται και επιλύεται με την μέθοδο ΠΕΒ. Για την προσομοίωση της μη-γραμμικής συμπεριφοράς της κόλλας αναπτύσσεται ένα δι-γραμμικό μοντέλο. Για την προσομοίωση της πλήρης μηχανικής συμπεριφοράς των μη πτυχωτών και τρισδιάστατα πλεγμένων συνθέτων υλικών, αναπτύσσεται μια διαδικασία η οποία περιλαμβάνει τα βήματα της γεωμετρικής μοντελοποίησης, της κατασκευής του μοντέλου πεπερασμένων στοιχειών και την επίλυση αυτού με την μέθοδο ΠΕΒ. Τα αποτελέσματα, σε όρους διαγραμμάτων τάσεων-παραμορφώσεων, χρησιμοποιούνται ως δεδομένα στο μοντέλο πεπερασμένων στοιχείων του συνδέσμου το οποίο επιλύεται και υπολογίζεται το διάγραμμα δύναμης-μετατόπισης. Στην συνέχεια, λαμβάνει μέρος η γεωμετρική βελτιστοποίηση βασιζόμενη στα αποτελέσματα της επίλυσης της αρχικής γεωμετρίας. Σε αυτό το σημείο επιλέγεται η μεταβλητή προς ελαχιστοποίηση στην διαδικασία της βελτιστοποίησης. Το μέγεθος αυτό ονομάζεται Συνάρτηση Σκοπού (ΣΣ) και ορίζεται ως ο συντελεστή βλάβης που ευθύνεται για την τελική αστοχία του δομικού στοιχείου. Ως ένα επιπλέον κριτήριο για την επιλογή της βέλτιστης γεωμετρίας επιλέγεται η μείωση βάρους δεδομένου ότι πρόκειται για αεροπορική κατασκευή. Η γεωμετρία που ελαχιστοποιεί την συνάρτηση σκοπού και ταυτόχρονα είναι ελαφρύτερη από την αρχική, επιλέγεται ως η τελική γεωμετρία. Τέλος, γίνεται η επιτυχής επικύρωση της βελτιστοποίησης με την σύγκριση των αριθμητικών αποτελεσμάτων μεταξύ της αρχικής και τελικής γεωμετρίας. Η μεθοδολογία της ΠΕΒ εφαρμόζεται στην τελική γεωμετρία και τα διαγράμματα δύναμης μετατόπισης συγκρίνονται για να διαπιστωθεί η αύξηση στο μέγιστο φορτίο που μπορεί να φέρει το συνδετικό στοιχείο πριν την τελική αστοχία.
38

Βελτιστοποίηση διεργασιών μορφοποίησης θερμοπλαστικών σύνθετων υλικών

Κατσιρόπουλος, Χρήστος 13 January 2009 (has links)
Κατά την εκπόνηση της παρούσας διδακτορικής διατριβής αναπτύχθηκε μία γενικευμένη μεθοδολογία βελτιστοποίησης των διεργασιών που χρησιμοποιούνται για την παραγωγή, μορφοποίηση και συνένωση κατασκευαστικών στοιχείων από σύνθετο υλικό, με κριτήριο την ποιότητα και το κόστος του παραγόμενου προϊόντος. Στην μεθοδολογία που προτείνεται, η διάταξη και τα τεχνολογικά χαρακτηριστικά της μονάδας παραγωγής, μορφοποίησης ή συγκόλλησης των κατασκευαστικών στοιχείων θεωρούνται μεταβλητές. Επομένως, για την βελτιστοποίηση της αντίστοιχης διεργασίας με κριτήρια την ποιότητα και το κόστος του παραγόμενου προϊόντος θεωρούνται ως μεταβλητά μεγέθη τόσο οι τιμές των παραμέτρων της διεργασίας (π.χ. πίεση, θερμοκρασία, χρόνος κλπ.) όσο και η διάταξη και τα τεχνολογικά χαρακτηριστικά της σχετικής μονάδας για την εφαρμογή της διεργασίας (π.χ. διάταξη και τεχνικά χαρακτηριστικά της μονάδας θέρμανσης). Η μεθοδολογία μπορεί να εφαρμοστεί στο σύνολο των διεργασιών που χρησιμοποιούνται στα θερμοπλαστικά σύνθετα υλικά και ευκολότερα σε διεργασίες στις οποίες είναι δυνατή η άμεση επιλογή των παραμέτρων της διεργασίας και η μεταβολή των διατάξεων της χρησιμοποιούμενης συσκευής∙ βασίζεται στην θεώρηση ότι σημαντικός παράγοντας που επηρεάζει το κόστος καθώς και την ποιότητα του παραγόμενου προϊόντος είναι ο κύκλος θέρμανσης που θα επιλεγεί. Η προτεινόμενη μεθοδολογία περιλαμβάνει την πειραματική διερεύνηση της επίδρασης των παραμέτρων της διεργασίας και ειδικότερα του κύκλου θέρμανσης στα προκαθορισμένα χαρακτηριστικά ποιότητας του παραγόμενου προϊόντος (π.χ. κρίσιμες μηχανικές ιδιότητες) καθώς και συσχέτιση των παραπάνω παραμέτρων με το τελικό κόστος παραγωγής, χρησιμοποιώντας την μεθοδολογία της εκτίμησης κόστους με βάση τη δραστηριότητα (Activity Based Costing method). Από την παραπάνω διερεύνηση προκύπτουν οι συναρτήσεις ποιότητας, οι οποίες κυρίως από το υλικό που χρησιμοποιείται, και οι συναρτήσεις εκτίμησης κόστους, οι οποίες εξαρτώνται κυρίως από την διεργασία. Σε κάποιες περιπτώσεις, τα πειραματικά δεδομένα που απαιτούνται για τον προσδιορισμό των παραπάνω συναρτήσεων είναι διαθέσιμα, κυρίως από την βιομηχανία. Για την εφαρμογή της μεθοδολογίας στις περιπτώσεις που δεν είναι διαθέσιμα επαρκή πειραματικά δεδομένα, γίνεται προσομοίωση του κύκλου θέρμανσης με χρήση της μεθόδου των πεπερασμένων στοιχείων, με την βοήθεια της οποίας κατασκευάζονται παραμετρικά μοντέλα, όπου εφαρμόζεται ‘εικονικά’ ένας μεγάλος αριθμός διαφορετικών κύκλων θέρμανσης και υπολογίζονται τα θερμικά μεγέθη που αντιστοιχούν στον καθένα (χρόνος και ρυθμός θέρμανσης, θερμοκρασία υλικού και κατανομή αυτής κλπ.). Τα μεγέθη αυτά αξιοποιούνται στην συνέχεια για τον υπολογισμό των μεγεθών ποιότητας και του κόστους κάνοντας χρήση των Συναρτήσεων Ποιότητας και των Συναρτήσεων Εκτίμησης Κόστους αντίστοιχα. Ο βέλτιστος συνδυασμός των παραμέτρων της διεργασίας και του κύκλου θέρμανσης καθώς και των ορίων που μπορούν να κυμαίνονται αυτά ώστε να ικανοποιείται η απαίτηση για την εξασφάλιση των προκαθορισμένων χαρακτηριστικών ποιότητας με το μικρότερο δυνατό κόστος, προκύπτει μέσω μιας επαναληπτικής διαδικασίας βελτιστοποίησης. Για την εφαρμογή της παραπάνω μεθοδολογίας βελτιστοποίησης αναπτύχθηκε και προτείνεται ένα υπολογιστικό εργαλείο-λογισμικό, το LTSM-OPT (Laboratory of Technology and Strength of Materials Process Optimization Tool). Η προτεινόμενη μεθοδολογία εφαρμόστηκε σε δύο νέες διεργασίες που χρησιμοποιούνται στα θερμοπλαστικά σύνθετα υλικά, την διεργασία ‘ψυχρής’ μορφοποίησης με διάφραγμα (‘cold’ diaphragm forming) και την διεργασία συγκόλλησης με λέιζερ (laser transmission welding). Στο πλαίσιο αυτό, ο κύκλος θέρμανσης, που περιλαμβάνεται και στις δύο υπό εξέταση διεργασίες, προσομοιώθηκε με την βοήθεια πεπερασμένων στοιχείων με σκοπό την ‘εικονική’ εφαρμογή των αντίστοιχων κύκλων θέρμανσης στο υλικό που εξετάστηκε. Στην συνέχεια, χρησιμοποιώντας το λογισμικό LTSM-OPT, προσδιορίστηκαν οι βέλτιστες παράμετροι των παραπάνω διεργασιών και οι αντίστοιχοι κύκλοι θέρμανσης για την παραγωγή του θόλου ελικοπτέρου καθώς και για την συγκόλληση ενισχυτικών δοκών στο εσωτερικό μέρος της ατράκτου αεροσκαφών, αντίστοιχα. Τα αποτελέσματα που προέκυψαν από την εφαρμογή της προτεινόμενης μεθοδολογίας αξιολογήθηκαν και χρησιμοποιήθηκαν από την εταιρεία κατασκευής ελικοπτέρων EUROCOPTER και την εταιρεία κατασκευής αεροσκαφών AIRBUS για την εγκατάσταση μίας νέας μονάδας ‘ψυχρής’ μορφοποίησης με διάφραγμα και την παραγωγή πρωτοτύπων θόλων ελικοπτέρου, καθώς και για την ρύθμιση της διάταξης του υπάρχοντος συστήματος συγκόλλησης με λέιζερ διόδου και την συγκόλληση ενισχυτικών δοκών στην άτρακτο αεροσκαφών, αντίστοιχα. / In the framework of the current PhD thesis, a generic concept for the optimization of manufacturing processes of composite material components with regard to product’s quality and cost is introduced. In the proposed concept the configuration of the manufacturing unit is considered as an option for optimizing families of products with regard to quality and cost. For processes offering flexibility in selecting process features and parameters, the concept can be applied straight forward. The proposed concept relies on the consideration of the processes thermal cycle as essential for both the quality and cost of the produced part. It involves a quality sensitivity analysis based on experimental data, which relates the values of the thermal cycle parameters to predefined quality characteristics (e.g. critical mechanical properties) as well as a cost analysis by relating the parameters of the thermal cycle to cost data using the Activity Based Costing (ABC) methodology. Outcome of the above analyses is the derivation of the material dependent Quality Functions (QFs) along with the derivation of the process dependent Cost Estimation Relationships (CERs). The configuration of the manufacturing unit is considered as an option for optimizing families of products with regard to quality and cost. To achieve this, the heating process has been simulated by developing a parametric Finite Element model, so as to virtually conceive heating units and calculate the corresponding thermal cycles. The latter are exploited to calculate quality and cost values using the derived QFs and CERs. The optimal thermal cycle which leads to minimum cost that satisfies the design and quality requirements, along with the allowable thermal cycle windows, is derived, by involving an iterative optimization procedure. To carry out the optimization procedure a suitable software tool, the LTSM-OPT tool, is developed and introduced. The proposed concept has been applied to optimize the ‘cold’ Diaphragm Forming (CDF) process, as well as, the Laser Transmission Welding process (LTW). The thermal sub-process involved in the processes under consideration is numerically simulated such as to allow for the virtual application of the respective thermal cycle on the material. Using the developed software the features of the CDF heating system and the LTW system configuration along with the optimal thermal cycle for producing a helicopter canopy as well as for welding stiffeners on the aircraft fuselage skin, respectively, were obtained. The results of the first study were successfully exploited by EUROCOPTER to install a new flexible CDF facility and produce helicopter canopies by applying the derived optimal thermal cycle. As well, the results of the latter analysis were successfully exploited by AIRBUS to configure and adapt a laser diode source device to weld stiffeners and riblets to the aircraft fuselage skin, and thus produce integral aeronautic structures, by applying the optimized solution derived from the present study.
39

Στατιστική και υπολογιστική νοημοσύνη

Γεωργίου, Βασίλειος 12 April 2010 (has links)
Η παρούσα διατριβή ασχολείται με τη μελέτη και την ανάπτυξη μοντέλων ταξινόμησης τα οποία βασίζονται στα Πιθανοτικά Νευρωνικά Δίκτυα (ΠΝΔ). Τα προτεινόμενα μοντέλα αναπτύχθηκαν ενσωματώνοντας στατιστικές μεθόδους αλλά και μεθόδους από διάφορα πεδία της Υπολογιστικής Νοημοσύνης (ΥΝ). Συγκεκριμένα, χρησιμοποιήθηκαν οι Διαφοροεξελικτικοί αλγόριθμοι βελτιστοποίησης και η Βελτιστοποίηση με Σμήνος Σωματιδίων (ΒΣΣ) για την αναζήτηση βέλτιστων τιμών των παραμέτρων των ΠΝΔ. Επιπλέον, ενσωματώθηκε η τεχνική bagging για την ανάπτυξη συστάδας μοντέλων ταξινόμησης. Μια άλλη προσέγγιση ήταν η ανάπτυξη ενός Μπεϋζιανού μοντέλου για την εκτίμηση των παραμέτρων του ΠΝΔ χρησιμοποιώντας τον δειγματολήπτη Gibbs. Επίσης, ενσωματώθηκε μια Ασαφή Συνάρτηση Συμμετοχής για την καλύτερη στάθμιση των τεχνητών νευρώνων του ΠΝΔ καθώς και ένα νέο σχήμα διάσπασης του συνόλου εκπαίδευσης σε προβλήματα ταξινόμησης πολλαπλών κλάσεων όταν ο ταξινομητής μπορεί να επιτύχει ταξινόμηση δύο κλάσεων.Τα προτεινόμενα μοντέλα ταξινόμησης εφαρμόστηκαν σε μια σειρά από πραγματικά προβλήματα από διάφορες επιστημονικές περιοχές με ενθαρρυντικά αποτελέσματα. / The present thesis is dealing with the study and the development of classification models that are based on Probabilistic Neural Networks (PNN). The proposed models were developed by the incorporation of statistical methods as well as methods from several fields of Computational Intelligence (CI) into PNNs. In particular, the Differential Evolutionary optimization algorithms and Particle Swarm Optimization algorithms are employed for the search of promising values of PNNs’ parameters. Moreover, the bagging technique was incorporated for the development of an ensemble of classification models. Another approach was the construction of a Bayesian model for the estimation of PNN’s parameters utilizing the Gibbs sampler. Furthermore, a Fuzzy Membership Function was incorporated to achieve an improved weighting of PNN’s neurons. A new decomposition scheme is proposed for multi-class classification problems when a two-class classifier is employed. The proposed classification models were applied to a series of real-world problems from several scientific areas with encouraging results.
40

Μιμιδικοί και εξελικτικοί αλγόριθμοι στην αριθμητική βελτιστοποίηση και στη μη γραμμική δυναμική

Πεταλάς, Ιωάννης 18 September 2008 (has links)
Το κύριο στοιχείο της διατριβής είναι οι Εξελικτικοί Αλγόριθμοι. Στο πρώτο μέρος παρουσιάζονται οι Μιμιδικοί Αλγόριθμοι. Οι Μιμιδικοί Αλγόριθμοι είναι υβριδικά σχήματα που συνδυάζουν τους Εξελιτκικούς Αλγορίθμους με μεθόδους τοπικής αναζήτησης. Οι Μιμιδικοί Αλγόριθμοι συγκρίθηκαν με τους Εξελικτικούς Αλγορίθμους σε πληθώρα προβλημάτων ολικής βελτιστοποίησης και είχαν καλύτερα αποτελέσματα. Στο δεύτερο μέρος μελετήθηκαν προβλήματα μη γραμμικής δυναμικής. Αυτά ήταν η εκτίμηση της περιοχής ευστάθειας διατηρητικών απεικονίσεων, η ανίχνευση συντονισμών και ο υπολογισμός περιοδικών τροχιών. Τα αποτελέσματα ήταν ικανοποιητικά. / The main objective of the thesis was the study of Evolutionary Algorithms. At the first part, Memetic Algorithms were introduced. Memetic Algorithms are hybrid schemes that combine Evolutionary Algorithms and local search methods. Memetic Algorithms were compared to Evolutionary Algorithms in various problems of global optimization and they had better performance. At the second part, problems from nonlinear dynamics were studied. These were the estimation of the stability region of conservative maps, the detection of resonances and the computation of periodic orbits. The results were satisfactory.

Page generated in 0.2836 seconds