1 |
Διορθωμένη - για - κίνδυνο κατάταξη απόδοσης των ελληνικών μετοχικών αμοιβαίων κεφαλαίωνΔημητρακόπουλος, Ιωάννης 30 March 2009 (has links)
Σε αυτήν την έρευνα, κατασκευάσαμε την διορθωμένη για κίνδυνο κατάταξη αποδόσεων για την περίπτωση των ελληνικών μετοχικών αμοιβαίων κεφαλαίων. Η διορθωμένη για κίνδυνο απόδοση μετρά τη ποσότητα του κινδύνου και εκφράζεται γενικά ως αριθμός ή κατάταξη. Οι διορθωμένες για κίνδυνο αποδόσεις εφαρμόζονται σε μεμονωμένα αξιόγραφα, επενδυτικά κεφάλαια και σε χαρτοφυλάκια. Η εμμονή ορίζεται ως ένα φαινόμενο όπου η σχετική (κατάταξη) απόδοση τείνει να επαναλαμβάνεται σε διαδοχικά χρονικά διαστήματα. Εφαρμόσαμε διάφορα τεστ προκειμένου να αξιολογηθεί η παρουσία ή όχι της εμμονής. Τα εμπειρικά αποτελέσματα μας έδειξαν ότι η εμμονή γίνεται πιο αδύναμη σε μακροπρόθεσμο χρονικό ορίζοντα. / In this research we constructed the ranking of the risk adjusted returns in the case of the Greek equity mutual funds market. Risk adjusted returns is a concept that refines an investment's return by measuring how much risk is involved in producing that return, which is generally expressed as a number or rating. Risk-adjusted returns are applied to individual securities and investment funds and portfolios. Persistence is defined as a phenomenon where relative (ranked) performance tends to repeat across successive time intervals. We apply various tests in order to assess the presence or not of persistence. Our analysis documents that persistence becomes weaker as the investment horizon is increased.
|
2 |
Παραμετρική διερεύνηση για το [sic] σχεδιασμό αυτόνομων φωτοβολταϊκών συστημάτων στη Βόρεια ΕλλάδαΒανδώρος, Νικόλαος 30 December 2014 (has links)
Σκοπός της διπλωματική αυτής εργασίας είναι η παραμετρική διερεύνηση ενός αυτόνομου φωτοβολταϊκού συστήματος. Η διερεύνηση αυτή γίνεται για έξι πόλης της Βορείου Ελλάδος με στόχο την εξαγωγή γενικών συμπερασμάτων σχετικά με τον σχεδιασμό αυτόνομων φωτοβολταϊκών συστημάτων.
Πριν προχωρήσουμε στην παραμετρική διερεύνηση, θεωρήθηκε σκόπιμο να μελετήσουμε θεωρητικά τα κυριότερα μέρη ενός φωτοβολταϊκού συστήματος.
Αρχικά, παρατίθεται μια σύντομη Εισαγωγή στην οποία παρουσιάζεται το ενεργειακό, ενώ τονίζεται η σημασία της ανάπτυξης και βελτίωσης ηλεκτροπαραγωγικών μεθόδων βασιζόμενες στις Ανανεώσιμες Πηγές Ενέργειας (Α.Π.Ε.).
Στο κεφάλαιο 1, αναλύεται η αρχή λειτουργίας των ηλιακών κυττάρων. Επιπλέον, γίνεται αναφορά στην εξίσωση, την I-V χαρακτηριστική και την απόδοση των Φ/Β κυττάρων, ενώ αναφέρονται και τα κυριότερα είδη αυτών.
Στο κεφάλαιο 2, αναφερόμαστε στα κύρια δομικά χαρακτηριστικά μιας Φ/Β συστοιχίας, καθώς και στα προβλήματα που αυτή αντιμετωπίζει και την επίλυση αυτών.
Στο κεφάλαιο 3 παρατίθεται η αρχή λειτουργίας καθώς και η δομή των δευτερευόντων συσσωρευτών. Επίσης, ειδική αναφορά γίνεται στους συσσωρευτές Νικελίου-Καδμίου.
Στο κεφάλαιο 4, αναπτύσσεται το μοντέλο το οποίο χρησιμοποιούμε για να μετατρέψουμε τιμές της προσπίπτουσας ηλιακής ακτινοβολίας σε οριζόντια επιφάνεια σε αντίστοιχες τιμές σε κεκλιμένη επιφάνεια.
Στο κεφάλαιο 5, χρησιμοποιούμε το μοντέλο που αναπτύχθηκε στο κεφάλαιο 4 για τον υπολογισμό τιμών της ηλιακής ακτινοβολίας σε κεκλιμένη επιφάνεια, για τις έξι υπό μελέτη πόλεις, χρησιμοποιώντας ως τιμές εισόδου τις τιμές που παρατίθενται στον πίνακα Α.1 (Παράρτημα). Οι τιμές που υπολογίζουμε στο κεφάλαιο αυτό μπορούν να χρησιμοποιηθούν στο σχεδιασμό Φ/Β συστημάτων συνδεδεμένων με το δίκτυο.
Στο κεφάλαιο 6, αναπτύσσεται μια μεθοδολογία υπολογισμού αυτόνομων Φ/Β συστημάτων.
Στα κεφάλαια 7 και 8, χρησιμοποιούμε την μεθοδολογία που αναπτύχθηκε στο προηγούμενο κεφάλαιο για να προσομοιώσουμε την λειτουργία ενός αυτόνομου Φ/Β συστήματος για ετήσια και καλοκαιρινή λειτουργία αντίστοιχα. Μάλιστα, στο κεφάλαιο 8 χρησιμοποιούμε και μια παραλλαγή της βασικής μεθόδου για τη μελέτη της καλοκαιρινής περιόδου λειτουργίας του Φ/Β συστήματος.
Τέλος, στον επίλογο γίνεται μια συνολική αποτίμηση όσων έγιναν στην διπλωματική αυτή εργασία και παρατίθενται κάποια γενικά συμπεράσματα. / This thesis deals with the parametric study of a Stand Alone Photovoltaic System. This study is being conducted in six cities of Northern Greece, for the purpose of extracting general guidelines regarding the design of stand-alone PV systems.
Before we proceed with the study, it is considered useful to study theoretically the main parts of a stand-alone PV system.
We start off with a short introduction in which the global energy problem is being described. Emphasis is also given to the importance of developing energy production methods based on Renewable Energy Sources.
Chapter 1 deals with the working principle of solar cells. Furthermore, we also investigate the equivalent circuit model, the I-V curve and the efficiency of solar cells. Finally, the primary types of solar cells are being demonstrated.
In chapter 2 we study the main parts of a PV array. We also refer to the problems that a PV array faces during its operation, as well as the possible solutions of these problems.
In chapter 3 we refer to the working principles and to the structure of batteries. In particular, we study Nickel-Cadmium batteries.
In chapter 4, the model that is used in order to convert solar radiation values, taken in horizontal surface, to corresponding values taken in inclined surface, is being described.
In chapter 5, we use the model described in chapter 4 in order to calculate values of solar radiation in inclined surface, for the six cities in which this study takes place. The data based on which we calculate the above values are being demonstrated in table A.1 (appendix A). The values calculated in this chapter can be used in the design of a grid connected PV system.
In chapter 6, a methodology used in designing a stand-alone PV system is being described.
In chapters 7 and 8, we use the above methodology in order to simulate the operation of a stand-alone PV system during annual and summer working periods correspondingly. In chapter 8 we also use a slight alteration of the above methodology in order to study the operation of a stand-alone PV system, during a summer working period even further.
Finally, an overall valuation of this thesis is made in the epilogue. Furthermore, some overall conclusions are being presented.
|
3 |
Μέθοδοι μη παραμετρικής παλινδρόμησηςΒαρελάς, Γεώργιος 08 July 2011 (has links)
Ένα πράγμα που θέτει τους στατιστικολόγους πέρα από άλλους επιστήμονες είναι σχετική άγνοια του κοινού γενικά σχετικά με το τι είναι στην πραγματικότητα το πεδίο της στατιστικής. Ο κόσμος έχει μια μικρή γενική ιδέα του τι είναι η χημεία ή η βιολογία — αλλά τι είναι αυτό ακριβώς που κάνουν οι στατιστικολόγοι;
Μία απάντηση στο ερώτημα αυτό έχει ως εξής: στατιστική είναι η επιστήμη που ασχολείται με τη συλλογή, περιληπτική παρουσίαση της πληροφορίας, παρουσίαση και ερμηνεία των δεδομένων. Τα δεδομένα είναι το κλειδί, φυσικά — τα πράγματα από τα οποία εμείς αποκτούμε γνώσεις και βγάζουμε αποφάσεις. Ένας πίνακας δεδομένων παρουσιάζει μια συλλογή έγκυρων δεδομένων, αλλά είναι σαφές ότι είναι εντελώς ανεπαρκής για την σύνοψη ή την ερμηνεία τους.Το πρόβλημα είναι ότι δεν έγιναν παραδοχές σχετικά με τη διαδικασία που δημιούργησε αυτά τα δεδομένα (πιο απλά, η ανάλυση είναι καθαρά μη παραμετρική, υπό την έννοια ότι δεν επιβάλλεται καμία τυπική δομή για τα δεδομένα). Επομένως, καμία πραγματική περίληψη ή σύνοψη δεν είναι δυνατή. Η κλασική προσέγγιση σε αυτή τη δυσκολία είναι να υποθέσουμε ένα παραμετρικό μοντέλο για την υποκείμενη διαδικασία, καθορίζοντας μια συγκεκριμένη φόρμα για την υποκείμενη πυκνότητα. Στη συνέχεια, μπορούν να υπολογιστούν διάφορα στατιστικά στοιχεία και μπορούν να παρουσιαστούν μέσω μιας προσαρμοσμένης πυκνότητας.Δυστυχώς, η ισχύς της παραμετρικής μοντελοποίησης είναι επίσης η αδυναμία της. Συνδέοντας ένα συγκεκριμένο μοντέλο, μπορούμε να έχουμε μεγάλα οφέλη, αλλά μόνο εάν το πρότυπο θεωρείται ότι ισχύει (τουλάχιστον κατά προσέγγιση). Εάν το υποτιθέμενο μοντέλο δεν είναι σωστό, οι αποφάσεις που θα αντλήσουμε από αυτό μπορεί να είναι χειρότερες από άχρηστες, οδηγώντας μας σε παραπλανητικές ερμηνείες των δεδομένων. / A thing that places the statisticians beyond other scientists is relative ignorance of public as generally speaking with regard to what it is in reality the field of statistics. The world does have a small general idea what is chemistry or biology - but what is precisely that statisticians do? An answer in this question has as follows: statistics is the science that deals with the collection, general presentation of information, presentation and interpretation of data. The data are the key, from which we acquire knowledge and make decisions. A table of data presents a collection of valid data, but it is obvious that it is completely insufficient for their synopsis or their interpretation. The problem is that no assumptions have been made about the process that created these data (more simply, the analysis is no parametric, under the significance that is no formal structure is imposed on the data). Consequently, no real summary or synopsis is possible. The classical approach in this difficulty is to assume a parametric model for the underlying process, determining a concrete form for the underlying density. Afterwards, can be calculated various statistical elements and a fitted density can manifest itself. The power of parametric modelling is also its weakness. By linking inference to a specific model, we can have big profits, but only if the model is true. If the assumed model is not correct, the decisions that we will draw from this can be worse than useless, leading us to misleading interpretations of data.
|
4 |
Τεχνικές προκωδικοποίησης συστημάτων ΜΙΜΟ βασισμένες σε οικονομική αναπαράσταση καναλιώνΣταυρίδης, Αθανάσιος 24 October 2008 (has links)
Τα τελευταία χρόνια και κυρίως μετά το 1996 έχει παρουσιαστεί ένα έντονο ενδιαφέρον γύρω από τα ασύρματα συστήματα MIMO (Συστήματα Πολλών Εισόδων και Πολλών Εξόδων). Η βασική αιτία που δημιούργησε αυτό το ενδιαφέρον ήταν η θεωρητική ανάλυση της χωρητικότητας που επιτυγχάνεται με τη χρήση πολλαπλών κεραιών τόσο στο δέκτη όσο και στον πομπό. Ωστόσο πέρα από την αύξηση της χωρητικότητας τα συστήματα MIMΟ έχουν μια σειρά από επιπλέον πλεονεκτήματα, επιτυγχάνουν ανεκτικότητα στην εξασθένιση, αυξάνουν την φασματική αποδοτικότητα, μειώνουν την κατανάλωση ενέργειας καθώς και το κόστος χρήσης και κατασκευής ασύρματων δικτύων. Έχοντας λάβει υπ’ όψιν τα παραπάνω και έχοντας κάνει ήδη μια αρχική έρευνα στο τι υπάρχει στην επιστημονική βιβλιογραφία γύρω από τα συστήματα MIMO, επιλέξαμε να ασχοληθούμε με την συγκεκριμένη τεχνολογία και πιο συγκεκριμένα με την προ-κωδικοποίηση πομπού, όταν τα κανάλια που διαθέτουμε είναι συχνοτικά επιλεκτικά (frequency selective). Το πρόβλημα που μας απασχόλησε είναι η διερεύνηση τεχνικών κωδικοποίησης των δεδομένων του πομπού, πριν αυτά μεταδοθούν, ούτως ώστε να μπορέσει να απλοποιηθεί η σχεδίαση του δέκτη. Στην περίπτωση των συχνοτικά επιλεκτικών καναλιών πέρα από τον πανταχού παρόντα Γκαουσιανό θόρυβο έχουμε να αντιμετωπίσουμε και τη διασυμβολική παρεμβολή (Intersymbol Interference - ISI) . Στόχος μας είναι να μπορέσουμε να μετατοπίσουμε τη διαδικασία της ισοστάθμισης από το δέκτη στον πομπό, όπου, στην περίπτωση που ο πομπός είναι ένας σταθμός βάσης, η δυνατότητα υλοποίησης πολύπλοκων διεργασιών είναι μεγαλύτερη, τόσο μεγαλύτερης ανοχής στην κατανάλωση ενέργειας όσο κυρίως, και στη δυνατότητα χρήσης πολύπλοκου υλικού. Το πρόβλημα που τίθεται στην περίπτωση που η ισοστάθμιση γίνει στην μεριά του πομπού είναι η ποιότητα και η ποσότητα της γνώσης του πραγματικού καναλιού. Είναι σχεδόν αδύνατο ο πομπός να έχει πλήρη γνώση του πραγματικού καναλιού, με αποτέλεσμα να πρέπει να αρκεστεί σε γνώση, που στην καλύτερη περίπτωση προσεγγίζει αυτή του πραγματικού καναλιού. Επίσης, πολλές φορές, η ποσότητα της γνώσης που μπορεί να αποσταλεί από το δέκτη – όταν δεν ισχύει η αρχή της αμοιβαιότητας (reciprocity) – είναι περιορισμένη. Από τα παραπάνω καταλαβαίνουμε ότι θα είχε ενδιαφέρον η μελέτη τεχνικών που παρουσιάζουν ανοχή στην ποιότητα της γνώσης του καναλιού καθώς και η συμπεριφορά τους όταν αυτές διαθέτουν μερική ή και περιορισμένη γνώση του πραγματικού καναλιού. Ένας από τους τρόπου αντιμετώπισης όταν συναντούνται συχνοτικά επιλεκτικά κανάλια είναι η χρήση του OFDM με όσα αρνητικά αυτό συνεπάγεται (π.χ. η δυσκολία συγχρονισμού πομπού και δέκτη). Ένας άλλος τρόπος αντιμετώπισης, στην περίπτωση μονής φέρουσας (single carrier), είναι η χρήση προκωδικοποιητων Bezout. Επιλέξαμε να ασχοληθούμε με αυτόν τον τύπου προκωδικοποίητων. Πιο συγκεκριμένα, όταν ο αριθμός των κεραιών του πομπού είναι μεγαλύτερος από τον αριθμό των κεραιών του δέκτη, είναι δυνατόν να εφαρμόσουμε την ταυτότητα Bezout (Bezout Identity) στην μεριά του δέκτη. Με απλά λόγια θα εφαρμόσουμε ένα προ-ισοσταθμιστή επιβολής μηδενικών (zero forcing). Όπως είναι αναμενόμενο, μιας και ο προκωδικοποιητής εφαρμόζεται στην μεριά του πομπού, πριν εμφανιστεί ο Γκαουσιανός θόρυβος, δεν έχουμε ενίσχυση αυτού του θορύβου, ωστόσο είναι δυνατόν να έχουμε σημαντική αύξηση της μεταδιδόμενης ισχύος. Για να λυθεί αυτό το πρόβλημα έχει προταθεί στη βιβλιογραφία η σχεδίαση προκωδικοποιητών Bezout με την χρήση περιορισμών ισχύος. Αυτό που εμείς μελετήσαμε στην περίπτωση των προκωδικοποιητών Bezout (ή FIR προκωδικοποιητών), είναι η συμπεριφορά τους στην περίπτωση που ο πομπός διαθέτει πλήρη ή μερική γνώση του καναλιού. Είδαμε την περίπτωση του σχεδιασμού ενός FIR προκωδικοποιητή κάτω από τον περιορισμό ισχύος μετάδοσης μέσω της μεθόδου Tikhonov Regularization, ενός σημαντικού εργαλείου επίλυσης του προβλήματος των ελαχίστων τετραγώνων κάτω από τη δι-κριτήριο διατύπωση. Τέλος, προτείναμε δύο FIR σχεδιασμούς προκωδικοποιητών για την περίπτωση που ο πομπός διαθέτει παραμετρική (στατιστική) περιγραφή του καναλιού. / The last years, but mainly after 1996 there is an intensive interest
in MIMO systems. The reason that created this interest was the
capacity that can be achieved by the use of multiple antennas to the
transmitter and to receiver. Furthermore, the use of multiple
antennas has a number of advantages except from the capacity
increase; MIMO can achieve tolerance to fading, spectral efficiency,
increased coverage etc.
By having considered the above information we decided to work with
MIMO systems and especially with precoding techniques for frequency
selective channels. In the case of frequency selective channels
except from the Gaussian noise we have to treat and with intersymbol
interference (ISI) which is an important degradation factor. A very
serious reason to handle intersymbol interference at the transmitter
side - especially when transmitter is a base station - is to
simplify receiver's design. When transmitter is a base station
there is a tolerance in power consuming and in the implementation of
more complicated hardware.
After an extensive bibliographical we concluded to use the theory of
Bezout Identity. In the case where the number of antennas at the
transmitter is greater than the number of antennas at the receiver
it is formed a left-coprime FIR channel. By using the Bezout
identity matrix, it is possible to be designed a FIR MIMO precoder
that reduce intersymbol interference. Bezout precoder
(pre-equalizer) is a zero-forcing (ZF) equalizer. As it is known
from bibliography ZF equalizer has the disadvantage that amplifies
noise power in deep fades. For the case of Bezout precoder it is not
true since there is no noise - noise will appear at the receiver.
But there is another disadvantage, Bezout precoder may increase
transmit power significantly to overcome deep fades in the singular
values of the channel matrix. The solution to the previous
phenomenon can be taken by designing ZF precoders under power
constraints.
The main problem in the case of transmit precoding is the channel
knowledge - when reciprocity principle is not valid. In most cases
it is not possible to have perfect channel knowledge or even the
knowledge that we have may be of bad quality. Another drawback that
appears in the case of frequency selective channels is the amounts
of information (number of bits) that can be send back to the
transmitter - limited feedback. Many works assumed a quasi-static
channel - channel doesn't changes for a number of symbols - and
perfect channel knowledge. In real world this may not be true.
In this master thesis we investigated three things. Firstly, the
behavior of Bezout precoders under channel mismatch at the side of
transmitter. Secondly, ways that will allows us to decrease channel
feedback. And thirdly, which was the most interesting, we proposed
two FIR designs that uses statistical channel knowledge.
|
5 |
Ανάπτυξη αποδοτικών παραμετρικών τεχνικών αντιστοίχισης εικόνων με εφαρμογή στην υπολογιστική όρασηΕυαγγελίδης, Γεώργιος 12 January 2009 (has links)
Μια από τις συνεχώς εξελισσόμενες περιοχές της επιστήμης των υπολογιστών είναι η Υπολογιστική Όραση, σκοπός της οποίας είναι η δημιουργία έξυπνων συστημάτων για την ανάκτηση πληροφοριών από πραγματικές εικόνες. Πολλές σύγχρονες εφαρμογές της υπολογιστικής όρασης βασίζονται στην αντιστοίχιση εικόνων. Την πλειοψηφία των αλγορίθμων αντιστοίχισης συνθέτουν παραμετρικές τεχνικές, σύμφωνα με τις οποίες υιοθετείται ένα παραμετρικό μοντέλο, το οποίο εφαρμοζόμενο στη μια εικόνα δύναται να παρέχει μια προσέγγιση της άλλης. Στο πλαίσιο της διατριβής μελετάται εκτενώς το πρόβλημα της Στερεοσκοπικής Αντιστοίχισης και το γενικό πρόβλημα της Ευθυγράμμισης Εικόνων. Για την αντιμετώπιση του πρώτου προβλήματος προτείνεται ένας τοπικός αλγόριθμος διαφορικής αντιστοίχισης που κάνει χρήση μιας νέας συνάρτησης κόστους, του Τροποποιημένου Συντελεστή Συσχέτισης (ECC), η οποία ενσωματώνει το παραμετρικό μοντέλο μετατόπισης στον κλασικό συντελεστή συσχέτισης. Η ενσωμάτωση αυτή καθιστά τη νέα συνάρτηση κατάλληλη για εκτιμήσεις ανομοιότητας με ακρίβεια μικρότερη από αυτήν του εικονοστοιχείου. Αν και η συνάρτηση αυτή είναι μη γραμμική ως προς την παράμετρο μετατόπισης, το πρόβλημα μεγιστοποίησης έχει κλειστού τύπου λύση με αποτέλεσμα τη μειωμένη πολυπλοκότητα της διαδικασίας της αντιστοίχισης με ακρίβεια υπο-εικονοστοιχείου. Ο προτεινόμενος αλγόριθμος παρέχει ακριβή αποτελέσματα ακόμα και κάτω από μη γραμμικές φωτομετρικές παραμορφώσεις, ενώ η απόδοσή του υπερτερεί έναντι γνωστών στη διεθνή βιβλιογραφία τεχνικών αντιστοίχισης ενώ φαίνεται να είναι απαλλαγμένος από το φαινόμενο pixel locking. Στην περίπτωση του προβλήματος της ευθυγράμμισης εικόνων, η προτεινόμενη συνάρτηση γενικεύεται με αποτέλεσμα τη δυνατότητα χρήσης οποιουδήποτε δισδιάστατου μετασχηματισμού. Η μεγιστοποίησή της, η οποία αποτελεί ένα μη γραμμικό πρόβλημα, επιτυγχάνεται μέσω της επίλυσης μιας ακολουθίας υπο-προβλημάτων βελτιστοποίησης. Σε κάθε επανάληψη επιβάλλεται η μεγιστοποίηση μιας μη γραμμικής συνάρτησης του διανύσματος διορθώσεων των παραμέτρων, η οποία αποδεικνύεται ότι καταλήγει στη λύση ενός γραμμικού συστήματος. Δύο εκδόσεις του σχήματος αυτού προτείνονται: ο αλγόριθμος Forwards Additive ECC (FA-ECC) και o αποδοτικός υπολογιστικά αλγόριθμος Inverse Compositional ECC (IC-ECC). Τα προτεινόμενα σχήματα συγκρίνονται με τα αντίστοιχα (FA-LK και SIC) του αλγόριθμου Lucas-Kanade, ο οποίος αποτελεί σημείο αναφοράς στη σχετική βιβλιογραφία, μέσα από μια σειρά πειραμάτων. Ο αλγόριθμος FA-ECC παρουσιάζει όμοια πολυπλοκότητα με τον ευρέως χρησιμοποιούμενο αλγόριθμο FA-LΚ και παρέχει πιο ακριβή αποτελέσματα ενώ συγκλίνει με αισθητά μεγαλύτερη πιθανότητα και ταχύτητα. Παράλληλα, παρουσιάζεται πιο εύρωστος σε περιπτώσεις παρουσίας προσθετικού θορύβου, φωτομετρικών παραμορφώσεων και υπερ-μοντελοποίησης της γεωμετρικής παραμόρφωσης των εικόνων. Ο αλγόριθμος IC-ECC κάνει χρήση της αντίστροφης λογικής, η οποία στηρίζεται στην αλλαγή των ρόλων των εικόνων αντιστοίχισης και συνδυάζει τον κανόνα ενημέρωσης των παραμέτρων μέσω της σύνθεσης των μετασχηματισμών. Τα δύο αυτά χαρακτηριστικά έχουν ως αποτέλεσμα τη δραστική μείωση του υπολογιστικού κόστους, ακόμα και σε σχέση με τον SIC αλγόριθμο, με τον οποίο βέβαια παρουσιάζει παρόμοια συμπεριφορά. Αν και ο αλγόριθμος FA-ECC γενικά υπερτερεί έναντι των τριών άλλων αλγορίθμων, η επιλογή μεταξύ των δύο προτεινόμενων σχημάτων εξαρτάται από το λόγο μεταξύ ακρίβειας αντιστοίχισης και υπολογιστικού κόστους. / Computer Vision has been recently one of the most active research areas in computer society. Many modern computer vision applications require the solution of the well known image registration problem which consist in finding correspondences between projections of the same scene. The majority of registration algorithms adopt a specific parametric transformation model, which is applied to one image, thus providing an approach of the other one. Towards the solution of the Stereo Correspondence problem, where the goal is the construction of the disparity map, a local differential algorithm is proposed which involves a new similarity criterion, the Enhanced Correlation Coefficient (ECC). This criterion is invariant to linear photometric distortions and results from the incorporation of a single parameter model into the classical correlation coefficient, defining thus a continuous objective function. Although the objective function is non-linear in translation parameter, its maximization results in a closed form solution, saving thus much computational burden. The proposed algorithm provides accurate results even under non-linear photometric distortions and its performance is superior to well known conventional stereo correspondence techniques. In addition, the proposed technique seems not to suffer from pixel locking effect and outperforms even stereo techniques, dedicated to the cancellation of this effect. For the image alignment problem, the maximization of a generalized version of ECC function that incorporates any 2D warp transformation is proposed. Although this function is a highly non-linear function of the warp parameters, an efficient iterative scheme for its maximization is developed. In each iteration of the new scheme, an efficient approximation of the nonlinear objective function is used leading to a closed form solution of low computational complexity. Two different iterative schemes are proposed; the Forwards Additive ECC (FA-ECC) and the Inverse Compositional ECC (IC-ECC) algorithm. Τhe proposed iterative schemes are compared with the corresponding schemes (FA-LK and SIC) of the leading Lucas-Kanade algorithm, through a series of experiments. FA-ECC algorithm makes use of the known additive parameter update rule and its computational cost is similar to the one required by the most widely used FA-LK algorithm. The proposed iterative scheme exhibits increased learning ability, since it converges faster with higher probability. This superiority is retained even in presence of additive noise and photometric distortion, as well as in cases of over-modelling the geometric distortion of the images. On the other hand, IC-ECC algorithm makes use of inverse logic by swapping the role of images and adopts the transformation composition update rule. As a consequence of these two options, the complexity per iteration is drastically reduced and the resulting algorithm constitutes the most computationally efficient scheme than three other above mentioned algorithms. However, empirical learning curves and probability of convergence scores indicate that the proposed algorithm has a similar performance to the one exhibited by SIC. Though FA-ECC seems to be clearly more robust in real situation conditions among all the above mentioned alignment algorithms, the choice between two proposed schemes necessitates a trade-off between accuracy and speed.
|
6 |
Numerical Investigation of Rock Support ArchesRentzelos, Theofanis January 2019 (has links)
The Garpenberg mine, owned by the Boliden Mining group, has established a trial area at Dammsjön orebody in order to examine the possibility of increasing the productivity of the mine. The mine uses the rill mining method with a current rill height of 15 m. In order to increase the productivity, the mine is examining the possibility of increasing the height of the rill. The trial area is located at 882 m depth surrounded by dolomite on the hangingwall and quartzitic rock on the footwall side. Rock support arches have been installed, in addition to the regular support pattern, to test their effectiveness on stabilizing the ground around the drifts. The arches have been installed in every 6 m and every 3 m in different parts of the test area. Rock samples from the trial area were brought to the university laboratory for testing. The data gathered from the laboratory tests along with the data from the monitoring of the trial area were used to develop a calibrated numerical model. A three-dimensional (3-D) model was therefore created, by using the FLAC3D numerical code. After the calibration of the model a parametric study was conducted for different rill heights and different arch spacing to investigate the performance of the arches. Specifically, the case of no arch installation along with the cases of an installed arch every 6 m and 3 m were tested, for the rill heights of 15 m, 20 m, 25 m and 30 m. The study concluded that the arches assisted in reducing the ground convergence in the production drift. The results also showed that the total height of the rill bench yields regardless of its height. After the yielding, the rockmass can no longer support itself and caves under its own weight. The larger the rill height, the larger the volume of loose rock that has to be supported and thus, higher the convergence. Furthermore, it was also observed that, significant amount of convergence in the production drift occurred during the drifting of the top drive and less during the stoping of the rill bench. This indicates that, the timely installation of the arches is an important criterion for their performance.
|
7 |
Electrophysiologιcal study of brain hypoxia / Ηλεκτροφυσιολογική μελέτη της εγκεφαλικής υποξίαςΤσαρούχας, Νικόλαος 24 January 2011 (has links)
The current research work aims at the development of Biomedical Neuroengineering tools (Biotechnologies) for the in-depth functional study, rapid diagnosis, continuous monitoring and well-timed management of acute and chronic brain disorders, of individuals that are subjected to or suffer from any kind of systemic hypoxaemia or more localized brain hypoxia; as well as the functional assessment and continuous control of adaptability during the training of “altinauts” and generally of individuals that practice activities and function within environments of increased visual-cognitive-motor response demands (a type of brain “stress test”). For this purpose, we subject the entire visuocognitive system, from the elementary sensory to the most complex cognitive level, to an experimental test of categorical discrimination of complex visuocognitive stimuli, following ultra-rapid visual stimulation that leads to a motor response upon categorization of targets (images of animals elicit productive responses) and to its suppression upon categorization of nontargets (images of nonanimals elicit inhibitory responses). The oscillatory electro-physiological responses that are concurrently recorded at the occipital-temporal-parietal brain areas are analyzed in the time-domain (<20Hz) and in the joint time-frequency domain broadband (1-60Hz) with the Continuous Wavelet Transform that optimizes the multiresolution analysis of the high frequency (≥20Hz) γ-band oscillatory activity. This visuocognitive categorization test takes place in normoxaemic as well as hypoxaemic conditions (monitored reduction in the blood oxygen saturation from ≥97% to around 80% under conditions of hypobaric hypoxia within a hypobaric chamber), in order to assess electrophysiological markers that can detect and capture in the most sensitive and dynamic way even so transient, short-living and rather mild changes in brain function. The statistical parametric analysis of the time-frequency maps and the generalized, statistically safer, method of analysis of variance have established as the most sensitive and reliable the following markers: the major deflections of the evoked potentials, the phase-coherence factor of the oscillations across single-trials and the elicited energy of the evoked/phase-locked and the induced/total oscillatory activity. These electrophysiological markers in conjunction with psychometric tests allow for the investigation of the stages/levels of the decline as well as of the compensatory reserves in the visual-perceptive and cognitive-mental brain functions in order to determine the functional sensitivity thresholds of different brain functions to hypoxia. They open up the way for the functional characterization, the diagnosis and monitoring of brain insults or other acute and chronic pathological brain conditions. / Η παρούσα ερευνητική εργασία στοχεύει στην ανάπτυξη εργαλείων Βιοϊατρικής Νευρομηχανικής (Βιοτεχνολογίες) για την σε βάθος λειτουργική μελέτη, ταχεία διάγνωση, συνεχή παρακολούθηση και έγκαιρη αντιμετώπιση οξέων και χρόνιων εγκεφαλικών διαταραχών, ατόμων που υπόκεινται σε ή πάσχουν από οιαδήποτε μορφή συστηματικής υποξαιμίας ή πιο εντοπισμένης εγκεφαλικής υποξίας, καθώς και για την λειτουργική αξιολόγηση και το συνεχή έλεγχο της προσαρμοστικότητας κατά την εξάσκηση των «υψιβατών», και γενικότερα ατόμων που ασκούν δραστηριότητες και λειτουργούν μέσα σε περιβάλλοντα αυξημένων οπτικο-γνωστικο-κινητικών απαιτήσεων (ένα είδος «στρες τεστ» για τον εγκέφαλο). Για το σκοπό αυτό υποβάλλουμε ολόκληρο το οπτικογνωστικό σύστημα, από το στοιχειώδες αισθητηριακό έως το πιο πολύπλοκο νοητικό επίπεδο, σε μια πειραματική δοκιμασία κατηγορικής διάκρισης σύνθετων οπτικογνωστικών ερεθισμάτων, μετά από υπερταχεία οπτική διέγερση που οδηγεί στην έκλυση κινητικής απάντησης κατά την κατηγοριοποίηση στόχων (εικόνες «ζώων» εκλύουν παραγωγικές αποκρίσεις) και στην καταστολή της κατά την κατηγοριοποίηση μη-στόχων (εικόνες «μη-ζώων» εκλύουν ανασταλτικές αποκρίσεις). Οι ταλαντωτικές ηλεκτροφυσιολογικές αποκρίσεις που συγχρόνως καταγράφονται στις ινιακές-κροταφικές-βρεγματικές περιοχές του εγκεφάλου αναλύονται στο πεδίο του χρόνου (<20Hz) και στο συζευγμένο χρονοφασματικό πεδίο ευρυζωνικά (1-60Hz) με το συνεχή μετασχηματισμό του κυματίου που βελτιστοποιεί την πολυφασματική ανάλυση της υψίσυχνης (≥20Hz) γ-ταλαντωτικής δραστηριότητας. Αυτή η δοκιμασία οπτικογνωστικής κατηγοριοποίησης λαμβάνει χώρα τόσο σε νορμοξαιμικές όσο και υποξαιμικές συνθήκες (ελεγχόμενη μείωση στον κορεσμό του αίματος σε οξυγόνο από ≥97% γύρω στο 80% για 15 λεπτά κάτω από συνθήκες υποβαρικής υποξίας μέσα σε υποβαρικό θάλαμο), προκειμένου να ελέγξουμε ηλεκτροφυσιολογικούς δείκτες που μπορούν να ανιχνεύσουν και να συλλάβουν με τον πιο ευαίσθητο και δυναμικό τρόπο ακόμη και τόσο βραχύβιες και σχετικά ήπιες μεταβολές της εγκεφαλικής λειτουργίας. Η στατιστική παραμετρική ανάλυση των χρονοφασματικών χαρτών και η γενικευμένη, στατιστικά πιο ασφαλής, μέθοδος ανάλυσης των διακυμάνσεων ανέδειξαν ως πλέον ευαίσθητους και αξιόπιστους τους ακόλουθους δείκτες: τις κύριες αιχμές των προκλητών δυναμικών, τον παράγοντα φασικής συνάφειας των ταλαντώσεων μεταξύ των μοναδιαίων καταγραφών και την εκλυόμενη ενέργεια των προκλητών/φασικά-κλειδωμένων και επαγόμενων/ολικών ταλαντώσεων. Οι ηλεκτροφυσιολογικοί αυτοί δείκτες σε συνδυασμό με ψυχομετρικές δοκιμασίες επιτρέπουν τη διερεύνηση των σταδίων/επιπέδων κάμψης καθώς και των αποθεμάτων αντιρρόπησης των οπτικο-αντιληπτικών και γνωστικών-νοητικών λειτουργιών του εγκεφάλου για τον καθορισμό των λειτουργικών ουδών ευαισθησίας διάφορων εγκεφαλικών λειτουργιών στην υποξία. Ανοίγουν μάλιστα το δρόμο. για το λειτουργικό χαρακτηρισμό, τη διάγνωση και την παρακολούθηση εγκεφαλικών προσβολών ή άλλων οξέων και χρόνιων παθολογικών καταστάσεων του εγκεφάλου.
|
Page generated in 0.0263 seconds