81 |
Συλλογή, αξιοποίηση και επεξεργασία πληροφοριών που παρέχουν τα κοινωνικά δίκτυα για υποστήριξη εφαρμογών που τρέχουν σε περιβάλλοντα κοινωνικών δικτύων (Facebook)Παπανικολοπούλου, Ελένη 21 December 2011 (has links)
Η διπλωματική εργασία πραγματεύεται την διαχείριση των πληροφοριών που παρέχουν τα Κοινωνικά Δίκτυα, έχοντας ως αντικειμενικό σκοπό την εξοικείωση με την δημιουργία εφαρμογής στα πλαίσια μιας συγκεκριμένης υπηρεσίας Κοινωνικής Δικτύωσης, το Facebook. Γίνεται αναφορά γενικών πληροφοριών σχετικά με τα υπάρχοντα Κοινωνικά Δίκτυα και δίνεται ιδιαίτερη έμφαση σε θέματα ιδιωτικότητας και ασφάλειας των προσωπικών δεδομένων των χρηστών. Επιπρόσθετα αναλύεται μια συγκεκριμένη πλατφόρμα του Facebook, το DSL FAITH, που αποτελεί ενδιάμεσο στρώμα μεταξύ των εφαρμογών και του Facebook, και βοηθά τους χρήστες να αυξήσουν την ιδιωτικότητα των δεδομένων τους. Τέλος δημιουργήθηκε μια εφαρμογή στο περιβάλλον του Facebook, η οποία έχει ως αντικείμενο αφενός την βελτίωση των ρυθμίσεων ιδιωτικότητας των χρηστών, αφετέρου την διευκόλυνσή τους σε θέματα εμφάνισης των δεδομένων τους και η οποία ενσωματώθηκε στη πλατφόρμα DSL FAITH. / The diploma thesis deals with administration of social information provided by Social Networks and its objective goal is familiarization with development of an application within a particular Social Network service, Facebook. Reference is made to general Information about existing Social Networks and issues such as privacy and security of users’ personal data are emphasized. Additionally, a specific Facebook platform, DSL FAITH is analyzed. DSI FAITH is a middleware between applications and Facebook and assists users augment their privacy. Finally, a Facebook application called Facebook Privacy Wall is developed and integrated with DSL FAITH platform, which aims at improvement or users’ privacy adjustments and assistance in matters of data appearance.
|
82 |
Κατασκευή ηλεκτρονικού οδηγού και βάσης δεδομένων για την διάδοση της μουσικής παράδοσης "Δρόμοι της μουσικής παράδοσης"Νούλας, Γεώργιος 21 December 2011 (has links)
Η παρούσα διπλωματική έχει σκοπό τον σχεδιασμό και κατασκευή ηλεκτρονικού καταλόγου και βάσης δεδομένων για την οργάνωση και διαχείριση αρχείου μουσικής ελληνικής παράδοσης και σχετικού περιεχομένου και την έκδοσή του στον παγκόσμιο ιστό.
Μέσα από την διπλωματική αυτή προτείνεται ένας τρόπος για την αποθήκευση της μουσικής πληροφορίας στο διαδίκτυο, το σχετικό υλικό που θα πρέπει να συνοδεύει ένα τραγούδι, τον τρόπο παρουσίασης του υλικού αυτού στον χρήστη της εφαρμογής, τις λειτουργίες αναζήτησής της και τον τρόπο αναπαραγωγής της.
Για τις ανάγκες της διπλωματικής έγινε και προτείνεται κατηγοριοποίηση των τραγουδιών με βάσης το είδος τους , δηλαδή το θέμα τους, και με βάση τον ρυθμό τους, δηλαδή της μουσικής τους. Επίσης προτείνεται και κατηγοριοποίηση για τα άρθρα. Οι δύο παραπάνω κατηγοριοποιήσεις αφορούν αποκλειστικά το ελληνικό δημοτικό τραγούδι.
Επίσης προτείναμε δομή ιστοσελίδας του WWW για την διάδοση την μουσικής παράδοσης που θα είναι φιλική για τον μέσο χρήστη του internet και θα κρατάει το ενδιαφέρον του.
Στα πλαίσια της διπλωματικής αυτής εργασίας δημιουργήθηκε ο πληρέστερος στο διαδίκτυο οδηγός παραδοσιακής μουσικής της Πελοποννήσου και της Στερεάς Ελλάδας. Ωστόσο με ένα επιπλέον σύστημα που δημιουργήθηκε είναι δυνατή η προσθήκη επιπλέον υλικού από χρήστες που θα καλύψει όλες τις περιοχές της χώρας μας. / The current work is about a e-catalogue for the greek traditional music. It is a user centered WWW aplication and belongs to the Arcadia Project at C.E.I.D.
|
83 |
Σχεδιασμός και ανάπτυξη προσαρμοζόμενου συστήματος για την διδασκαλία του μαθήματος Βάσεις δεδομένωνΞηροτύρης, Νικόλαος 19 October 2012 (has links)
Ο στόχος της παρούσας διπλωματικής εργασίας είναι η παρουσίαση της χρησιμότητας του ηλεκτρονικού υπολογιστή στην εκπαιδευτική διαδικασία, η ευρεία χρήση των βάσεων δεδομένων στον σύγχρονο κόσμο καθώς και η μελέτη των λειτουργικών περιοχών μίας βάσης δεδομένων. Επίσης, παρουσιάζεται ο τρόπος με τον οποίο οργανώνονται τα δεδομένα μιας βάσης δεδομένων στο σκληρό δίσκο και η χρησιμότητα των ευρετηρίων.
Στο πρώτο κεφάλαιο, γίνεται μια εισαγωγή στην χρησιμότητα του ηλεκτρονικού υπολογιστή στην καθημερινότητα μας και κυρίως, στην εισβολή του στην εκπαιδευτική διαδικασία. Παρουσιάζονται κάποια κύρια στοιχεία που κάνουν τον Η/Υ απαραίτητο - πλέον - στην εκπαίδευση, οι τρόποι με τους οποίους μπορεί να χρησιμοποιηθεί στην εκπαίδευση και φυσικά η μεγάλη συμβολή της συνεργατικής μάθησης με την βοήθεια των ηλεκτρονικών υπολογιστών.
Στο δεύτερο κεφάλαιο, αναφέρεται η γενική ιδέα των Βάσεων Δεδομένων, η εξέλιξή τους και κάποια ιστορικά στοιχεία. Στη συνέχεια παρουσιάζονται τα βασικά στοιχεία της δομής των βάσεων δεδομένων και οι λειτουργικές περιοχές τους (αρχιτεκτονική, μοντέλα, γλώσσες, ασφάλεια).
Στο τρίτο κεφάλαιο, ασχολούμαστε με την αποθήκευση των βάσεων δεδομένων, κυρίως σε δευτερεύοντα αποθηκευτικά μέσα, όπως ο σκληρός δίσκος. Αναφέρονται τα επιμέρους στοιχεία ενός σκληρού δίσκου και τον τρόπο με τον οποίο αποθηκεύονται τα δεδομένα σε μορφή εγγραφών, τοντρόπο οργάνωσης και διάταξης των εγγραφών σε αρχεία καθώς και περιληπτικά η μέθοδος του κατακερματισμού.
Στο τέταρτο κεφάλαιο, παρουσιάζεται η δομή των ευρετηρίων για την διάταξη των εγγραφών σε ένα αρχείο. Αναφέρονται οι βασικοί τύποι ευρετηρίων (πρωτέυον, δευτερεύον, συστάδων και πολυεπίπεδο) καθώς και τα δυναμικά πολυεπίπεδα ευρετήρια με την χρήση Β-δένδρων και Β+-δένδρων.
Στο πέμπτο κεφάλαιο, παρουσιάζεται μία εφαρμογή των ευρετηρίων σε μία δειγματική βάση δεδομένων (Sakila), η οποία χρησιμοποιείται για εκπαιδευτικούς σκοπούς. Συντάσσονται ερωτήματα SQL με την βοήθεια εντολών δημιουργίας ευρετηρίων, ώστε να δειχθεί και πειραματικά ότι τα ευρετήρια είναι μία πολύ καλή μέθοδος μείωσης του χρόνου αναζήτησης, ειδικά σε μία βάση με πάνω από 1000-2000 εγγραφές. / The aim of the present thesis is to show the utility of computers in education, the widespread use of databases in the modern world and the study of the functional areas of a database. It is also presented the way the data are organized in a database on the hard disk and the structure of indexes.
The first chapter includes an introduction to the usefulness of the personal computer to our everyday life and especially, in its invasion in the educational process. There are presented some key elements that make the PC necessary in education, the ways in which it can be used in education and of course the great contribution of collaborative learning with the help of computers.
The second chapter refers to the concept of databases, their development and some historical data. Also, there are presented the basic elements of the structure of databases and their functional areas (architecture, models, languages, security).
The third chapter deals with the storage of databases, particularly in a secondary storage media, such as the hard disk. There are indicated the components of a hard disk and how the data is stored in records, the organization and provision of records in files and briefly the method of hashing.
The fourth chapter presents the structure of indexes for the order of the records in a file. The basic types of indexes are described (primary, secondary, clustering and multilevel), as well as, the dynamic multi-level indexes using B-trees and B+-trees.
The fifth chapter presents an application of indexes in a sample database (Sakila), which is used for educational purposes. SQL queries are drafted with the help of create indexes command, in order to show – experimentally - that the indexes are a great way to reduce search time, especially, in a database which contains over 1000-2000 records.
|
84 |
Ανάπτυξη συστήματος εποπτικού ελέγχου και καταγραφής δεδομένων προερχομένων από ανανεώσιμες πηγές ενέργειας : απεικόνιση δεδομένων σε υπολογιστήΤσανταρλιώτης, Λεωνίδας 18 July 2013 (has links)
Στην παρούσα εργασία ασχοληθήκαμε με την ανάπτυξη ενός συστήματος, που θα ασκεί εποπτικό έλεγχο και θα παρουσιάζει δεδομένα, που προέρχονται από συστήματα ανανεώσιμων πηγών ενέργειας. Η εργασία αναπτύχθηκε με βάση τις ΑΠΕ, αλλά μπορεί να εφαρμοσθεί σε πληθώρα άλλων εφαρμογών. Παρέχει πολλές δυνατότητες παραμετροποίησης, ώστε να προσαρμόζεται στις ανάγκες της κάθε εφαρμογής. / This work creates a system, which controls and shows data. These data come from systems, which take advantage of Renewable Energy Sources. The work is primary created for RES, but it is suitable for many other applications, as well. It can be configured in many ways so as to be suitable for almost any application, which demands supervisory control and data acquisition (SCADA).
|
85 |
Συμπίεση βάσης δεδομένων σκακιστικών φινάλε με μεθόδους data miningΘάνου, Αναστάσιος 16 April 2013 (has links)
Η συγκεκριμένη διπλωματική εργασία διαπραγματεύεται τη συμπίεση των βάσεων του Nalimov με μεθόδους data mining. Είναι βάσεις σκακιστικών φινάλε, οι οποίες παρέχουν πληροφορίες, ανάλογα με την τοποθέτηση των κομματιών για το ποιος νικάει κάθε φορά σε ένα φινάλε τριών ή περισσοτέρων κομματιών συμπεριλαμβανομένων και των δύο βασιλιάδων. Η προσπάθεια γίνεται με το έτοιμο πρόγραμμα Weka, το οποίο διατίθεται δωρεάν στο internet και προσφέρεται για εφαρμογές του data mining.
Η συμπίεση προσφέρει ευελιξία στην αποθήκευση, ίσως και κατανόηση από τον άνθρωπο, όπως πάντα γίνεται στο data mining. Αρχικά, μελετήθηκε το φινάλε με βασιλιά και ένα πιόνι εναντίον του μαύρου βασιλιά. Έγινε μελέτη από διάφορες πλευρές και με διαφορετικά χαρακτηριστικά (attributes) που ορίζονται από το χρήστη και αποσκοπούν στην καλή εκπαίδευση ενός ταξινομητή, ο οποίος λέει ποιος νικάει ή αν έχουμε ισοπαλία. Ενδιαφέρουσα ήταν και η προσπάθεια για αύξηση της απόδοσης ώστε να πλησιάσει κατά το δυνατόν το 100% στο συγκεκριμένο φινάλε, άλλοτε με ανάθεση μεγαλύτερης προσπάθειας στον υπολογιστή και άλλοτε καθαρά από τον ανθρώπινο παράγοντα, με διόρθωση λαθών και επανεπισκόπηση των χαρακτηριστικών για τη δημιουργία καταλληλοτέρων δεδομένων. Ακολούθως, μελετήθηκαν τα φινάλε με βασίλισσα ή πύργο αντί για πιόνι και γίνονταν σχόλια σε καίρια σημεία.
Τέλος, η μελέτη επεκτάθηκε και σε φινάλε τεσσάρων κομματιών, όπου είχαμε την ευκαιρία να δούμε τα φινάλε KBBK και KRKN, τα οποία παρουσιάζουν ενδιαφέρον, καθώς αυξάνονται οι υπολογιστικές απαιτήσεις. / This diploma dissertation deals with the compression of the Nalimov bases using methods of data mining. They are chess endgame databases, which provide information, depending on the placement of the men, about who wins in an endgame of three or more pieces, including the two kings. The work was made by means of the open-software program Weka, which is available free on the internet and is ideal for applications of data mining.
This compression aims to provide flexibility in storage and perhaps understanding by the users, as is always the case in data mining. At first, the endgame with one king and a pawn vs the black king was studied. A study was done from different perspectives and with quite different characteristics (attributes), which are specified by the user and designed in order that a good classifier should be trained, a classifier that should finally say who wins or if it is a tie. Also, something interesting that was done was an attempt to increase efficiency to close as possible to 100% in this endgame, sometimes shifting the whole work to the computer and sometimes mainly by the human factor. Of course, the latter was managed by correcting errors and reconsidering the attributes for creating the most appropriate data possible. Then, we studied the endgames with a queen and then, with a rook instead of a pawn, with comments made at key points.
Finally, the study was expanded to endgames with four men, where we had the opportunity to see the endgames KBBK and KRKN, which are interesting as the computational requirements increase.
|
86 |
Συγκριτική ανάλυση αποδοτικότητας στον τραπεζικό τομέαΣκαπέρδα, Μαρία 24 April 2013 (has links)
Η παρούσα μελέτη εκπονήθηκε στα πλαίσια του Προγράμματος Μεταπτυχιακών Σπουδών «Νέες Αρχές Διοίκησης Επιχειρήσεων, ΜΒΑ». Σκοπός είναι η ανάλυση της αποδοτικότητας των Ελληνικών Εμπορικών Τραπεζικών Οργανισμών που είναι εισηγμένες στο Χρηματιστήριο Αθηνών, για το διάστημα 2006 – 2010, ουσιαστικά 2 χρόνια πριν και κατά τη διάρκεια της οικονομικής κρίσης, κι επιπλέον ο προσδιορισμός τρόπων βελτίωσης του βαθμού αξιοποίησης των διατιθέμενων πόρων από τις μη αποδοτικές μονάδες. Χρησιμοποιήθηκαν δυο μέθοδοι ανάλυσης, μέσω Αριθμοδεικτών αποδοτικότητας και η μέθοδος της Περιβάλλουσας Ανάλυσης Δεδομένων (DEA) και ειδικότερα στη δεύτερη περίπτωση επιλύθηκε σε δύο στάδια το μοντέλο CCR, CRS, input oriented. Αναλύθηκαν δύο περιπτώσεις, α) μόνο ενδογενείς μεταβλητές των εταιρειών και β) συμπεριελήφθησαν και εξωγενείς μακροοικονομικές μεταβλητές όπως Πληθωρισμός και ΑΕΠ, ώστε να περιγραφεί και η γενικότερη Οικονομική Κατάσταση.
Τα αποτελέσματα της πρώτης μεθόδου, δείχνουν αρκετές τράπεζες να έχουν χαμηλή αποδοτικότητα Efficiency Ratio. Ωστόσο, οι επιμέρους αριθμοδείκτες ROA, ROE και NPM, καταδεικνύουν μη αποτελεσματική τη Geniki Bank κυρίως σε όλα τα έτη και τράπεζες όπως Ταχυδρομικό Ταμιευτήριο, T Bank, Proton Bank, Eurobank, σε συγκεκριμένα έτη κυρίως το 2008. Αξιοσημείωτη είναι η πολύ μεγάλη πτώση στις τιμές όλων των αριθμοδεικτών που αναλύθηκαν για την Αγροτική Τράπεζα της Ελλάδος, το 2010.
Στην ανάλυση μέσω της DEA, τα αποτελέσματα δείχνουν ότι όταν υπολογίζεται συνολική αποδοτικότητα, λαμβάνοντας υπόψη πολλαπλές εισροές και εκροές, οι τράπεζες σε γενικές γραμμές σε λειτουργικό επίπεδο είναι αποτελεσματικές. Στην πρώτη περίπτωση βγήκαν αναποτελεσματικές οι τράπεζες σε ποσοστό 20%. Από αυτές κυρίως αναποτελεσματική είναι και πάλι η Geniki Bank. Στην δεύτερη περίπτωση, λαμβάνοντας υπόψην τη γενικότερη Οικονομική κατάσταση, το ποσοστό των αναποτελεσματικών Τραπεζών μειώνεται σε μόλις 5%.
Σε γενικές γραμμές, ο μεγάλος αριθμός των αποδοτικών μονάδων συνάδει και με τη διαίσθηση που είχαμε γενικότερα, αλλά και απ’ όσα ακούμε σχετικά με την οικονομική κρίση ότι αφενός οι τράπεζες δεν αποτελούν παράγοντα που συντελεί στην οικονομική κρίση και επιπλέον έχουν διαμορφώσει λειτουργικό πλαίσιο που μπορεί να αναπροσαρμόζεται σε όλες τις συνθήκες και να είναι αποδοτικό. / Τhis study was conducted as part of the Postgraduate Program "New Principles of Business Administration, MBA." The aim is to analyze the efficiency of Greek Commercial Bank Institutions listed on the Athens Stock Exchange for the period 2005 - 2010, basically 2 years before and during the financial crisis. There were used two methods of analysis through Efficiency Ratios and the method of Data Envelopment Analysis in the form of two stages model CCR, CRS, input oriented. We analyzed two cases with DEA: a) only discretionary variables and b) with the aid of non discretionary (macroeconomic) variables such as inflation and GDP, in order to describe the overall economic situation. The results of the first method show that several banks have low Efficiency Ratio. However, the ratios ROA, ROE and NPM, demonstrate mainly ineffective Geniki Bank in all years and Banks like TT, T Bank, Proton Bank and Eurobank, in particular years, especially in 2008. It is worth noting that there is very large decline of all ratios for the Agricultural Bank of Greece, in 2010.
DEA results indicate that in the banking sector the operational level is effective. In the first case we found inefficient banks up to 20%. Of these most inefficient is the National Bank of Greece (50% in the study period), followed by Geniki Bank and Proton Bank (with a rate of 33.3% inefficiency in the study period). In the second case, the proportion of inefficient banks is reduced to only 11.67%. The difference lies mainly in the National Bank of Greece which in the second model is effective throughout the whole period under study.
Generally, the large number of efficient units is consistent with the general sense, about the economic crisis that banks are not a contributing factor to the financial crisis and have developed an operational framework that can be adjusted in all situations and be effective.
|
87 |
Διάγνωση, πρόγνωση και υποστήριξη θεραπευτικής αγωγής κακοηθών λεμφωμάτων με χρήση τεχνητής νοημοσύνηςΔράκος, Ιωάννης 13 July 2010 (has links)
Η παρούσα διδακτορική διατριβή έχει ως στόχο τη δημιουργία ενός αποδοτικού μοντέλου για το Λειτουργικό Συνδυασμό Βιο-Ιατρικών δεδομένων (BioMedical data integration).
Ξεκινώντας από τη σχεδιαστική ανάλυση της ιατρικής γνώσης και των προβλημάτων που προκύπτουν από τον τρόπο παραγωγής των ιατρικών δεδομένων, προχωρεί στην επίλυση των επιμέρους θεμάτων Λειτουργικού Συνδυασμού εντός ενός συγκεκριμένου ιατρικού πεδίου και καταλήγει στον ολοκληρωμένο Λειτουργικό Συνδυασμό ιατρικών δεδομένων προερχόμενων από διαφορετικές πηγές και πεδία γνώσης.
Συνεχίζει με τη σχεδίαση ενός μοντέλου βάσεων δεδομένων που ακολουθεί «οριζόντια» λογική και είναι αρκετά αποδοτικό ώστε να αποκρίνεται σε πολύπλοκα και ευρείας κλίμακας ερωτήματα σε πραγματικό χρόνο.
Καταλήγει με την παρουσίαση μίας ολοκληρωμένης εφαρμογής η οποία εκμεταλλευόμενη τα πλεονεκτήματα του Λειτουργικού Συνδυασμού και της οριζόντιας δομής των δεδομένων είναι σε θέση να διαχειριστεί εξετάσεις προερχόμενες από κάθε κυτταρομετρητή ροής και συνδυάζοντάς αυτές με τις υπόλοιπες αιματολογικές κλινικοεργαστηριακές εξετάσεις να απαντά σε καθημερινά και σύνθετα ερευνητικά, ιατρικά ερωτήματα.
Τα πρωτότυπα ερευνητικά αποτελέσματα που προέκυψαν στα πλαίσια της παρούσης εργασίας δημοσιεύτηκαν σε έγκυρα διεθνή περιοδικά και σε διεθνή και ελληνικά συνέδρια με κριτές. / Current dissertation focuses on the creation of an efficient model for Bio-medical data integration.
Starting with an analytical approach of the medical knowledge and the problems that may occur cause of the way that medical data are produced, continues with the necessary solutions for single domain data integration and concludes with the proposal of a working framework for mass data integration, originating from multiple medical domains.
The proposed integration model is based on the “horizontal” logic of a database design and it’s efficient enough to produce query results in real time, even for complex real-life medical questions.
The proof of concept of the working framework and its goals for mass data integration is achieved through the presentation of a medical information system. The presented system, by taking advantage of the “horizontal” database design, is able to manage Flow Cytometry measurements, originating for any available hardware and by integrating the cytometric data with other types of hematological data is able to give answers to everyday and research medical questions.
All original research results that produced within the scope of this dissertation were published in international research journals and medical conferences.
|
88 |
Μετάδοση πολυμεσικών δεδομένων με δυνατότητα προσαρμογής του ρυθμού μεταδόσης πάνω από κινητά δίκτυα επικοινωνιώνΜπαρούνης, Κωνσταντίνος 09 November 2007 (has links)
Η ασύρματη επικοινωνία, στις μέρες μας, αποκτά ιδιαίτερη αξία σε μια χώρα όπως η Ελλάδα, όπου η μορφολογία του εδάφους, δεν επιτρέπει σε αρκετά γεωγραφικά διαμερίσματα την εγκατάσταση και χρήση ευρυζωνικών μέσων μετάδοσης όπως για παράδειγμα οι οπτικές ίνες. Ειδικότερα ο τομέας της κινητής τηλεφωνίας είναι ένας ταχύτατα εξελισσόμενος τομέας καθώς στις μέρες μας βιώνουμε το πέρασμα από τη δεύτερη γενιά συστημάτων κινητών τηλεπικοινωνιών προς την τρίτη. Στην εξέλιξη του τομέα αυτού συμβάλουν τα μέγιστα και οι απαιτήσεις των σύγχρονων καιρών για ένα ενοποιημένο και λειτουργικό σύστημα κινητής τηλεφωνίας με σκοπό την παροχή μιας πληθώρας υπηρεσιών στους συνδρομητές.
Η διπλωματική αυτή έχει σαν σκοπό να μελετήσει την μετάδοση πολυμεσικών δεδομένων όπως εικόνα και ήχος μέσα από την έννοια του streaming, πάνω από ασύρματα δίκτυα 3ης γενιάς (UMTS). Λαμβάνοντας υπό όψη τις δυσκολίες που συνεπάγεται η ασύρματη μετάδοση δεδομένων, όπως απώλεια πακέτων εξαιτίας λαθών ή συμφόρησης στο δίκτυο, αλλά και την καθυστέρηση που πολλές φορές παρατηρείται, προτείνεται ένας μηχανισμός για τη δυνατότητα προσαρμογής του ρυθμού μετάδοσης των πολυμεσικών δεδομένων. Στόχος είναι η αντιμετώπιση των παραπάνω προβλημάτων, αλλά και η προσπάθεια για την όσο το δυνατόν ανεμπόδιστη λειτουργία της streaming υπηρεσίας ακόμα και σε μη ευνοϊκές δικτυακές συνθήκες.
Ο έλεγχος του ρυθμού μετάδοσης αποτελεί ένα σημαντικό θέμα τόσο στα ενσύρματα όσο και στα ασύρματα δίκτυα μιας και σχετίζεται με τη σταθερότητα του δικτύου, συμβάλλει στη δίκαιη κατανομή του bandwidth μεταξύ των ροών δεδομένων και στην ομαλή μετάδοση πολυμεσικών δεδομένων. Μία μέθοδος ελέγχου και προσαρμογής του ρυθμού μετάδοσης δεδομένων πάνω από δίκτυα είναι γνωστή σαν TCP Friendly Rate Control (TFRC). Χρησιμοποιείται κυρίως στα ενσύρματα δίκτυα και σύμφωνα με αυτή, ο ρυθμός μετάδοσης δεδομένων είναι συνάρτηση κάποιων παραμέτρων οι οποίες αντιπροσωπεύουν την κατάσταση που επικρατεί στο δίκτυο. Οι παράμετροι αυτοί είναι το μέγεθος των πακέτων, ο ρυθμός απώλειας των πακέτων και το Round Trip Time (RTT). Η μέθοδος αυτή μπορεί να χρησιμοποιηθεί και στα ασύρματα δίκτυα με τη βοήθεια απαραίτητων τροποποιήσεων/παραλλαγών αλλά και υπό την προϋπόθεση ότι λαμβάνονται υπόψη οι ιδιαιτερότητες της ασύρματης μετάδοσης.
Στα πλαίσια της έρευνας που έγινε στην εργασία αυτή, θα δείξουμε την ικανότητα που μπορεί να έχει ένας streaming server για έλεγχο και προσαρμογή του ρυθμού μετάδοσης πολυμεσικών δεδομένων σύμφωνα με τα προβλήματα που προαναφέρθηκαν και τις τρέχουσες συνθήκες του δικτύου. Βασικό στοιχείο στην προσπάθεια αυτή αποτέλεσε η λειτουργία του TFRC μηχανισμού σε συνδυασμό με τη χρήση του RTP πρωτοκόλλου.
Το Real-Time Transport Protocol (RTP) παρέχει μια από άκρο σε άκρο υπηρεσία για αποστολή δεδομένων σε πραγματικό χρόνο. Εφαρμογές που χρησιμοποιούν το πρωτόκολλο αυτό είναι κυρίως υπηρεσίες για μετάδοση (streaming) ήχου (φωνή) και βίντεο. Παρόλο που το RTP πρωτόκολλο δεν παρέχει κάποια εγγύηση για την έγκαιρη παράδοση των πακέτων, εντούτοις περιέχει ένα μηχανισμό για την απεικόνιση της κατάστασης του δικτύου και των χαρακτηριστικών της σύνδεσης μεταξύ των δύο άκρων. Πρόκειται για το RTP Control Protocol (RTCP) το οποίο αποστέλλει πακέτα (αναφορές) μεταξύ του streaming server και ενός χρήστη, με πληροφορία όπως ο ρυθμός απώλειας πακέτων, η καθυστέρηση μετάδοσης και ο RTT χρόνος. Με τον τρόπο αυτό, και για τις ανάγκες της ασύρματης μετάδοσης βίντεο σε πραγματικό χρόνο από έναν server προς έναν κινητό χρήστη μπορεί να γίνει μια συνεργασία του TFRC μηχανισμού και των RTP και RTCP πρωτοκόλλων.
Ο server, κατά τη διάρκεια αποστολής (streaming) πολυμεσικών δεδομένων σε πραγματικό χρόνο προς ένα κινητό χρήστη, θα μπορεί να γνωρίζει ανά πάσα στιγμή τα χαρακτηριστικά της ασύρματης σύνδεσης, βασιζόμενος στα RTCP πακέτα που θα του στέλνει ο χρήστης και στη συνέχεια με τη βοήθεια του TFRC να κάνει υπολογισμό ενός άνω φράγματος για τον επιτρεπτό ρυθμό μετάδοσης των δεδομένων. Η δυνατότητα για αλλαγή του ρυθμού μετάδοσης από τον server ανάλογα με τις δικτυακές συνθήκες, βασίζεται στο γεγονός της ικανότητας να επιλέγει το προς μετάδοση βίντεο μέσα από ένα σύνολο διαφορετικών κωδικοποιήσεων του βίντεο αυτού. Με άλλα λόγια, ο streaming server διατηρεί διάφορες εκδόσεις (αρχεία) του ίδιου βίντεο, με τη μόνη διαφορά ότι είναι κωδικοποιημένα σε διαφορετικούς ρυθμούς (Kbps) με βάση κάποιο πρότυπο (π.χ MPEG-2).
Βέβαια είναι γεγονός, ότι ένας χαμηλός ρυθμός κωδικοποίησης της πολυμεσικής πληροφορίας, σε σχέση με ένα υψηλό ρυθμό, συνεπάγεται μια μέτρια ποιότητα στην εικόνα του βίντεο. Από την άλλη όμως πλευρά, η μετάδοση μέτριας ποιότητας (χαμηλού ρυθμού) βίντεο, συνδέεται με το χαμηλό ρυθμό στην μετάδοση των πολυμεσικών δεδομένων, γεγονός που είναι επιθυμητό σε περιπτώσεις όπου στο δίκτυο παρατηρείται συμφόρηση, μεγάλες καθυστερήσεις και απώλειες πακέτων. Κατά ανάλογο τρόπο, όταν στο δίκτυο δεν παρατηρούνται ιδιαίτερα προβλήματα, είναι επιθυμητή η μετάδοση από τον streaming server βίντεο υψηλού ρυθμού (καλής ποιότητας), καθώς το διαθέσιμο εύρος ζώνης είναι σε θέση να εξυπηρετήσει τις απαιτήσεις για μετάδοση πολυμεσικών δεδομένων με υψηλό ρυθμό.
Για την επιβεβαίωση των όσων αναφέρθηκαν παραπάνω, έγιναν μια σειρά από πειράματα κάνοντας χρήση ενός εμπορικού δικτύου κινητής τηλεφωνίας βασισμένο στην τεχνολογία 3ης γενιάς. Κάποιες υποθέσεις που έγιναν σχετικά με το σενάριο αυτό, αφορούν το διαθέσιμο bandwidth του ασύρματου καναλιού, το ρυθμό απώλειας πακέτων, το μέγεθος των πακέτων και την κίνηση στο δίκτυο. Θα πρέπει να σημειωθεί ότι η απώλεια των πακέτων μπορεί να οφείλεται τόσο στο ενδεχόμενο να παρατηρείται μεγάλη κίνηση στους κόμβους του δικτύου αλλά και σε αυτό της μη σωστής λήψης, εξαιτίας των παραγόντων εκείνων που επηρεάζουν την ασύρματη μετάδοση.
Για την υλοποίηση του παραπάνω σεναρίου και των πειραμάτων έγινε χρήση ενός φορητού υπολογιστή (laptop) ο οποίος είχε τον ρόλο του κινητού χρήστη εξοπλισμένος με μια κάρτα για την ασύρματη πρόσβαση σε 3G δίκτυο παρόχου κινητής τηλεφωνίας. Η αποστολή των δεδομένων και ο έλεγχος του ρυθμού μετάδοσης έγινε με την βοήθεια ενός RTSP Server, που υλοποιήθηκε, βασισμένος στις βιβλιοθήκες του open source project LIVE555 (www.live555.com), στο εργαστήριο Κατανεμημένων Συστημάτων και Τηλεματικής του τμήματος. Τέλος θα πρέπει να σημειωθεί ότι η ερευνητική διατριβή που έγινε στα πλαίσια της διπλωματικής εργασίας οδήγησε στην παρακάτω δημοσίευση σε διεθνές συνέδριο.
An efficient mechanism for adaptive multimedia transmission in 3G networks. IADIS International Conference Wireless Applications and Computing 2007 (WAC 2007), Lisbon, Portugal, A. Alexiou, K. Barounis, C. Bouras, 6-8 July 2007. Αbstract: Η εργασία αυτή προτείνει ένα μηχανισμό για τον έλεγχο της συμφόρησης (congestion control) και την μετάδοση πολυμεσικής πληροφορίας (video) πάνω από το UMTS. Ο μηχανισμός αυτός εφαρμόζεται όταν ο κινητός χρήστης διαχειρίζεται πληροφορία πραγματικού χρόνου (real time), και παράλληλα υιοθετεί την θεωρία μίας ευρέως αποδεκτής μεθόδου για έλεγχο ου ρυθμού (rate control) στα ενσύρματα δίκτυα, γνωστή και ως equation based rate control. Σε αυτή την προσέγγιση, ο server προσαρμόζει τον ρυθμό μετάδοσης πολυμεσικής πληροφορίας λαμβάνοντας υπόψη τις εξής δικτυακές παραμέτρους: α) ρυθμός απώλειας πακέτων, β) round-trip χρόνος και γ) μέγεθος του πακέτου. Μέσα από μια σειρά εξομοιώσεων και πειραμάτων έγινε αξιολόγηση της ορθότητας και της επίδοσης του μηχανισμού. Αρχικά ο μηχανισμός αξιολογείται χρησιμοποιώντας το περιβάλλον του ns-2 εξομοιωτή, και στη συνέχεια γίνονται κάποια πειράματα σε δίκτυο UMTS εμπορικής χρήσης γνωστής τηλεπικοινωνιακής εταιρείας. / Wireless communication has become valuable, in a country like Greece, where the morphology of the ground does not allow the massive use of alternative means of communication like fiber optics. Especially, the field of mobile telecommunications has shown a remarkable growth over the past years, as we are now witnessing the pass from the second generation (2G) networks to the third generation (3G). However, this evolution can be regarded as the result of the demands for an integrated and functional mobile telecommunication system, with a plethora of new services offered to its users. The aim of this master thesis is to make a research in the transmission of multimedia content over a UMTS network, with the capability of adapting the transmission rate, depending on the network conditions. The control of the transmission rate is a very important aspect, not only in the wired networks, but also in the wireless networks, as it is responsible for the stability of the network, the fair sharing of the bandwidth between the traffic flows and the unaffected transmission of multimedia, like video and voice. One method for the control and the adaptation of the transmission rate over networks is known as TCP Friendly Rate Control (TFRC). This method is mainly used in wired networks and according to its function, the transmission rate is the outcome of various parameters across the network. These parameters are the size of the packets, the packet loss rate, and the Round Trip Time (RTT). This method can also be used in wireless networks as long as some modifications take place and that special needs of the wireless transmission have been taken into consideration.
During this research, we can show how the TFRC mechanism and the Real-Time Transport Protocol (RTP) can be combined together for the needs of multimedia streaming over a wireless network. The RTP protocol provides end-toend delivery services for data with real-time characteristics such as interactive audio and video, while applications typically run RTP on top of UDP. RTP itself does not provide any mechanism to ensure timely delivery or other quality-ofservice guarantees. However, RTP consists of the RTP Control Protocol (RTCP), which monitors the quality of service like packet loss, delay, round trip time and conveys information about the participants in an on-going session. By this way, during a streaming session, the server would be able to have an image of the network conditions thanks to the RTCP information sent by the mobile client. Then, using the TFRC mechanism an upper bound for the transmission rate can be calculated in order to take advantage of the available bandwidth and to avoid causing network instability or abuse. The server would have the same video in different versions, depending on the coding in Kbits per second (Kbps) and then would have the capability of increasing or decreasing the transmission rate by switching the video files during the streaming session.
In order to examine this scenario in real network conditions, some parameters will be taken into consideration, like the available bandwidth of the wireless network, the packet loss rate, the packet size and the network traffic. It must be noticed, that the packet loss could be caused by overloading the network or by those factors which can cause problems in the wireless transmission.
For testing all the above, we perform some experiments using a laptop with a network card for having access in a 3G network as a mobile user, and a RTSP server for streaming the multimedia data to the client. The server is implemented, based on the Live555 (www.live555.com) libraries, where some extra functions are added in order to work according to the streaming scenario. Finally it should be mentioned that this thesis has been published on the IADIS International Conference, Wireless Applications and Computing 2007 with the title “An Efficient Mechanism for Adaptive Multimedia Transmission in 3G Networks” held in Lisbon, Portugal, July 6-8, 2007.
|
89 |
Αποδοτική οργάνωση και διαχείριση πολυδιάστατων αντικειμένων για την ανακάλυψη γνώσηςΚροτοπούλου, Αικατερίνη 11 January 2011 (has links)
Ο σκοπός αυτής της διατριβής είναι η ανεύρεση μεθόδων αποδοτικής οργάνωσης και διαχείρισης πολυδιάστατων αντικειμένων (multi-dimensional objects) προκειμένου να ανακαλυφθεί χρήσιμη γνώση. Αρχική αφορμή για αυτή τη μελέτη αποτέλεσαν οι ανάγκες μιας απαιτητικής εφαρμογής με σκοπό τη χαρτογράφηση του ανθρώπινου εγκεφάλου προκειμένου να εντοπιστούν επιληπτικές εστίες. Οι απαιτήσεις Αναπαράστασης και Διαχείρισης των Δεδομένων του Εγκεφάλου, έφεραν στην επιφάνεια δύο κεντρικά ερευνητικά προβλήματα:
- Τις ιδιαιτερότητες των πολύπλοκων, μη-ομοιογενών, δικτυακών μερικές φορές, τρισδιάστατων αντικειμένων (τμημάτων του εγκεφάλου – brain objects).
- Την ανάγκη για αποτελεσματική διαχείριση-χρήση γνωστών αλλά και παραγόμενων εξαρτήσεων δεδομένων και γνώσης (data and knowledge dependencies), η οποία μπορεί να αναβαθμίσει την απόδοση και τη δυναμική της εφαρμογής. Το μεγαλύτερο μέρος της μελέτης που αφορούσε αυτό το πρόβλημα, οδήγησε σε :
- Διερεύνηση θεμάτων ανεύρεσης ομοιοτήτων (similarity search). Καθώς η συγκεκριμένη περιοχή διαθέτει μεγάλο εύρος εφαρμογών αλλά και ανοικτών προβλημάτων, αποτέλεσε τελικά μεγάλο μέρος της παρούσας διατριβής.
Δεδομένου ότι πολλά από τα γεωμετρικά χαρακτηριστικά των δεδομένων αλλά και από τις εξαρτήσεις γνώσης που αφορούν τον ανθρώπινο εγκέφαλο, συναντώνται – καθ’ολοκληρία ή τμηματικά – σε πλήθος σύγχρονων πολυμεσικών (multimedia) εφαρμογών, τα παραπάνω προβλήματα εντάσσονται στα βασικά προβλήματα της έρευνας του τομέα των Βάσεων Δεδομένων.
Επικεντρώνοντας την έρευνά στα παραπάνω προβλήματα, καταλήξαμε:
• στον ορισμό νέων ευέλικτων τύπων δεδομένων, εννοιών και μοντέλων καθώς και εργαλείων και μεθόδων ταξινόμησης δεδομένων και γνώσης (βάση δεδομένων BDB και μοντέλα 3D-IFO και MITOS) οι οποίες οργανώνουν πιο ευέλικτα και αποδοτικά τα δεδομένα μας, με τρόπους που όχι μόνο κάνουν την πρόσβασή τους ευκολότερη αλλά αξιοποιούν παράλληλα τις ‘κρυμμένες’ μεταξύ τους σχέσεις για την άντληση επιπλέον γνώσης.
• στον ορισμό νέων μεθόδων και δέντρων αναζήτησης, για :
o τον αποδοτικό εντοπισμό τμηματικών ομοιοτήτων (partial similarity) ανάμεσα σε πολυδιάστατα αντικείμενα (Lui k-n-match και INTESIS)
o την εξάλειψη της μεγάλης πτώσης της απόδοσης των δέντρων με την αύξηση των διαστάσεων των αντικειμένων (‘dimensionality curse’) (δομή Digenis).
o την ανεύρεση χαρακτηριστικών/διαστάσεων με παρόμοια εξέλιξη στην πορεία του χρόνου – για πολυδιάστατα κυρίως αντικείμενα – με σκοπό τη μελέτη πιθανής αλληλεπίδρασής τους.
Γενικά, η παρούσα μελέτη αποτελείται από δύο βασικά μέρη, τα οποία αναφέρονται σε δύο περιοχές με μεγάλη αλληλεπίδραση:
Τη Μοντελοποίηση σε Πολυμεσικές Βάσεις Δεδομένων
Την Αναζήτηση Ομοιοτήτων ανάμεσα σε Πολυδιάστατα Αντικείμενα
Στο πρώτο κεφάλαιο αρχικά παρουσιάζεται το πρόβλημα της χαρτογράφησης του ανθρώπινου εγκεφάλου για τον εντοπισμό επιληπτικών εστιών, απ’όπου εγείρονται τα πρώτα προβλήματα αναπαράστασης και οργάνωσης τριδιάστατων αντικειμένων πολύπλοκης δομής και λειτουργικών σχέσεων και εξαρτήσεων μεταξύ τους. Σε μια πρώτη προσέγγιση προτείνεται το λογικό μοντέλο BDB (Brain Data Base) όπου εισάγονται νέοι τύποι οντοτήτων. Εδώ, ιδιαίτερο ενδιαφέρον παρουσιάζει η προσθήκη της ιεραρχικής διάταξης στο Σχεσιακό Μοντέλο, προκειμένου οι περιοχές του εγκεφάλου να οργανωθούν με βάση την πιθανότητα εμφάνισης επιληπτικής εστίας έτσι ώστε να βελτιώνονται στατιστικά οι χρόνοι ανάκτησής τους. Στη συνέχεια, η μελέτη επεκτείνεται σε άλλα – επόμενης γενιάς - είδη μοντέλων. Πιο συγκεκριμένα, οι ανάγκες της εφαρμογής μελετώνται με βάση ένα Σημαντικό (semantic model) - το μοντέλο IFO - και ένα Αντικειμενοστραφές Μοντέλο (object oriented model), με αποτέλεσμα τη δημιουργία των μοντέλων 3D-IFO και MITOS αντίστοιχα. Στο 3D-IFO εισήχθησαν νέοι τύποι δεδομένων προκειμένου να υποστηριχθούν αποδοτικά τα ιδιαίτερα δεδομένα μας καθώς και νέοι τελεστές για την καλύτερη διαχείριση των σύνθετων δεδομένων. Επιπλέον, εισήχθη ένας νέος constructor και ένα κατάλληλο πεδίο για την υποστήριξή του, προκειμένου να υποστηριχτεί η αναπαράσταση της διάταξης των μερών του εγκεφάλου με βάση κάποιο κριτήριο έτσι ώστε να διευκολυνθεί η μελλοντική απλή και συνδυαστική ανάκτηση πληροφορίας. Τέλος το αντικειμενοστραφές μοντέλο MITOS, εισάγει πάλι ένα νέο μοντέλο δεδομένων (MITOS Data Model - MDM) το οποίο συνεργάζεται με μία νέα γλώσσα ερωτημάτων (MITOS Query Language - MQL). Το μοντέλο MITOS εισάγει διάφορες καινοτομίες οι οποίες εξυπηρετούν μια περισσότερο εκφραστική και έξυπνη αναπαράσταση και διαχείριση πολυδιάστατων δεδομένων και γνώσης. Η μία από αυτές τις καινοτομίες είναι ο ορισμός ενός ακόμη βασικού χαρακτηριστικού των αντικειμένων (object characteristic), της σχέσης τους με το περιβάλλον, απεγκλωβίζοντάς την από την κατάσταση ή τη συμπεριφορά, όπου αποδυναμώνεται σαν έννοια. Η δεύτερη καινοτομία του MITOS η οποία αφορά την MQL σχετίζεται με την εισαγωγή ‘κλειδιού’ στους κανόνες (rules). Η διερεύνηση αυτής της δυνατότητας – η ιδέα προέρχεται από το χώρο των Βάσεων Δεδομένων – οδηγεί πράγματι σε ένα είδος κλειδιού, κατά την έννοια που θα μπορούσε να έχει στις Βάσεις Γνώσης και η οποία δεν μπορεί να είναι ακριβώς ίδια με την αντίστοιχη των Βάσεων Δεδομένων, λόγω των ειδοποιών διαφορών των δύο Βάσεων.
Στο δεύτερο κεφάλαιο μελετάται η αναζήτηση ενός ελάχιστα διερευνημένου είδους ομοιότητας ανάμεσα σε πολυδιάστατα κυρίως αντικείμενα, της τμηματικής ομοιότητας (partial similarity). Η τμηματική ομοιότητα σε αντίθεση με τον ιδιαίτερα διερευνημένο τύπο της πλήρους ομοιότητας (full similarity), αναφέρεται σε πραγματικές ομοιότητες οι οποίες δεν είναι πλήρεις. Κι αυτό συμβαίνει γιατί ένα πολύ συνηθισμένο σενάριο κατά τη διερεύνηση ομοιοτήτων είναι το ακόλουθο: Συνήθως η ανεύρεση πλήρους ομοιότητας βασίζεται σε υπολογισμό αποστάσεων, όπως η Ευκλείδεια απόσταση, οι οποίες είναι συνάρτηση όλων των διαστάσεων των εμπλεκομένων αντικειμένων. Όταν λοιπόν υπάρχουν διαστάσεις με μεγάλες διαφορές, ακόμη κι αν είναι λίγες, αυξάνουν αρκετά την υπολογιζόμενη απόσταση έτσι ώστε οι αποστάσεις τέτοιων αντικειμένων που στην πραγματικότητα μπορεί να είναι όμοια, να καταλήγουν να έχουν μεγάλες τιμές και συνεπώς να μην ανιχνεύεται η ομοιότητά τους (π.χ. όμοια αντικείμενα με πολύ διαφορετικό χρώμα). Από την άλλη πλευρά, για αντικείμενα τα οποία διαφέρουν λίγο σε κάθε διάσταση (π.χ. λίγο διαφορετικό χρώμα, σχήμα, προσανατολισμό κ.λ.π.) και καταλήγουν να είναι στην πραγματικότητα συνολικά πολύ διαφορετικά, η υπολογιζόμενη μεταξύ τους απόσταση έχει μικρή τιμή, οπότε ανιχνεύονται σαν όμοια, χωρίς να είναι.
Οι περισσότερες εργασίες οι οποίες έχουν μελετήσει την τμηματική ομοιότητα, έχουν εστιάσει σε γεωμετρικά δεδομένα. Η εργασία που επεκτείνεται σε πολυδιάστατα αντικείμενα γενικά, είναι η εργασία των Koudas et al., (VLDB 2006) και έχει οδηγήσει σε αξιόλογα αποτελέσματα στο θέμα της τμηματικής ομοιότητας. Εισάγει τις αποδοτικές μεθόδους k-n-match και frequent k-n-match, οι οποίες επιστρέφουν k αντικείμενα, όμοια με τα δοθέντα όχι σε όλες αλλά σε n διαστάσεις, αποφεύγοντας έτσι εκείνες τις λίγες διαστάσεις με τις μεγάλες διαφορές, οι οποίες οδηγούν σε παραπλανητικά αποτελέσματα. Παρόλ’αυτά αυτές οι μέθοδοι κρύβουν κάποιες αδυναμίες οι οποίες τελικά οδηγούν είτε σε ανεύρεση πλήρους ομοιότητας (όταν τελικά ληφθούν υπ’όψιν όλα τα n), είτε σε μία κατά περίπτωση μόνο (και σχεδόν τυχαία) ανίχνευση τμηματικής ομοιότητας (με τα κατάλληλα n’s τα οποία δεν πρέπει να είναι ούτε πολύ μεγάλα ούτε πολύ μικρά, αλλά δεν ορίζονται από κάποιο τύπο ή μέθοδο). Βασιζόμενοι σ’ αυτές τις μεθόδους, προτείνουμε δύο νέες τεχνικές οι οποίες όπως αποδεικνύεται μπορούν να εντοπίσουν πραγματικές τμηματικές ομοιότητες. Η πρώτη, η Lui k-n-match, επιτυγχάνει τον κατά προσέγγιση εντοπισμό των κατάλληλων n’s για τα k-n-matches, με τη βοήθεια της αλληλεπίδρασης με το χρήστη και του ελέγχου των αποδεκτών προτάσεων των k-n-matches. Πιο συγκεκριμένα, μέσω της μεθόδου k-n-match, προτείνεται για κάθε n ένα σύνολο αντικειμένων πιθανά όμοιων με το δεδομένο αντικείμενο του ερωτήματος (query object) . Ο χρήστης φιλτράρει αυτό το σύνολο, επιλέγοντας εκείνα τα αντικείμενα που θεωρεί πραγματικά όμοια με το δεδομένο. Αυτή η διαδικασία συνεχίζεται μέχρι αφού το n γίνει μεγαλύτερο από το ήμισυ των διαστάσεων των αντικειμένων, υπάρξει σύνολο προτεινόμενων αντικειμένων από το οποίο ο χρήστης δεν επιλέγει κανένα ως όμοιο . Μ’αυτόν τον τρόπο επιτυγχάνεται μεγαλύτερη εγκυρότητα των αποτελεσμάτων (λόγω της εμπλοκής του χρήστη) με περιορισμένο ταυτόχρονα αριθμό εκτελούμενων k-n-matches.
Η δεύτερη μέθοδος (INTESIS) βασίζεται στην εξής παρατήρηση: στην ουσία όταν δύο αντικείμενα μοιάζουν αυτό συνήθως σημαίνει ότι μοιάζουν στα περισσότερα χαρακτηριστικά τους, καθένα από τα οποία αναπαριστάται και αντιπροσωπεύεται από ένα σύνολο (μικρό συνήθως) διαστάσεων-πεδίων του αντικειμένου. Εάν λοιπόν οριστεί από τους ειδικούς κάθε εφαρμογής αυτή η αντιστοιχία χαρακτηριστικών και διαστάσεων - δημιουργώντας υποσύνολα διαστάσεων - τότε μπορούν να συμβούν διαδοχικά τα παρακάτω:
α) Να γίνει έλεγχος πλήρους ομοιότητας σε κάθε τέτοιο υποσύνολο διαστάσεων
β) Να οργανωθούν αυτά τα υποσύνολα σε ισάριθμα ιεραρχικά δέντρα για την εύκολη και αποδοτική διαχείρισή τους. Η επιπλέον απλούστευση αυτής της επιλογής έγκειται στο ότι δεδομένου ότι τα εν λόγω υποσύνολα διαστάσεων θα είναι μικρά, είναι πολύ εύκολη η επιλογή δέντρου γι’ αυτά, αφού σχεδόν όλα τα ιεραρχικά δέντρα έχουν μεγάλη απόδοση όταν πρόκειται για μικρό αριθμό διαστάσεων. Συνεπώς ο αναλυτής της κάθε εφαρμογής μπορεί να χρησιμοποιήσει όποιο τέτοιο δέντρο κρίνει εκείνος σαν καλύτερο ( Το R*-tree είναι η δική μας πρόταση).
Τελικά, για να ολοκληρωθεί η διαδικασία πρέπει να έχει οριστεί ένας ελάχιστος αριθμός απαιτούμενων όμοιων χαρακτηριστικών προκειμένου να θεωρηθούν δύο αντικείμενα όμοια.
Για την αξιολόγηση αυτής της μεθόδου, πρέπει αρχικά να σημειωθεί ότι αναφέρεται σε συνολικό αριθμό διαστάσεων μικρότερο του 100 και συνεπώς σε σχετικά μικρό αριθμό δέντρων. Όπως είναι φανερό, σε μονο-επεξεργαστικό σύστημα οι τελικοί χρόνοι απόκρισης είναι το άθροισμα των χρόνων κάθε δέντρου. Λαμβάνοντας υπ’όψιν το ότι τα δέντρα λόγω του μικρού αριθμού διαστάσεων που αντιστοιχούν στο καθένα έχουν πολύ καλές αποδόσεις, βγαίνει εύκολα το συμπέρασμα ότι ο εκάστοτε τελικός χρόνος απόκρισης της μεθόδου - όντας ένα μικρό πολλαπλάσιο των πολύ μικρών χρόνων προσπέλασης των δέντρων - είναι αρκετά χαμηλός. Με δεδομένο ότι η χρήση κάθε δέντρου δεν προϋποθέτει την χρήση κάποιου άλλου πριν ή μετά, οι αναζητήσεις σε κάθε δέντρο μπορούν να γίνονται παράλληλα. Συνεπώς σε πολυεπεξεργαστικό σύστημα, ο συνολικός χρόνος απόδοσης μπορεί να μειωθεί σημαντικά, φτάνοντας μέχρι και το χρόνο που απαιτείται μόνο για αναζήτηση σε ένα δέντρο (όταν υπάρχουν τόσοι επεξεργαστές όσα και δέντρα). Φυσικά, εάν λάβει κανείς υπ’όψιν του ότι η τμηματική ομοιότητα αποτελεί ένα ιδιαίτερα απαιτητικό είδος τότε όχι μόνο οι χρόνοι απόκρισης σε πολυεπεξεργαστικό σύστημα αλλά και εκείνοι του συστήματος ενός επεξεργαστή, αποτελούν ικανοποιητικές αποδόσεις.
Το τρίτο κεφάλαιο μελετά τη δυνατότητα δημιουργίας μιας νέας δομής η οποία δε θα ‘υποφέρει’ από τη μεγάλη πτώση της απόδοσης των δέντρων με την αύξηση των διαστάσεων των αντικειμένων (‘dimensionality curse’) ενώ ταυτόχρονα θα εξασφαλίζει καλή απόδοση και σε μικρό αριθμό διαστάσεων. Οι μέχρι τώρα μελέτες έχουν καταλήξει στο εξής συμπέρασμα: Τα γνωστά διαδεδομένα δέντρα αναζήτησης (είτε πρόκειται για δέντρα οργανωμένα βάση κατανομής χώρου (space partitioning) είτε για δέντρα βάση κατανομής δεδομένων (data partitioning)) αποδίδουν πολύ καλύτερα σε μικρό αριθμό διαστάσεων ενώ όσο αυτός ο αριθμός αυξάνει - ειδικά από 10 και πάνω – η απόδοση χειροτερεύει δραματικά. Το VA-File (σχήμα προσέγγισης διανύσματος) από την άλλη πλευρά - το οποίο είναι ένας απλός πίνακας-αρχείο γεωμετρικών προσεγγίσεων των αντικειμένων - με την αύξηση των διαστάσεων αποδίδει καλύτερα στην αναζήτηση ομοιοτήτων αλλά παρουσιάζει χαμηλή απόδοση σε μικρό αριθμό διαστάσεων.
Προκειμένου να ξεπεραστεί αυτή η καθοριστική εξάρτηση της απόδοσης από το πλήθος των διαστάσεων των προς διαχείριση αντικειμένων, προτείνουμε τη νέα υβριδική δομή Digenis, η οποία παντρεύει τη λογική των δέντρων αναζήτησης με κείνη των VA αρχείων. Πιο συγκεκριμένα, ορίζεται και χρησιμοποιείται ένα στατικό παραμετροποιημένο δέντρο (δέντρο Digenis) σε εννοιολογικό επίπεδο ενώ σε φυσικό επίπεδο χρησιμοποιείται το αρχείο Digenis το οποίο κατασκευάζεται με βάση το δέντρο. Με αυτή τη συσχέτιση επιτυγχάνεται αναζήτηση σε μικρό μόνο μέρος του αρχείου κατά τη διαδικασία ανεύρεσης ομοιοτήτων ανάμεσα σε αντικείμενα πολλών αλλά και λίγων διαστάσεων, γεγονός που δίνει γενικότητα και ευελιξία στη μέθοδο.
Πιο συγκεκριμένα, για το σχηματισμό του δέντρου, αρχικά ορίζονται οι οικογένειες αντικειμένων, οι οποίες αποτελούνται από αντικείμενα με μικρή απόσταση (βάση ενός προκαθορισμένου από τον εκάστοτε αναλυτή ορίου fl) και αντιπροσωπεύονται από το ‘μέσο’ αντικείμενο της οικογένειας (εάν δεν υπάρχει δημιουργείται για αυτό το ρόλο και μόνο). Κάθε κόμβος του δέντρου αντιπροσωπεύει-φιλοξενεί μία τέτοια οικογένεια. Το είδος των αποστάσεων που χρησιμοποιείται είναι η πλέον διαδεδομένη απόσταση, η Ευκλείδεια απόσταση, για την οποία ισχύει και η τριγωνική ανισότητα στην οποία θα βασιστεί μεγάλο μέρος της μεθόδου. Επίσης ένα δεύτερο όριο απόστασης (Lt) ορίζεται – από τον αναλυτή πάλι - σαν όριο με βάση το οποίο δύο αντικείμενα μπορούν να θεωρηθούν όμοια. Το δέντρο Digenis τελικά χτίζεται έχοντας ρίζα την πιο ‘κεντρική’ οικογένεια της περιοχής των αντικειμένων και κόμβους-παιδιά της τις ch πιο γειτονικές της οικογένειες, κάθε μία από αυτές έχει παιδιά της τις ch πιο γειτονικές της οικογένειες κ.ο.κ. Η δεδομένη ισχύ της τριγωνικής ανισότητας ανάμεσα στις Ευκλείδειες αποστάσεις των αντικειμένων-οικογενειών, αποδεικνύεται ένα χρήσιμο θεώρημα βάση του οποίου καθιστάται εφικτή η ασφαλής εξαίρεση μεγάλου μέρους του δέντρου από τους ελέγχους ομοιότητας, κατευθύνοντας τον τελικό έλεγχο σε μία μικρή περιοχή του. Αυτή η ανάλυση της αναζήτησης μέσα στο δέντρο είναι πολύ χρήσιμη σε ό,τι αφορά τη χρήση του αρχείου Digenis, όπου εκεί πραγματοποιείται η πραγματική αναζήτηση (φυσικό επίπεδο).
Το αντίστοιχο αρχείο Digenis στο φυσικό επίπεδο σχηματίζεται εάν αντιστοιχίσουμε σε κάθε του εγγραφή έναν κόμβο του δέντρου, ξεκινώντας από τη ρίζα του δέντρου και περνώντας από κάθε επίπεδο, από αριστερά προς τα δεξιά. Με αυτή την αντιστοίχηση, μπορούν πολύ εύκολα να χρησιμοποιηθούν οι τεκμηριωμένες τεχνικές εύκολου, ασφαλούς και γρήγορου αποκλεισμού περιοχών.
Ο απολογισμός της μεθόδου (θεωρητικά αλλά και πειραματικά) περιλαμβάνει θετικές και αρνητικές όψεις.
Θετικές όψεις:
• Το αρχείο έχει πολύ καλή απόδοση όταν διαχειριζόμαστε αντικείμενα πολλών διαστάσεων. Αυτό ήταν αναμενόμενο αφού το αρχείο λειτούργησε σαν ένα είδος VA αρχείου, όπου το ζητούμενο ήταν η δημιουργία συμπαγών γεωμετρικών προσεγγίσεων. Κι αυτό γιατί και η χρήση των οικογενειών επέφερε μία πρώτη ‘συμπίεση’ των δεδομένων αλλά και η προ-τακτοποίηση των αντικειμένων μέσω της εννοιολογικής χρήσης του δέντρου οδήγησε σε ένα είδος ομαδοποίησης γειτονικών αντικειμένων σε γειτονικές περιοχές.
• Το αρχείο έχει επίσης καλές επιδόσεις και όταν διαχειριζόμαστε αντικείμενα λίγων διαστάσεων. Αυτό συμβαίνει γιατί σε σχέση με το αρχείο VA είναι αναμενόμενα καλύτερο αφού βασίζεται σε δενδρική διάταξη, ενώ για τον ίδιο λόγο είναι ανταγωνιστικό και των παραδοσιακών ιεραρχικών δέντρων.
Αρνητικές όψεις:
• Η στατικότητα στον ορισμό του αριθμού(ch) των παιδιών ανά κόμβο του δέντρου, δημιουργεί προβλήματα στην κατασκευή του, γιατί συνήθως οι πραγματικά όμοιες οικογένειες μπορεί είναι περισσότερες ή λιγότερες από ch.
Αντιμετώπιση: Αν είναι περισσότερες, τοποθετούνται στο σύνολο των παιδιών οι ch κοντινότερες (με μικρότερες αποστάσεις από τον γονέα). Αν είναι λιγότερες, τότε ορίζεται ένα σχετικό όριο παιδιών και γεμάτων κόμβων στο δέντρο, πάνω από το οποίο τα παιδιά τοποθετούνται κανονικά στο δέντρο και οι υπόλοιποι κόμβοι μέχρι να συμπληρωθεί ο αριθμός παιδιών ch, συμπληρώνεται με κενούς κόμβους. Όταν όμως ο αριθμός των παιδιών μιας οικογένειας και οι υπόλοιποι γεμάτοι κόμβοι στο δέντρο είναι κάτω από αυτό το όριο, το αντίστοιχο προς δημιουργία δέντρο αποκόπτεται και δημιουργείται νέο μικρότερο δέντρο - με μικρότερο ch – ενώ το αρχικό δέντρο αναδιατάσσεται. Συνεπώς η τελική εφαρμογή μπορεί να περιλαμβάνει περισσότερα του ενός αρχεία Digenis, τα οποία κατά την αναζήτηση προσπελαύνονται από το μεγαλύτερο προς το μικρότερο, μέχρι να βρεθεί ομοιότητα (εάν υπάρχει).
• Μπορεί να υπάρχουν απομακρυσμένες οικογένειες – να μη συνδέονται με καμία άλλη – οι οποίες δεν μπορούν να ενταχθούν σε κανένα δέντρο.
Αντιμετώπιση: Δημιουργείται ένα Αρχείο Απομακρυσμένων (‘remote’ αρχείο) στο οποίο τοποθετούνται σειριακά οι απομακρυσμένες οικογένειες. Κατά την αναζήτηση αυτό το αρχείο προσπελαύνεται πρώτο, γιατί εφόσον εν γένει θα φιλοξενεί λίγες οικογένειες, η αναζήτηση σ’ αυτό θα είναι γρήγορη. Εάν υπάρχει ομοιότητα μεταξύ του αντικειμένου του ερωτήματος (query) και κάποιας οικογένειας του αρχείου, τότε έχει αποφευχθεί όλη η αναζήτηση στα δέντρα ενώ εάν πάλι δεν υπάρχει τέτοια ομοιότητα, λόγω του μικρού μεγέθους του αρχείου, η χρονική επιβάρυνση είναι σχεδόν αμελητέα.
Στο τελευταίο κεφάλαιο εξετάζεται ένα είδος δυναμικής αναζήτησης ομοιότητας, το οποίο ασχολείται με τις χρονικές ακολουθίες όχι των ίδιων των αντικειμένων αλλά των πεδίων (χαρακτηριστικών) τους. Δηλαδή αυτό που ανιχνεύεται είναι το κατά πόσο μοιάζει η εξέλιξη δύο χαρακτηριστικών στο χρόνο, πληροφορία που μπορεί να σταθεί πολύ χρήσιμη σε πολλά είδη εφαρμογών (ιατρικές, οικονομικές, επιστημονικές γενικά, κλπ). Χρησιμοποιώντας ένα παράδειγμα ιατρικών δεδομένων που αφορούν ορμόνες, με τη βοήθεια της προτεινόμενης μεθόδου (Chiron) εντοπίζονται με αποδοτικό τρόπο όμοια ε / The subject of this dissertation is the invention of methods which assure effective organization and management of multi-dimensional objects in order to achieve knowledge discovery. The initial target behind this study was the needs of a demanding application intending to map the human brain in order to help the localization of epileptic foci. During the corresponding research, the Representation and Management needs of human brain data raised two core research problems:
The representation peculiarity of the composite, non-uniform, network structured three-dimensional objects(brain objects), and
The needs for effective management-use of known and derived data and knowledge dependencies, which can upgrade the application performance and dynamics. The most important part of our relative research, leaded to the:
o Investigation of similarity search aspects. As this research area has great application and open problem width, it constitutes a great part of this dissertation.
Taking into account that the certain geometrical and knowledge dependency features of human brain data are common – all or part of them - in many modern multimedia applications, the above problems are included in the basic Data Base research problems.
Focusing our research in the above problems, we lead up to the:
Definition of new flexible data types, concepts, models, tools and data and knowledge ordering methods (Data Base BDB and models 3D-IFO and MITOS) which organize our data more flexibly and effectively, using methods that not only assure easier data access but also exploit their ‘hidden’ relationships and dependencies for more knowledge discovery.
Definition of new search trees and methods for:
o Effective detection of partial similarity among multi-dimensional objects ( Lui k-n-match και INTESIS).
o Obliteration of the high performance fall which occurs in similarity trees as dimensionality increases (‘dimensionality curse’) (Digenis structure ).
o Detection of object features/attributes/properties (dimensions) which have similar course in the time course – for multi-dimensional objects mostly – aiming at the study and detection of possible interaction among them (Chiron proposal ).
Generally, this dissertation consists of two basic parts, which refer to two research areas with great interaction:
• The Multi-Dimensional Data Base Modelling
• The Similarity Search among Multi-Dimensional objects.
Ιn the first chapter, the problem of human brain mapping for the localization of epileptic foci is discussed. This problem raises issues related to the peculiarities of the representation and the organization of three dimensional objects with complex structures/shapes and functional dependencies and relationships among them (brain objects). In the beginning, the logical model BDB (Brain Data Base) is proposed as a first approach, introducing new entity types. In the corresponding study, a very interesting proposal is the introduction of hierarchical ordering in the Relational Model in order to organize the brain areas according to their frequencies of epileptic foci presence, improving statistically the corresponding response times. In the following, the needs of the application are studied in the basis of a Semantic – IFO model - and of an Object-oriented Model, resulting in the definition of the 3D-IFO and the MITOS (Model for the Intelligent Three-dimensional Object Support) model, respectively. In the framework of 3D-IFO model, new data types and new operators have been introduced, in order to achieve effective representation and better management of the complex brain objects. Additionally, a new constructor and the suitable attribute for its support have been introduced, in order to effectively represent the ordering among brain parts, based on a certain criterion, thus facilitating combined data retrieval. In the end, the object-oriented model MITOS, introduces a new data model (MITOS Data Model – MDM) which cooperates with an intelligent knowledge base approach (MITOS Query Language – MQL). MITOS model introduces many novelties which serve a more expressive and intelligent representation and management of multi-dimensional data and knowledge. One of these novelties constitutes the definition of one more basic object characteristic (in object-oriented theory), the relationship with the environment, releasing it from the situation or the behaviour, where its concept and representation weakens. The second MITOS novelty concerns MQL and is related to the introduction of the concept of ‘key’ in the rules area. The extension of this potentiality – the idea comes from Data Base area – leads in fact to a kind of a key, with a meaning that it could have in Knowledge Bases and can not be exactly the same with that in Data Bases, because of the specific distinctions of these two Bases.
The subject of the second chapter is the detection of a least investigated similarity kind among multi-dimensional objects, the partial similarity. Partial similarity refers to similarities which are not full but they really exist. It is difficult to capture them using common techniques based on similarity functions (e.g. Euclidian distance) because these functions are affected by the whole set of object dimensions. Thus, when the objects are similar but ‘very different’ in few dimensions (e.g. very different colour and size) then the corresponding calculated functions (distances) will have very high values because of these few high dissimilarities and the similarity result will be negative while the objects will actually be similar. On the other hand, when between two objects there are low dissimilarities in most dimensions, they are actually dissimilar but the resultant function will have low value, so the dissimilar objects will be discerned as similar. In both cases, the common full similarity detection methods are not reliable.
The few studies that have investigated partial similarity, have mostly focused on geometric data. The study which is extended to multi-dimensional objects in general and has led to significant results in partial similarity, is presented in a paper of Koudas and al., in VLDB 2006. It introduces the effective methods k-n-match and frequent k-n-match, which result in k objects being similar to the given ones not in all their dimensions but at least in n ones, avoiding in this way those few very dissimilar dimensions –if any- which lead to false results. Nonetheless, these methods have some weaknesses which finally result either in full similarity (when finally, in frequent k-n-match, all n’s are taken into account) or in an occasional partial similarity detection (with the suitable n’s, which should not be very high or very low, without having however any type or method to calculate the ‘best’ n’s). Based on these methods, we propose two techniques which can provably detect real partial similarities. The first of them, Lui k-n-match, succeeds in the approximate specification of the suitable n’s for the k-n-matches, based on human-computer interaction and on the suitable checks of the similar objects that k-n-matches propose. More precisely, using k-n-match, for each n a set with objects possibly similar to the given one (query object), is proposed. The user filters this set and decides which objects of the proposed set are really similar to the given one. This procedure continues until the point where, while n has become larger than d/2* , the user does not select any object as similar from the proposed object set. In this way, the results are more reliable and valid (because of human-computer interaction) while in parallel the number of the executed k-n-matches are remarkably reduced.
The second partial similarity detection method (INTESIS) is based on the following observation: when two objects are similar, it usually means that they are similar in most of their characteristics. In data bases, each of object characteristic is represented by a set (usually small) of features-attributes(dimensions). Thus, if this correspondence between a characteristic and a set of attributes is defined by the developer of each application - creating dimension subsets – then the following can be successively done:
a) A full similarity detection for each dimension subset
b) Organization of these subsets in the corresponding hierarchical trees for their easy and effective management. The additional simplification of this choice derives from the fact that as long as the dimension subsets are small, the selection of the corresponding tree will be a very easy task, while almost all hierarchical trees have high performance for low dimensionalities. Consequently, the developer of each application can use the hierarchical tree that he/she considers as best (our proposition is R*-tree).
Finally, in order to complete the procedure, the application developer has to define which is the minimum number of the requisite similar characteristics that indicate partial similarity, for the particular application.
For the evaluation of the method, first of all, it is necessary to mention that it refers to a total number of dimensions less than 100 and consequently to a relatively small number of trees. As it is obvious, the final response time in a uniprocessor system is the sum of the response times of each tree. Taking into account that the number of dimensions which correspond to each tree is small, these trees have very good response times and consequently the total response time is low enough. While the use of each tree does not presuppose the use of another tree before or after it, the search in each tree can be performed in parallel. Therefore, in a multi-processing system, the total response time can be considerably reduced, achieving to reach the time needed for only one tree (when the number of processors is equal to the number of trees). Furthermore, bearing in mind that partial similarity forms a very demanding similarity search kind, not only the response times in multi-processing systems but those times in a uniprocessor system constitute satisfying performances.
The third chapter studies the potentiality of defining a new structure which does not ‘suffer’ from ‘dimensional curse’, while it assures good performance for low dimensionalities too. The latest studies have resulted in the following: Although the known similarity trees (either based on space partitioning or on data partitioning perform effectively in cases of low dimensionality, their performance generally degrades as dimensionality increases (especially for more than 10 dimensions). On the other hand, VA-File constitutes a simple approximate method (it is a simple array-file of object geometric approximations) which manages to outperform any other similarity search method at high dimensionality but it has low performance for low dimensionality. In order to overcome this determinant dependence between the performance and the dimensionality of a data-object set, we propose the new hybrid structure called Digenis, which marries the logic of similarity trees with VA-Files logic. More precisely, a static parametric tree (Digenis tree) is defined in conceptual level while the Digenis file, based on Digenis tree, is used in physical level. Using this correlation, a) the similarity search procedure is located in a small part of the file, excluding most dissimilar objects from the search and b) the method is used effectively for both low and high dimensional objects, preserving generality and flexibility.
The first necessary definition for Digenis proposal is related to the object families. They consist of objects having a small distance among them (based on a certain limit fl defined from the analyst, in each case) and they are represented by the ‘mean’ object of the family (if it does not exist, it is created just for this role). Each object family is hosted in a node of Digenis tree. The distance which is used is the most spread one, the Euclidian distance, for which the triangle inequality – where the method is mainly based - stands. Additionally, a second distance limit (Lt) is defined – from the analyst- which forms the limit used to conclude if two objects are similar or not. Finally, the root of the Digenis tree is the most ‘centered’ family in the total object area and the nodes being the children of it are its ch nearest families-nodes. The children of each of them are its ch nearest families, and so on. The triangle inequality which stands among the Euclidian distances of the object-families, is proved to be a very useful Theorem for the safe check exclusion of a great part of the tree , leading to a final check in a small tree area. The search analysis of the tree is very helpful for the use of Digenis file, where the real search is performed (physical level).
The corresponding Digenis file in the physical level is created if each tree node composes a record of the file, beginning from the tree root and passing from each level, from left to right. Using this correspondence, the proved Digenis tree techniques of easy, safe and quick exclusion of Digenis record areas can be used.
The (theoretical and experimental) evaluation of the method results in the detection of certain advantages and disadvantages of it.
Advantages:
The file has very good performance for high dimensionalities. This was expected because the file works as a kind of VA-File, where the records are compact geometric approximations. This matters because both the use of object families achieves a first data ‘compression’ and the pre-arrangement of the objects via the conceptual use of the tree lead to a kind of grouping of neighboring objects in neighboring areas.
The file has also good performance for low dimensionality, because in comparison to VA-File, it is expectably better while it is based on a tree structure. For the same reason, Digenis file is competitive to the classic hierarchical similarity trees.
Drawbacks:
The fact that the number of children for each node is statically defined as ch in each application is a disadvantage for the construction of the tree, because usually the really similar families may be more or less than ch.
Confrontation: If the similar families of a node are more than ch, then only the ch closest to the family are placed as its children, in the next level. If they are less than ch, then a limit of children and full nodes in the tree is defined. When this limit is overcome, the nodes-children are normally placed in the tree and the rest nodes –until ch-th one – remain empty. When however the number of the children of a family and of the full nodes in the tree, are less than this limit, the corresponding subtree is separated, creating a new smaller tree – with smaller ch – while the initial tree is reorganized. Consequently, the final application may include more than one Digenis tree, which are accessed from the bigger to the smaller, until the similarity is found (if any).
Perhaps there are remote areas of object families – without any connection with other families – which can not be included in any other tree.
Confrontation: A file including sequentially the remote families (called ‘remote’ file’) is created. During the similarity search, this file is the first which is accessed because while it usually hosts a few families, the search will be quick enough. If a similarity is detected (among the query object and a family in the file), then the search in the trees will be avoided while if no similarity exists, the time overhead of the file search is almost negligible, because of its size.
In the last chapter, a new kind of dynamic similarity search is investigated. It is related with the time streams not of the objects themselves but of their properties/attributes/dimensions. In other words, what is detected is whether the courses of two or more properties resemble. This kind of information can be very useful for several kinds of applications (medical, financial, scientific in general, e.t.c). Using medical data related to hormonal tests as an example, we prove that, based on our method Chiron, the hormones which are developed in the same way are accurately and effectively detected. More precisely, new objects (property course objects or Chiron objects) which encode the variations of each property in certain time intervals, are defined and organized in a tree (Chiron tree). The way these objects are defined, their differences and the Chiron tree itself make its navigation and the detection of similar Chiron objects – and consequently of properties which are developed in a similar way - a quick and easy procedure. This is achieved via the distribution of the Chiron objects in the Chiron tree according to the number of the different digits that exist among them. In this way, when we search in the Chiron tree for objects similar to a given one, a simple and compact algorithm is used, which avoids a vast amount of useless checks among very different objects. Generally, the method is promising enough because it poses new problems for investigation, like the statistical analysis of its results, the search for objects that are developed in a reverse way, the management of time shifts among the property course objects and the Chiron tree optimization.
|
90 |
Κατολισθήσεις στο νομό Αχαΐας: Ανάπτυξη μοντέλου επικινδυνότηταςΚάβουρα, Αικατερίνη - Παρασκευή 11 July 2013 (has links)
Στην παρούσα εργασία γίνεται μια προσπάθεια ανάδειξης του φαινομένου των κατολισθήσεων στο Νομό Αχαΐας με κύρια συνιστώσα το χρόνο (παρελθόν - παρόν- μέλλον). Οι κατολισθήσεις αποτελούν ένα σημαντικό φυσικό κίνδυνο (Natural Hazard) καθώς είναι ευρέως διαδεδομένες και κατέχουν μία θέση στη λίστα των λεγόμενων Φυσικών Καταστροφών (Natural Disasters). Έχει παρατηρηθεί ότι στη Δυτική Ελλάδα τα φαινόμενα των κατολισθήσεων είναι περισσότερα και συχνότερα απ’ ότι στη κεντρική και ανατολική Ελλάδα, κυρίως λόγω της λιθολογικής σύστασης των σχηματισμών, της έντονης και ενεργής τεκτονικής καθώς και των υψηλών βροχοπτώσεων. Ο Ν. Αχαΐας είναι μία από τις πιο χαρακτηριστικές περιοχές μελέτης κατολισθήσεων καθότι εκτός της μεγάλης συχνότητας του φαινομένου, υπάρχει μεγάλη ποικιλία ως προς την έκφρασή του (γεωλογία, μέγεθος, αίτια, συνέπειες κα).
Εδώ και δεκαετίες, από το Εργαστήριο Τεχνικής Γεωλογίας του Τμήματος Γεωλογίας Πανεπιστημίου Πατρών, μελετώνται τα φαινόμενα κατολισθήσεων στο Νομό οπότε υπάρχει αρκετός όγκος πληροφόρησης που μας δίνει στοιχεία για το παρελθόν μέσω των υφιστάμενων Βάσεων Δεδομένων. Σήμερα, παρόν, υπάρχει σχετικά άμεση ανταπόκριση και αντιμετώπιση των φαινομένων και καλύτερη καταγραφή αυτών. Το ερώτημα που τίθεται είναι κατά πόσο είναι εφικτό παρακολουθώντας και καταγράφοντας την ενεργότητα των κατολισθήσεων, να προβλέψουμε μία μελλοντική εξέλιξή τους, μέλλον.
Για τον σκοπό αυτόν έγινε μία διεξοδική συλλογή στοιχείων και ανάπτυξη μιας νέας Βάσης Δεδομένων Κατολισθήσεων για το Ν. Αχαΐας. Αρχικά, αναπτύχθηκε μία Φόρμα Καταγραφής Κατολισθήσεων (Landslide Inventory Form) στην οποία καταγράφηκαν 123 περιπτώσεις για την Αχαΐα (ιστορικές καταγραφές), από τις οποίες διατηρήθηκε ένα μέρος. Έγινε προσπάθεια αναγνώρισης και αποτύπωσης των καταγεγραμμένων θέσεων με χρήση Γεωγραφικών Συστημάτων Πληροφόρησης - ΓΠΣ (Geographical Information System – GIS). Η αποτύπωση έγινε με την βοήθεια ορθοφωτοχαρτών της ΚΤΗΜΑΤΟΛΟΓΙΟ ΑΕ και κατά περιπτώσεις σαν βοηθητικό εργαλείο του GoogleEarth. Παράλληλα με τις παλαιές (ιστορικές) θέσεις αναγνωρίστηκαν μία σειρά επιπλέον κατολισθήσεων (νέες) οι οποίες αποτέλεσαν μία σειρά νέων καταγραφών. Προέκυψε έτσι μία αρκετά ενημερωμένη Βάση Κατολισθήσεων η οποία και αναρτήθηκε στο Διαδίκτυο στον ιστότοπο του Εργαστηρίου Τεχνικής Γεωλογίας.
Από τις θέσεις που καταγράφηκαν τελικά επιλέχθηκαν οι τέσσερις (4) πλέον σημαντικές και «ενεργές» κατολισθήσεις μερικές από τις οποίες έχουν απασχολήσει αρκετά επιστήμονες και τεχνικούς τα παλαιότερα χρόνια, για περαιτέρω παρακολούθηση (monitoring) με ενόργανο εξοπλισμό (αποκλισιόμετρο) και μεθόδους τηλεπισκόπισης (remote sensing - SAR interferometry). Οι θέσεις αυτές είναι: (α) η κατολισθαίνουσα ζώνη Πλατάνου, (β) η κατολίσθηση της Παναγοπούλας, (γ) η κατολίσθηση της Καρυάς και (δ) η κατολίσθηση στον οικισμό Πλατανίτη Ναυπάκτου του Νομού Αιτωλοακαρνανίας. Στις θέσεις αυτές έγινε λεπτομερής γεωτεχνική έρευνα και εγκατάσταση αποκλισιομετρικών σωλήνων για συστηματική παρακολούθηση της κινηματικής και την ανάπτυξη ενός μοντέλου επικινδυνότητας. / The objective of this thesis is the study of landslide hazard. It’s an attempt to highlight the phenomenon of landslides in the Prefecture of Achaia function of time (past - present - future). Landslides constitute a major geologic hazard because they are widespread and we can add them in the hall of fame of natural disasters. It has been observed that in western Greece phenomena of landslides are more frequent than in the central and eastern Greece, mainly due to the lithology of the formations, the strong and active tectonics and high rainfall.
For decades, the Laboratory of Engineering Geology, Department of Geology, University of Patras, studied the effects of landslides in the Prefecture, as a result, there is enough volume of data that gives us information about the past through the existing Database. Today, there is immediate response and handling of landslide phenomena as well as better recording methods. The question that arises is whether it is possible by monitoring and recording the activity of landslides to predict a future evolution, future.
For this purpose took place a detailed collection of data and developed a new landslide database for the Prefecture of Achaia. At first, we developed a Landslide Inventory Form which recorded and archived 123 historical cases from Achaia, a part of that study was recorded and kept for further study. After that, the landslide recordings were imported to the Geographical Information Systems - GIS. Additionally, we used orthophotos from KTIMATOLOGIO S.A. and occasionally we used, as an auxiliary tool GoogleEarth. Alongside with the old (historical) landslide sites we identified a series of additional landslides (new ones) which helped us constitute a new archive with new recordings. As a result, there is an updated Landslide Database which was published on the webpage of the Laboratory of Engineering Geology.
From this point of view, we selected the four (4) most important and "active" landslides from which some of them have been the major study of several scientists and technicians in the past. Further monitoring (monitoring) with instrumental equipment (inclinometer) and remote sensing methods (remote sensing - SAR interferometry) was used in the study. These positions are as recorded : (a) the landslide zone at Platanos area (b) the landslide of Panagopoula area, (c) the landslide of Karia village and (d) the landslide at Platanitis area, near Nafpaktos village, Aitoloakarnania Prefecture. On these studies, a detailed geotechnical investigation and installation of inclinometer tubes for systematic monitoring of the kinematics and the development of a risk model was used.
|
Page generated in 0.0483 seconds