• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 1
  • Tagged with
  • 43
  • 27
  • 14
  • 13
  • 12
  • 11
  • 10
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Οργάνωση βάσεων εικόνων βάσει περιγράμματος : εφαρμογή σε φύλλα

Φωτοπούλου, Φωτεινή 16 June 2011 (has links)
Το αντικείμενο της μελέτης αυτής είναι η οργάνωση (ταξινόμηση, αναγνώριση, ανάκτηση κλπ.) βάσεων που περιλαμβάνουν εικόνες (φωτογραφίες) φύλλων δένδρων. Η οργάνωση βασίζεται στο σχήμα των φύλλων και περιλαμβάνει διάφορα στάδια. Το πρώτο στάδιο είναι η εξαγωγή του περιγράμματος και γίνεται με διαδικασίες επεξεργασίας εικόνας που περιλαμβάνουν τεχνικές ομαδοποίησης και κατάτμησης. Από το περίγραμμα του φύλλου εξάγονται χαρακτηριστικά που δίνουν την δυνατότητα αξιόπιστης περιγραφής κάθε φύλλου. Μελετήθηκαν στη διατριβή αυτή οι παρακάτω γνωστές μέθοδοι: Centroid Contour Distance, Angle code (histogram), Chain Code Fourier Descriptors. Προτάθηκαν επίσης και καινούριες μέθοδοι: Pecstrum (pattern spectrum), Multidimension Sequence Similarity Measure (MSSM). Οι παραπάνω μέθοδοι υλοποιήθηκαν. Παράχθηκε κατάλληλο λογισμικό και εφαρμόσθηκαν σε μία βάση εικόνων φύλλων επιλεγμένη από το διαδίκτυο. Η αξιολόγηση των μεθόδων έγινε μέσα από έλεγχο της συνολικής ακρίβειας κατηγοριοποίησης (με τον confusion matrix). H μέθοδος MSSM έδωσε τα καλύτερα αποτελέσματα. Μία οπτική αξιολόγηση έγινε σε αναπαράσταση 2 διαστάσεων (biplot) μέσα απο διαδικασία Multidimensional Scaling. / The objective of this thesis is the leaf images data base organization (i.e classification, recognition, retrieval etc.). The database organization is based on the leaf shape and is accomplished in a few stages. The contour recognition and recording consist the first stage and is performed with image processing operations namely clustering and segmentation. From the leaf contour several features are extracted appropriate for a reliable description of each leaf type. The following well known techniques were studied in this thesis: Centroid Contour Distance, Angle code (histogram), Chain Code, Fourier Descriptors. Two new metods were also proposed: Pecstrum (pattern spectrum), Multidimension Sequence Similarity Measure. In the experimental study appropriate software was produced to realize all the above methods which was applied to the leaf data base downloaded from internet. The overall evaluation of the methods was done by means of the classification in precision and using the confusion matrix. Best results were produced by the MSSM method.
32

Οργανικά συστήματα αρχείων

Πασιόπουλος, Ανδρέας 04 December 2012 (has links)
Με αυτή την εργασία προτείνουμε και υποστηρίζουμε ένα νέο πρότυπο για τα συστήματα αρχείων νέας γενιάς. Σε αυτό το πρότυπο, η παραδοσιακή άποψη ενός αρχείου αντικαθίσταται από την έννοια της πληροφοριακής μονάδας (information unit) και η παραδοσιακή αντίληψη των ιεραρχικών συστημάτων αρχείων αντικαθίσταται από ένα συνεχώς εξελισσόμενο χώρο δυναμικά αλληλένδετων πληροφοριακών μονάδων. Ένα Οργανικό Σύστημα Αρχείων (OFS) ορίζεται ως ένα σύστημα το οποίο αναπτύσσεται φυσικά και δεν υπόκειται σε τεχνητούς κανόνες και προκαθορισμένους, στατικούς τρόπους προβολής προς τους χρήστες του. Στο επίκεντρο του OFS βρίσκονται νέες αφαιρέσεις που υποστηρίζουν ένα συνεχώς εξελισσόμενο σύνολο πληροφοριακών μονάδων, χαρακτηρισμών των χρηστών για αυτές, και σχέσεων που δημιουργούνται μεταξύ τους από την πρόσβαση των χρηστών σε αυτές. Οι αφαιρέσεις αυτές επιτρέπουν το ίδιο σύστημα και το περιεχόμενό του να είναι ορατό με διαφορετικό τρόπο από διαφορετικούς τύπους χρηστών, σύμφωνα με τις τρέχουσες πληροφοριακές τους ανάγκες. Το OFS είναι ανθρωποκεντρικό, καθώς απαιτείται ανθρώπινη συνεισφορά για το χαρακτηρισμό των πληροφοριακών μονάδων και για την ανακάλυψη και το σχολιασμό των μεταξύ τους σχέσεων. Δεδομένου αυτού, στην καρδιά του OFS βρίσκονται αλγόριθμοι για την αναζήτηση βάσει περιεχομένου στα αποθηκευμένα αρχεία. Στην εργασία αυτή εκθέτουμε τα αποτελέσματα της μέχρι τώρα έρευνάς μας, συμπεριλαμβανομένης μιας υλοποίησης σε επίπεδο πυρήνα του λειτουργικού συστήματος, των βασικών χαρακτηριστικών του OFS, καθώς και τις σχετικές μετρήσεις απόδοσης προς απόδειξη της βιωσιμότητας της προσέγγισής μας. Συζητάμε στη συνέχεια, τις προκλήσεις που παραμένουν και τον αντίκτυπο που μπορεί να έχει το OFS στις σχετικές προσπάθειες έρευνας και ανάπτυξης, επισημαίνοντας τη σχετική έρευνα από άλλους τομείς, όπως η Ανάκτηση Πληροφορίας, το Κοινωνικό Λογισμικό, οι Διεπαφές Χρηστών, και η Διαχείριση Δεδομένων. / We propose and advocate a new paradigm for the next-generation file systems. In it, the traditional view of a file is replaced by the notion of an information unit and the traditional notion of hierarchical filesystems is replaced by an ever-evolving space of dynamically inter-related information units. An Organic File System (OFS) is defined as a system, which develops naturally and which does not conform to artificial rules and predefined, static ways of being viewed by its users. At the core of OFS lie novel abstractions which support a continuously evolving set of information units, users' characterizations of them, and relationships established between them by users accessing them. The abstractional also facilitate the same system and its contents to be viewed differently by different types of users, based on the current information needs. OFS is human-centered, as human input is used to characterize information units and to discover and annotate relationships between units. Given this, at the heart of OFS lie algorithms for content-based search of stored files. We report our R&D efforts so far, including a kernel-level architecture and implementation of the basic features of OFS and relevant performance measures establishing the viability of our approach. We then discuss the large number of challenges that remain and the impact OFS can have in relevant R\&D efforts, highlighting relevant research from other fields, such as Information Retrieval, Social Software, User Interfaces, and Data Management.
33

Σημασιολογικές μηχανές αναζήτησης Παγκόσμιου Ιστού / Semantic web clustering engines

Καναβός, Ανδρέας 11 June 2012 (has links)
Οι μηχανές αναζήτησης είναι ένα ανεκτίμητο εργαλείο για την ανάκτηση πληροφοριών από το διαδίκτυο. Απαντώντας στα ερωτήματα του χρήστη, επιστρέφουν μια λίστα με αποτελέσματα, ταξινομημένα κατά σειρά, με βάση τη συνάφεια του περιεχομένου τους προς το ερώτημα. Ωστόσο, αν και οι μηχανές αναζήτησης είναι σίγουρα αρκετά καλές στην αναζήτηση συγκεκριμένων ερωτημάτων, όπως είναι η εύρεση μιας συγκεκριμένης ιστοσελίδας, αντίθετα μπορούν να είναι λιγότερο αποτελεσματικές όσον αφορά την αναζήτηση ασαφών, προς αυτές, ερωτημάτων, όπως για παράδειγμα όταν συναντούμε το φαινόμενο της αμφισημίας, όπου μια λέξη μπορεί να πάρει περισσότερες από μία έννοιες μέσα στα συμφραζόμενα διαφορετικής πρότασης. Άλλο ένα παράδειγμα ερωτήματος είναι όταν υπάρχουν περισσότερες από δύο υποκατηγορίες και νοήματα σ’ ένα ερώτημα, πράγμα που σημαίνει ότι ο χρήστης θα πρέπει να διατρέξει έναν μεγάλο αριθμό αποτελεσμάτων για να βρει αυτά που τον ενδιαφέρουν. Στόχος της παρούσας διπλωματικής εργασίας είναι η ανάπτυξη ενός έμπειρου συστήματος, που θα μετά-επεξεργάζεται τις απαντήσεις μας κλασικής μηχανής αναζήτησης και θα ομαδοποιεί τα αποτελέσματα σε μια ιεραρχία από κατηγορίες με βάση το περιεχόμενο τους. Οι σημαντικότερες σημερινές λύσεις πάνω στο πρόβλημα της αντιστοίχησης των αποτελεσμάτων σε συστάδες είναι τα συστήματα Vivisimo, Carrot, CREDO και SnakeT. Η συνεισφορά που προτείνεται στη παρούσα εργασία, είναι η χρήση μίας σειράς τεχνικών που βελτιώνουν την ποιότητα των ομάδων απάντησης. Μία πρωτότυπη τεχνική που χρησιμοποιήθηκε στην παρούσα εργασία είναι η αναδιατύπωση των ερωτημάτων (query reformulation) μέσω διαφόρων στρατηγικών. Ο λόγος που παρουσιάζονται τέτοιες στρατηγικές, είναι επειδή συχνά οι χρήστες τροποποιούν ένα προηγούμενο ερώτημα αναζήτησης ώστε να ανακτήσουν καλύτερα αποτελέσματα ή κι επειδή πολλές φορές δεν μπορούν να διατυπώσουν σωστά ένα ερώτημα λόγω της μη γνώσης επιθυμητών αποτελεσμάτων. Επιπλέον, επωφεληθήκαμε από τη Wikipedia αντλώντας δεδομένα από τους τίτλους των σελίδων αλλά κι από τις κατηγορίες στις οποίες ανήκουν αυτές οι σελίδες. Αυτό γίνεται μέσω της σύνδεσης των συχνών όρων που ανήκουν στα κείμενα των αποτελεσμάτων αναζήτησης με τη σημασιολογική εγκυκλοπαίδεια Wikipedia, με σκοπό την εξαγωγή των διαφορετικών εννοιών και νοημάτων του κάθε όρου. Ειδικότερα, αναζητείται στη Wikipedia η ύπαρξη σελίδας (ή σελίδων για το φαινόμενο της αμφισημίας) που αντιστοιχίζονται στους όρους αυτούς με αποτέλεσμα τη χρησιμοποίηση του τίτλου και της κατηγορίας ως επιπρόσθετη πληροφορία. Τέλος η Wikipedia χρησιμοποιείται και στην ανάθεση ετικετών στις τελικές συστάδες ως επιπρόσθετη πληροφορία κάθε ξεχωριστού κειμένου που βρίσκεται στη συστάδα. / -
34

Μεθοδολογίες σχεδιασμού βασιζόμενες σε τεχνικές υπολογιστικής νοημοσύνης και σε προηγούμενη σχεδιαστική γνώση / Design methodologies based on computational intelligence techniques and on existing design knowledge

Σαριδάκης, Κωνσταντίνος 28 April 2009 (has links)
Στην παρούσα διατριβή γίνεται μία μεθοδολογική συστηματική προσέγγιση του σχεδιασμού που βασίζεται στη χρήση τεχνικών της υπολογιστικής νοημοσύνης και στην εκμετάλλευση της προϋπάρχουσας διαθέσιμης σχεδιαστικής γνώσης. Προσδιορίζονται τα βασικά στοιχεία που οφείλει να ενσωματώνει η προτεινόμενη μεθοδολογία (αναπαράσταση και διαχείριση σχεδιαστικής γνώσης, αναζήτηση της βέλτιστης σχεδιαστικής λύσης και μάθηση και επαναχρησιμοποίηση σχεδιαστικής γνώσης), τα οποία σχηματίζουν τους πυρήνες γύρω από τους οποίους αναπτύσσονται αλγόριθμοι που βασίζονται στην χρήση τεχνικών υπολογιστικής νοημοσύνης (ασαφής λογική, τεχνητά νευρωνικά δίκτυα και γενετικοί αλγόριθμοι). Καθώς αναπτύσσεται η διατριβή, αναπτύσσεται η μαθηματική βάση για τη διατύπωση του παραμετρικού σχεδιαστικού προβλήματος και παρουσιάζεται ο συνεργατικός τρόπος βάσει του οποίου σχηματίζονται ασαφείς πίνακες δομής σχεδιασμού, βάσει των οποίων η διαθέσιμη σχεδιαστική γνώση οργανώνεται σε εύχρηστες ιεραρχικές δομές. Στη συνέχεια, εισάγεται ένα πλαίσιο ασαφούς συλλογιστικής για τη μοντελοποίηση από την πλευρά του σχεδιαστή των σχεδιαστικών στόχων/απαιτήσεων/περιορισμών υπό τη μορφή ασαφών προτιμήσεων. Προτείνεται επίσης το μέτρο της μέγιστης συνολικής ασαφούς προτίμησης ως κριτήριο βελτιστότητας των σχεδιαστικών λύσεων και προσαρμόζεται στην προτεινόμενη δομή οργάνωσης της σχεδιαστικής γνώσης. Η βέλτιστη σχεδιαστική λύση εξάγεται είτε μέσω μίας διαδικασίας βελτιστοποίησης που βασίζεται σε γενετικούς αλγόριθμους ή, εναλλακτικά, μέσω άλλων τεχνικών βελτιστοποίησης, ή χρησιμοποιώντας σχεδιασμό αναλογικής συλλογιστικής με ανάκτηση προηγούμενων σχεδιαστικών λύσεων. Οι σχεδιαστικές λύσεις είναι καταχωρημένες σε μία βάση και ανακτώνται χρησιμοποιώντας ένα εκπαιδευμένο ανταγωνιστικό τεχνητό νευρωνικό δίκτυο, το οποίο ομαδοποιεί τις λύσεις κατάλληλα και αποδίδει την ομάδα λύσεων που συγκλίνει προς τις τρέχουσες ασαφείς προτιμήσεις του σχεδιαστή. Στη διατριβή αναπτύσσονται και εισάγονται αρχιτεκτονικές, μέσω των οποίων οι διαδικασίες βελτιστοποίησης και ανάκτησης σχεδιαστικών περιπτώσεων συνδυάζονται υβριδικά, επιτυγχάνοντας αποτελέσματα ανώτερα σε ποιότητα και ταχύτητα επίτευξης σε σχέση με περιπτώσεις χρήσης μεμονωμένων (μη υβριδικών) τεχνικών. Εισάγεται επίσης μια μεθοδολογία σύμφωνα με την οποία οι σχεδιαστικές λύσεις που υπάρχουν στη βάση λύσεων χρησιμοποιούνται για τη νευρο-ασαφή προσέγγιση του αρχικού σχεδιαστικού προβλήματος και την απλοποιημένη μοντελοποίησή του. Αποδεικνύεται ότι η προσέγγιση αυτή είναι ιδιαίτερα κατάλληλη για σχεδιαστικά προβλήματα που παρουσιάζουν σημαντικό υπολογιστικό κόστος. Στα πλαίσια της συστημικής προσέγγισης για την υλοποίηση των προτεινόμενων μεθοδολογιών και αρχιτεκτονικών και για την αξιολόγηση αυτών, αναπτύχθηκε το σύστημα παραμετρικού σχεδιασμού Case-DeSC (Case-based design with Soft-Computing), το οποίο δοκιμάστηκε σε τρία διαφορετικά σχεδιαστικά προβλήματα. Τα αποτελέσματα εφαρμογής των προτεινόμενων μεθοδολογιών, οι προοπτικές εξέλιξης αυτών, καθώς και μια γενικότερη τοποθέτηση περί σχεδιασμού συνοψίζονται στο τέλος της παρούσας διατριβής. / The current Ph.D. thesis introduces a methodogical and systematic approach in order to perform engineering design by utilizing methods and techniques of computational intelligence as well as past design knowledge. Important issues and processes, such as representation and manipulation of design knowledge, extraction of optimal design solution, learning and reuse of design knowledge etc. are analytically discussed. Each one of the aforementioned elements is considered as core around which integrated algorithms are developed that combine various computational intelligence (soft-computing) techniques such as fuzzy logic, artificial neural networks and genetic algorithms. The parametric design problem is formulated on a mathematical basis, whereas the collaborative formation of fuzzy design structure matrices (DSM) is introduced as a basis on which the available design knowledge is organized in convenient hierarchical structures. Furthermore, in order to model the design objectives/requirements/constraints, a fuzzy inference framework is introduced that facilitates the expression of fuzzy preferences on various design parameters. The metric of the total maximum fuzzy preference is introduced as optimality criterion for the design solutions and then it is integrated in the proposed design knowledge organizational structure. The optimal solution is extracted either through an optimization process basically using a genetic algorithm or -alternatively- other optimization techniques, or through deploying analogical reasoning design with retrieval of past design solutions. The design solutions are preserved in a case base and they are retrieved by a trained competitive artificial neural network, which classifies the solutions into clusters and extracts the cluster that converges to the current designer’s preferences. Multiple options are provided for the extraction of optimal solutions. These options include: a) an optimization process that utilizes genetic algorithms, b) other evolutionary optimization techniques and c) analogical reasoning with retrieval of past design solutions. The design solutions are preserved in a case (solution) base and they are retrieved by a trained competitive artificial neural network that classifies the solutions into clusters and extracts the cluster that suits best to the current designer’s preferences. Architectures are developed and introduced, based on which the optimization and case-based retrieval processes are combined. This combination provides more efficient results in terms of quality and speed, if a comparison is made versus the implementation of individual (non-hybrid) techniques. Additionally, a methodology is proposed, according to which the design solutions located in the case base can be retrieved and utilized for a simplified neuro-fuzzy approximation of the initial design problem. It is proved that this approximation is suitable in case of design problems with high computational cost. In the context of a systemic approach of implementing the proposed methodologies and architectures and their evaluation, a system named Case-DeSC (Case-based design with Soft-Computing) is developed and tested against overall performance in three different design problems. The results from the implementation of the proposed methodologies, their future enhancements and evolution, as well as a general discussion about engineering design conclude the present dissertation.
35

Επίδραση της επαναμορφοποίησης στις ιδιότητες ανακτημένης ύλης από πολυαιθυλένιο και πολυπροπυλένιο

Κανελλοπούλου, Γωγώ 18 March 2009 (has links)
Η παρούσα διατριβή είχε ως σκοπό τη μελέτη της επίδρασης της επαναμορφοποίησης στις μηχανικές κυρίως ιδιότητες δυο πολύ κοινών πολυμερών, του πολυαιθυλενίου και του πολυπροπυλενίου. Τα πολυμερή αυτά, χρησιμοποιούνται σε πολλές εφαρμογές και για αυτό το λόγο ο όγκος των απορριμμάτων τους αποτελεί ένα σοβαρό περιβαλλοντικό πρόβλημα. Παρόλο που αποτελούν υλικά εύκολα ανακυκλώσιμα, πολύ μικρό ποσοστό από τα απορρίμματα τους ανακτώνται. Περιβαλλοντικοί αλλά και οικονομικοί λόγοι οδήγησαν στην ιδέα να κατασκευαστούν κάποια προϊόντα χαμηλών απαιτήσεων, τα οποία μέχρι τώρα κατασκευάζονται από καθαρά πολυμερή, από πλήρως ανακτημένη πρώτη ύλη. Η δυσκολία στην εφαρμογή των ανακτημένων υλικών έγκειται στο ότι αυτά περιέχουν διάφορα πρόσθετα, καταπονούνται αρκετά από την έκθεση τους σε περιβαλλοντικούς παράγοντες όσο διάστημα χρησιμοποιούνται ή βρίσκονται στους χώρους ενταφιασμού και οι πολλαπλές επαναμορφοποιήσεις τους είναι πιθανόν να προκαλέσουν υποβάθμιση του υλικού. Για αυτό το λόγο, μελετήθηκαν επαναμορφοποιημένα δείγματα από πολυαιθυλένιο και πολυπροπυλένιο άγνωστης προϊστορίας και καταπόνησης σε σύγκριση με τα αντίστοιχα καθαρά υλικά, προκειμένου να γίνει σύγκριση των ιδιοτήτων τους και κατ’ επέκταση μια εκτίμηση της επίδρασης του βαθμού επαναμορφοποίησης στη μηχανική τους συμπεριφορά. Παράλληλα, όλα τα δείγματα, επαναμορφοποιημένα και μη, μελετήθηκαν φασματοσκοπικά, ώστε να διαπιστωθεί αν η διαδικασία ανάκτησης έχει προκαλέσει μεταβολές στη χημική δομή των υλικών αυτών. Από τις τεχνικές χαρακτηρισμού που χρησιμοποιήθηκαν (φασματοσκοπία υπερύθρου και Raman, DSC και TGA) διαπιστώθηκε ότι δεν έχει επέλθει αλλαγή στη χημική δομή των ανακυκλωμένων υλικών. Όσον αφορά τις διαφοροποιήσεις που εκείνα παρουσίασαν σε σχέση με τα αντίστοιχα καθαρά υλικά, αποδίδονται στην παρουσία προσθέτων, χρωστικών ουσιών κυρίως, που τα ανακτημένα υλικά περιείχαν. Η μηχανική συμπεριφορά των επαναμορφοποιημένων, ιδιαίτερα στην περίπτωση του πολυαιθυλενίου ήταν παρόμοια με αυτή των καθαρών δειγμάτων και τα αποτελέσματα συγκρίσιμα. Αντίθετα, στην περίπτωση του πολυπροπυλενίου η διαδικασία ανάκτησης είχε υποβαθμίσει πολύ το υλικό με αποτέλεσμα να εμφανίζει πολύ κατώτερες μηχανικές ιδιότητες. Όλα τα επαναμορφοποιημένα υλικά είχαν υποστεί ως ένα βαθμό περιβαλλοντική γήρανση καθώς ήταν εκτεθειμένα για αρκετό χρονικό διάστημα σε περιβαλλοντικές συνθήκες. Η επίδραση της έκθεσης όμως δεν ήταν δυνατόν να αξιολογηθεί, αφού δε ήταν γνωστό το ακριβές χρονικό διάστημα καθώς και οι συνθήκες θερμοκρασίας, υγρασίας κ.λπ. Για αυτό το λόγο, τόσο τα ανακτημένα όσο και τα καθαρά δείγματα, υπέστησαν τεχνητή επιταχυνόμενη περιβαλλοντική γήρανση, προκειμένου να μελετηθεί η επίδρασή της στις ιδιότητες των υλικών. Αυτό που παρατηρήθηκε και σε αυτές τις δοκιμές ήταν ότι, ανάλογα με τον βαθμό επαναμορφοποίησης στα μη γηρασμένα υλικά, η τεχνητή γήρανση επηρέασε κατά κύριο λόγο τις αντοχές των υλικών σε κάθε μηχανική καταπόνηση και δευτερευόντως τις φυσικές ιδιότητες τους. Σε γενικές γραμμές, διαπιστώθηκε ότι τα επαναμορφοποιημένα δείγματα HDPE δεν παρουσιάζουν μεταβολές ως προς τη χημική δομή τους, ενώ δίνουν συγκρίσιμα αποτελέσματα στις μηχανικές δοκιμές τόσο στο μέτρο ελαστικότητας όσο και στην αντοχή. Μετά τη γήρανση, η αντοχή τους μειώνεται σημαντικά παρόλα αυτά, η συνολική τους μηχανική απόκριση κρίνεται ικανοποιητική. Αντίθετα τα επαναμορφοποιημένα δείγματα ΡΡ, εμφάνισαν ακόμα και πριν την τεχνητή γήρανση, αισθητά χαμηλότερες μηχανικές ιδιότητες (χαμηλότερο μέτρο ελαστικότητας και αντοχή σε σχέση με τα παρθένα υλικά), παρόλο που δεν παρουσίασαν καμία αλλαγή στη χημική τους δομή. / Reforming effect on thermoplastics mechanical properties was the subject of this thesis. More specifically, samples of polyethylene and polypropylene were chosen to be tested, as they are widely used in many applications and consequently there is a large amount of municipal waste of this kind. Even though, these polymers are easily recyclable compared to other polymers, only 2% of this kind of municipal waste gets recycled in Greece nowadays. Economical and environmental reasons, researchers led to the idea of constructing products out of completely recycled materials. Recycling process faces many difficulties; the most important of these is the addition of pigments (additives) such as colors, coupling agents etc, which make polymer recycling heavier or even impossible in some cases. Moreover, these materials degrade signifantly because of their exposure to the environment while they are used in exterior application or get thrown in landfills after use. As the collection of completely recycled materials was quite impossible, virgin and reformed of known and unknown history samples of polyethylene and polypropylene, are examined, as for their chemical structure and mechanical properties, in order to get compared and finally reach a conclusion if reformed materials are appropriate for getting used in some applications. Through Raman and Infrared Spectroscopy, it was observed no change in reformed materials’ chemical structure before and after reforming process. Also, their thermal behavior appeared many similarities between virgin materials and reformed ones. However, these similarities did not appear in mechanical tests. Even though, reformed HDPE of known and unknown history showed comparable and very close properties with these of virgin, it is observed a lack of stability in their mechanical behavior, especially in case of reformed unknown history polyethylene. In the case of polypropylene, the reformed samples were always inferior to the virgin ones, in all tests, probably to its degradation during reforming process. In order to determine accurately, the weathering effect on samples behaviour, they were imposed to artificial ageing in oven, in controlled temperature, humidity etc. As in non aged samples, reforming ratio plays significant role in samples’ physical properties, which appear dominantly changed after ageing. As it was expected, mechanical behavior has changed after ageing, too. However, there were no significant reduce in moduli of elasticity in tensile, compression and flexural tests, a dramatic reduce in strength in every mechanical test was observed between samples before and after ageing.
36

Δομές δεδομένων για τη διαχείριση συμβολοσειρών και για τη διαχείριση πληροφορίας σε δικτυοκεντρικά πληροφοριακά συστήματα

Παναγής, Ιωάννης-Δαμαστιανός 03 March 2009 (has links)
Οι Δομές Δεδομένων είναι ένας από τους σημαντικότερους και ιστορικότερους κλάδους της Επιστήμης των Υπολογιστών, με συνεχή εξέλιξη από τη δεκαετία του εβδομήντα μέχρι σήμερα, παρέχοντας λύσεις σε θεμελιώδη προβλήματα σε ταξινόμηση, οργάνωση, διαχείριση και αναζήτηση πληροφορίας. Παράλληλα, η ανάπτυξη σύγχρονων κλάδων της Επιστήμης των Υπολογιστών όπως τα Σύγχρονα, Δικτυοκεντρικά Πληροφοριακά Συστήματα και η Βιοπληροφορική, έφερε μαζί της την έκρηξη των δεδομένων. Η ανάγκη αποδοτικής διαχείρισης της παρεχόμενης πληροφορίας καθίσταται έτσι πιο επιτακτική από ποτέ. Στα πλαίσια αυτής της διατριβής αναγνωρίζοντας την ανάγκη για αποδοτική διαχείριση πληροφορίας σε όλα τα επίπεδα, παρουσιάζουμε τη μελέτη και την πρόταση λύσεων σε σύγχρονα προβλήματα στους χώρους: της Διαχείρισης Συμβολοσειρών, της Αναδιοργάνωσης Δικτυακών Τόπων, της Ανακάλυψης Web Services με υποστήριξη χαρακτηριστικών Ποιότητας Υπηρεσίας και της Προσωποποιημένης Ανάκτησης Πληροφορίας στο Διαδίκτυο. Σε αυτή την κατεύθυνση, στον τομέα της Διαχείρισης Συμβολοσειρών, παραθέτουμε αλγορίθμους σε θεμελιώδη προβλήματα στο χώρο της διαχείρισης Σταθμισμένων Ακολουθιών (weighted sequences), όπως ταίριασμα προτύπου, εύρεση επαναληπτικών δομών, και συνεχίζουμε δίνοντας απλοποιητικές αλλά βέλτιστες λύσεις σε προβλήματα περιοδικοτήτων σε συνήθεις συμβολοσειρές, όπως τα προβλήματα εύρεσης όλων των καλυμμάτων μιας συμβολοσειράς, εύρεσης της περιόδου μιας συμβολοσειράς και εύρεσης όλων των φύτρων μιας συμβολοσειράς. Στην Αναδιοργάνωση Δικτυακών Τόπων, παραθέτουμε δυο διαφορετικές μετρικές για την αποτίμηση της αντικειμενικής αξίας των ιστοσελίδων του κάθε ιστοτόπου. Αυτές οι μετρικές παραλλάζουν τις προσβάσεις που δέχεται κάποια ιστοσελίδα με τρόπο που καταδεικνύει την αντικειμενική αξία της ιστοσελίδας. Από πειραματική αποτίμηση των μετρικών, προκύπτει ότι παρέχουν ακριβή πληροφόρηση για τα σημεία του δικτυακού τόπου που χρήζουν αναδιοργάνωσης. Στη συνέχεια δίνουμε μια μέθοδο για τον εντοπισμό σημαντικών τμημάτων μεγαλύτερου μεγέθους στο δικτυακό τόπο και παρουσιάζουμε μια σειρά μεθόδων τόσο σε τεχνικό όσο και θεωρητικό επίπεδο για την αναδιοργάνωση ενός δικτυακού τόπου. Στον τομέα της Ανακάλυψης Web Services, εξετάζουμε την Ανακάλυψη που πληροί περιορισμούς ως προς την παρεχόμενη Ποιότητα Υπηρεσίας. Αρχικά, παρουσιάζονται δυο απλές μέθοδοι για την καταχώριση χαρακτηριστικών ποιότητας υπηρεσίας επεκτείνοντας υπάρχοντα πρότυπα υλοποίησης Web Service. Στη συνέχεια παρουσιάζουμε έναν αλγόριθμο για την ανακάλυψη του σεναρίου εκτέλεσης μιας ακολουθίας (workflow) από συνεχόμενες Web Services, που ελαχιστοποιεί το συνολικό χρόνο εκτέλεσης. Μια σειρά από ευριστικές μεθόδους παρουσιάζονται επίσης, για την υλοποίηση σε πρακτικό επίπεδο του προτεινόμενου αλγορίθμου, οι οποίες αποτιμούνται πειραματικά. Τέλος, στον τομέα της Προσωποποιημένης Ανάκτησης Πληροφορίας στο Διαδίκτυο εξετάζουμε διαφορετικές τεχνικές προσωποποίησης των αποτελεσμάτων των μηχανών αναζήτησης. Η πρώτη τεχνική εφαρμόζει μετα-κατηγοριοποίηση των αποτελεσμάτων και παρουσίασή τους ανάλογα με τη σειρά ενδιαφέροντος του χρήστη ως προς τις κατηγορίες των αποτελεσμάτων. Η δεύτερη τεχνική, βασίζει την προσωποποίηση στην έμμεση απεικόνιση των ενδιαφερόντων χρήστη στις κατηγορίες του Open Directory Project, επεκτείνει μια τεχνική που έχει πρόσφατα προταθεί, τους ιδεατούς κόμβους συσχέτισης κατηγοριών, και χτίζει πολλαπλά επίπεδα ιδεατών κόμβων για την επίτευξη πιο εκλεπτυσμένης προσωποποίησης. Κλείνοντας, παρουσιάζουμε την επέκταση της λογικής της μεθόδου προσωποποίησης για την κατασκευή εστιασμένων συλλεκτών. / Data Structures is one of the most important and most historical sectors of Computer Science, being under continuous development since the seventies. Data Structuring has offered solutions to fundamental problems in sorting, organising, and retrieving information. Meanwhile, the development of the modern fields of Computer Science such as Modern, Net-centric Information Systems and Bioinformatics has signalled a data blow-up. Therefore, the need for efficient information management has become a necessity. In this Thesis, having recognized the need for efficient information management at every level, we present a study and solutions to contemporary problems in the areas of: String Processing, Website Reorganization, Web Service retrieval with support for Quality of Service characteristics, and Personalized Information Retrieval on the Web. In the area of String Processing, we present algorithms for solving fundamental problems in Weighted Sequence Processing, such as Pattern Matching, Repetitive Structures Detection and we continue by giving simplifying yet optimal solutions to periodicity problems in ordinary sequences, namely detecting all covers in a sequence, detecting the period of a sequence and detecting all the seeds of a sequence. In the area of Website Reorganization, we present two different metrics for evaluation of the objective importance of each website's pages. These metrics modify the accesses each page receives in order to present the actual page importance. We have seen from the experimental evaluation of those metrics that they provide accurate information about the areas inside the website in need of reorganization. Furthermore, we present a method to detect larger important parts inside the website and we present methods for website reorganisation both from a technical and from a theoretical viewpoint. In the area of Web Service Retrieval we are coping with retrieval under constraints for the provided Quality of Service (QoS). Firstly, we present two simple methods to register QoS information by extending existing Web Service protocols. Secondly, we present an algorithm to discover the execution scenario for a sequence of contiguous Web Services that minimizes the total execution time. A series of heuristics to implement the above algorithm is also presented. We also present an extensive experimental evaluation of those heuristics. Ultimately, we present different personalization techniques for personalized Web Information Retrieval. The first technique, applies post-categorization of search engine results and presents them according to user preferences with respect to the results' categories. The second technique is based on implicit mapping of user preferences to the categories of the Open Directory Project, it extends a recently proposed technique, namely virtual nodes for associating categories, and builds multiple layers of nodes to achieve more elaborate personalization. Finally, we present the extension of personalization methods in order to build focused crawlers.
37

Αποδοτικοί αλγόριθμοι και προσαρμοστικές τεχνικές διαχείρισης δικτυακών πληροφοριακών συστημάτων και εφαρμογών παγκόσμιου ιστού / Efficient algorithms and adaptive techniques for net-centric information systems and web applications management

Σακκόπουλος, Ευάγγελος 25 June 2007 (has links)
Στα πλαίσια της διδακτορικής μας διατριβής ασχοληθήκαμε με προβλήματα διαχείρισης δικτυακών πληροφοριακών συστημάτων που βασίζονται σε τεχνολογίες παγκόσμιου ιστού (network-centric information systems, netcentric information systems, web information systems). Η έννοια της δικτυο-κεντρικής προσέγγισης (netcentric) προσπαθεί να αποδώσει την τάση να χρησιμοποιείται η δικτυακή υποδομή και τεχνολογία όλο και περισσότερο στα πληροφοριακά συστήματα και τις εφαρμογές παγκόσμιου ιστού για να παρέχουν, να δημοσιοποιούν, να διαμοιράζουν και να επικοινωνούν online υπηρεσίες και πληροφορίες. Κύριος στόχος της διατριβής είναι α) η διασφάλιση της ποιότητας κατά την εξυπηρέτηση, β) η μείωση του χρόνου εντοπισμού και γ) η εξατομίκευση υπηρεσιών και πληροφοριών σε δικτυακά πληροφοριακά περιβάλλοντα και εφαρμογές που βασίζονται σε τεχνολογίες μηχανικής Παγκόσμιου Ιστού. Σε πρώτο επίπεδο, οι αποδοτικοί αλγόριθμοι που αναπτύξαμε αφορούν τις υπηρεσίες Web Services που έχουν σχεδιαστεί να υποστηρίζουν διαλειτουργική αλληλεπίδραση μεταξύ μηχανών με χρήση δικτυακής υποδομής. Πρόκειται ένα τεχνολογικό πλαίσιο το οποίο προτυποποιήθηκε από το W3 Consortium (http://www.w3.org) και γνωρίζει την ευρεία υποστήριξη τόσο της επιστημονικής κοινότητας τεχνολογιών πληροφορικής και επικοινωνιών όσο και των επαγγελματιών μηχανικών Η/Υ και της βιομηχανίας πληροφορικής παγκοσμίως. Αναλυτικότερα στο πρώτο μέρος της διατριβής δίνουμε αρχικά μία νέα κατηγοριοποίηση και συγκριτική παρουσίαση των λύσεων και προβλημάτων που αφορούν αποδοτικές λύσεις αλγορίθμων διαχείρισης και αναζήτησης υπηρεσιών. Στη συνέχεια, εισάγουμε μια σειρά από νέους αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών που διασφαλίζουν την ποιότητα της παρεχόμενης υπηρεσίας και βελτιώνουν την πολυπλοκότητα στο χρόνο εντοπισμού μιας υπηρεσίας. Συνολικά στο πρώτο μέρος παρουσιάζουμε: - Αποδοτικούς αλγορίθμους δυναμικής επιλογής Web Service που λαμβάνουν υπόψη μη λειτουργικές προδιαγραφές για ποιότητα και απόδοση κατά την προσπάθεια χρήσης (consumption) του Web Service (QoWS enabled WS discovery). - Αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών δικτυο-κεντρικών πληροφοριακών συστημάτων οι οποίοι βασίζονται σε αποκεντρικοποιημένες δικτυακές λύσεις ειδικά σχεδιασμένες για WS καταλογογράφηση (decentralized WS discovery). Σε δεύτερο επίπεδο, δίνουμε αποδοτικές προσαρμοστικές μεθόδους για την εξατομίκευση των αποτελεσμάτων αναζήτησης πληροφοριών στον Παγκόσμιο Ιστό. Με τον τρόπο αυτό επιτυγχάνουμε βελτίωση της απόδοσης τόσο για τις εσωτερικές λειτουργίες διαχείρισης και αναζήτησης των δικτυακών πληροφοριακών συστημάτων όσο και του τελικού αποτελέσματος, της πληροφορίας δηλαδή, που παρουσιάζουν τα συστήματα αυτά στον τελικό χρήστη. Συγκεκριμένα, στο δεύτερο μέρος της διατριβής εισάγουμε μια σειρά από τρεις αλγορίθμους εξατομίκευση των αποτελεσμάτων αναζήτησης, οι οποίοι βασίζονται σε τεχνικές μετρικών συνδέσμων (link metrics). Το κύριο πλεονέκτημα των τεχνικών που προτείνουμε είναι ότι επιτρέπουν, με τη χρήση μιας αρκετά απλής μεθοδολογίας, την εξατομίκευση των αποτελεσμάτων αναζήτησης, χωρίς να επιβαρύνονται οι χρήστες σε όγκο αποθήκευσης ή με καθυστερήσεις λόγου χρόνου εκτέλεσής τους. Επιτυγχάνουμε εξατομικευμένη αναζήτηση εφαρμόζοντας τεχνικές ανάλυσης και επεξεργασίας συνδέσμων όχι στο γράφο ιστού αλλά για πρώτη φορά σε αρκετά μικρότερους εξατομικευμένους γράφους που σχηματίζονται από διαθέσιμες σημασιολογικές ταξονομίες. Συνοψίζοντας τα ερευνητικά αποτελέσματα του δεύτερου μέρους παρουσιάζουμε τα ακόλουθα: - Αποδοτικοί αλγόριθμοι για εξατομικευμένη αναζήτηση πληροφορίας (personalized searching) στον Παγκόσμιο Ιστό. - Μηχανισμός προσαρμοστικής παρουσίασης αποτελεσμάτων αναζήτησης με χρήση πολλαπλών επιπέδων κατηγοριοποίησης. - Επέκταση των αλγορίθμων για μηχανισμούς στοχευμένης συλλογής σελίδων (focused web crawlers) που αποτελούν εναλλακτική της εξατομικευμένης αναζήτησης πληροφοριών. Τέλος στο τρίτο και τελευταίο μέρος της διατριβής παρουσιάζουμε μια σειρά από εφαρμογές, αρχιτεκτονικές και λειτουργικά πλαίσια τα οποία αφορούν δικτυακά πληροφοριακά περιβάλλοντα στα οποία εφαρμόζουμε τεχνικές διαχείρισης υπηρεσιών και μηχανισμούς εξατομίκευσης πληροφοριών. O κύριος στόχος της παρουσίασης των λύσεων αυτών είναι να επιδειχθεί ότι οι προτεινόμενοι αποδοτικοί αλγόριθμοι, που παρουσιάστηκαν στα προηγούμενα κεφάλαια, έχουν εφαρμογή σε πολλαπλά προβλήματα διαφορετικών επιστημονικών και τεχνολογικών πεδίων που χρησιμοποιούν δικτυακά πληροφοριακά συστήματα και εφαρμογές παγκόσμιου ιστού. / In our PhD dissertation we dealt with performance issues in network - centric information systems, netcentric information systems and web information systems. Netcentric approach attempts to depict the augmenting tendency to use the network communication in information systems and web applications in order to provide, to publish, to distribute and to communicate online services and information. The key aim of our doctoral thesis is a) the quality at the service provision, v) the reduction of discovery time and c) the personalization of services and information in network information systems and applications that are based on web engineering technologies. Initially, we studied, designed and implemented efficient algorithms concerning Web Services technologies that have been designed to facilitate interoperable service integration using network infrastructure. Web Services Architecture has been standardized by W3 Consortium (http://www.w3.org) as the technological framework and it has received the wide support of the information technology scientific community as well as the information technology (IT) professionals and industry worldwide. In the first section we introduce a new categorization and comparative presentation of the available algorithmic solutions for service management and discovery. Then, we introduce a series of new efficient algorithms that ensure quality of service provision and improve time complexity in service discovery. Overall in the first part of the thesis we present: - Efficient algorithms for dynamic Web Service selection taking into account non-functional specifications (Quality of Web Service – QoWS) and performance issues during Web Service (WS) consumption attempt (i.e. QoWS enabled WS discovery). - Efficient algorithms for service management and discovery in network centric information systems that are based on decentralized network approaches specifically designed for WS discovery. In the sequel, we propose efficient adaptive methods for personalized web searching. In this way we provide performance improvement both for the internal management and discovery functionality of web based net-centric information systems as well as for the systems’ output that is the end-user information. In particular, in the second section, we introduce a series of three new algorithms for personalized searching. The proposed algorithms are mainly based on link metrics techniques. Their main advantage is that they allow, with the use of a simple methodology, search results personalization, with minimum overhead in terms of storage volume and computation time. We achieve personalized search using link analysis in a personalized graph much smaller one than the whole web graph. The personalized graph is shaped taking advantage of semantic taxonomies. Summarizing the novel research results of this second section are the following: - Efficient algorithms for personalized web information searching. - Adaptive presentation mechanisms of search results with the use of multiple levels of novel categorization. - Extension that allows the adoption of the algorithms for the case of focused web crawling mechanisms, which constitute an alternative personalized searching approach. Finally in the third and last section of our thesis, we present a series of applications, architectures and frameworks of different web based net-centric information environments cases, in which we apply our techniques for service management and personalized information discovery. The main objective of this presentation is to show that the efficient algorithms presented in the previous sections, have multiple potentials of application in problems of different research and technological areas using web based net-centric informative systems and web applications. Cases presented include network management information systems, e-learning approaches, semantic mining and multimedia retrieval systems, web content and structure maintenance solutions and agricultural information systems.
38

Μελέτη ανάκτησης σχημάτων με χρήση διεργασιών διάχυσης

Καστανιώτης, Δημήτρης 14 February 2012 (has links)
Η παρούσα εργασία ασχολείται με την ανάκτηση σχήματος. Πιο συγκεκριμένα επικεντρώνεται σε επίπεδα (δισδιάστατα) σχήματα τα οποία είναι μη άκαμπτα και έχουν υποστεί κάμψη ή μεταβάλλονται εξαιτίας της παρουσίας κάποιας άρθρωσης. Τέτοια εύκαμπτα σχήματα συναντάμε καθημερινά στη φύση όπως για παράδειγμα τους μικροοργανισμούς μέχρι και τον ίδιο τον άνθρωπο. Τα κριτήρια ομοιότητας μεταξύ των σχημάτων που χρησιμοποιούνται εδώ είναι Intrinsic. Τέτοια κριτήρια μπορεί κανείς να εξάγει δημιουργώντας ένα τελεστή διάχυσης. Οι τελεστές διάχυσης μπορούν να διατυπωθούν με πολλούς τρόπους. Στην παρούσα εργασία βασιζόμαστε στην πιθανολογική προσέγγιση δημιουργώντας ένα τελεστή (Μητρώο Markov) ενώ ταυτόχρονα λαμβάνουμε ένα τυχαίο περίπατο στα δεδομένα. Ο τελεστής αυτός επιπλέον έχει το πλεονέκτημα ότι μπορεί να προσεγγίσει τον τελεστή Laplace-Beltrami ασχέτως της πυκνότητας δειγματοληψίας των δεδομένων. Ορίζεται λοιπόν ως Απόσταση Διάχυσης η απόσταση δύο σημείων. Η απόσταση αυτή είναι μικρότερη όσο περισσότερα μονοπάτια συνδέουν τα δύο σημεία. Η φασματική ανάλυση του μητρώου αυτού μας επιτρέπει να αναπαραστήσουμε τα δεδομένα μας σε ένα νέο χώρο με σαφή μετρική απόσταση την Ευκλείδεια χρησιμοποιώντας τις ιδιοτιμές και τα ιδιοδιανύσματα που προκύπτουν. Επιπλέον η Ευκλείδεια απόσταση στο νέο χώρο ισούται με την απόσταση Διάχυσης στον αρχικό χώρο. Ο συνδυασμός των φασματικών ιδιοτήτων του μητρώου Διάχυσης με τις Markov διεργασίες οδηγεί σε μία ανάλυση των δεδομένων σε πολλές κλίμακες. Αυτό ισοδυναμεί με το να προχωρήσουμε τον τυχαίο περίπατο μπροστά. Από τις απεικονίσεις αυτές μπορούμε να εξάγουμε ιστογράμματα κατανομής αποστάσεων. Έτσι για κάθε σχήμα και για κάθε κλίμακα λαμβάνουμε ένα ιστόγραμμα κατανομής αποστάσεων. Συνεπώς δύο σχήματα μπορεί να βρίσκονται πολύ κοντά σε μία κλίμακα χρόνου ενώ να βρίσκονται πολύ μακριά σε μία άλλη κλίμακα. Συγκεκριμένα εδώ παραθέτουμε την άποψη η απόσταση των σχημάτων συνδέεται άμεσα με την κλίμακα- χρόνο. Μελετώνται οι ιδιότητες των μικρών, μεσαίων και μεγάλων κλιμάκων κυρίως ως προς τα γεωμετρικά χαρακτηριστικά που μπορούν να περιγράψουν και κατά συνέπεια την ικανότητα να εξάγουν αποδοτικούς περιγραφείς των σχημάτων. Η συνεισφορά της παρούσας Διπλωματικής Εργασίας είναι διπλή: A. Προτείνεται για πρώτη φορά μία νέα μέθοδος κατά την οποία αξιοποιούνται οι ιδιότητες των διαφορετικών κλιμάκων της διεργασίας Διάχυσης που αναφέραμε. Ονομάζουμε τη μέθοδο αυτή Weighted Multiscale Diffusion Distance -WMDD. B. Τα αποτελέσματα που παρουσιάζονται φέρνουν την μέθοδο αυτή στην κορυφή για τις συγκεκριμένες βάσεις σχημάτων (MPEG-7 και KIMIA 99). / This thesis focuses explicitly at shape retrieval applications. More precisely concentrates in planar shapes that are non-rigid, meaning that they might have been articulated or bended. These non-rigid shapes appear in humans’ life like for example bacteria and also the same the human body. The shape pair wise similarity criteria are intrinsic. Such similarity criteria one can take through a Diffusion Operator. Diffusion Operators can be defined in many ways. In this thesis we concern only in the probabilistic interpretation of Diffusion Operators. Thus by constructing a Diffusion Operator we also construct a random Walk on data. This operator converges to the Laplace-Beltrami even if the sampling density of the data is not uniform. Through this framework the Diffusion Distance between two points is defined. This distance gets smaller as much more paths are connecting two points. Spectral decomposition if this diffusion kernel allows us to map, re-represent our data using the eigenvectors and the eigenvalues in a new space with the property of embedding with an explicit metric. These maps are called Diffusion Maps and have the property that diffusion distance in the initial space equals the Euclidean distance in the embedding space. A combination of spectral properties of a Markov matrix with Markov Processes leads to a multiscale analysis. This corresponds to running the random walk forward. From these embeddings we can extract histograms of distributions of distances. Thus for every shape and every scale we have one histogram. Therefore two shapes may be close in one scale but not in another one. The contribution of this Thesis is twofold: A. For first time a new method where the properties of different scales as studied in order to take the advantage of the most discriminative times/ steps of the diffusion process that we described above. We called this method Weighted Multiscale Diffusion Distance- WMDD. B. The results presented here bring our method to the state of the art for the MPEG- and KIMIA 99 databases.
39

Σχεδιασμός και υλοποίηση δημοσιογραφικού RDF portal με μηχανή αναζήτησης άρθρων

Χάιδος, Γεώργιος 11 June 2013 (has links)
Το Resource Description Framework (RDF) αποτελεί ένα πλαίσιο περιγραφής πόρων ως μεταδεδομένα για το σημασιολογικό ιστό. Ο σκοπός του σημασιολογικού ιστού είναι η εξέλιξη και επέκταση του υπάρχοντος παγκόσμιου ιστού, έτσι ώστε οι χρήστες του να μπορούν ευκολότερα να αντλούν συνδυασμένη την παρεχόμενη πληροφορία. Ο σημερινός ιστός είναι προσανατολισμένος στον άνθρωπο. Για τη διευκόλυνση σύνθετων αναζητήσεων και σύνθεσης επιμέρους πληροφοριών, ο ιστός αλλάζει προσανατολισμό, έτσι ώστε να μπορεί να ερμηνεύεται από μηχανές και να απαλλάσσει το χρήστη από τον επιπλέον φόρτο. Η πιο φιλόδοξη μορφή ενσωμάτωσης κατάλληλων μεταδεδομένων στον παγκόσμιο ιστό είναι με την περιγραφή των δεδομένων με RDF triples αποθηκευμένων ως XML. Το πλαίσιο RDF περιγράφει πόρους, ορισμένους με Uniform Resource Identifiers (URI’s) ή literals με τη μορφή υποκείμενου-κατηγορήματος-αντικειμένου. Για την ορθή περιγραφή των πόρων ενθαρρύνεται από το W3C η χρήση υπαρχόντων λεξιλογίων και σχημάτων , που περιγράφουν κλάσεις και ιδιότητες. Στην παρούσα εργασία γίνεται υλοποίηση ενός δημοσιογραφικού RDF portal. Για τη δημιουργία RDF/XML, έχουν χρησιμοποιηθεί τα λεξιλόγια και σχήματα που συνιστούνται από το W3C καθώς και των DCMI και PRISM. Επίσης χρησιμοποιείται για την περιγραφή typed literals to XML σχήμα του W3C και ένα σχήμα του portal. Η δημιουργία των μεταδεδομένων γίνεται αυτόματα από το portal με τη χρήση των στοιχείων που συμπληρώνονται στις φόρμες δημοσίευσης άρθρων και δημιουργίας λογαριασμών. Για τον περιορισμό του χώρου αποθήκευσης τα μεταδεδομένα δεν αποθηκεύονται αλλά δημιουργούνται όταν ζητηθούν. Στην υλοποίηση έχει δοθεί έμφαση στην ασφάλεια κατά τη δημιουργία λογαριασμών χρήστη με captcha και κωδικό ενεργοποίησης με hashing. Για τη διευκόλυνση του έργου του αρθρογράφου, έχει εισαχθεί και επεκταθεί ο TinyMCE Rich Text Editor, o οποίος επιτρέπει τη μορφοποίηση του κειμένου αλλά και την εισαγωγή εικόνων και media. Ο editor παράγει αυτόματα HTML κώδικα από το εμπλουτισμένο κείμενο. Οι δυνατότητες του editor επεκτάθηκαν κυρίως με τη δυνατότητα για upload εικόνων και media και με την αλλαγή κωδικοποίησης για συμβατότητα με τα πρότυπα της HTML5. Για επιπλέον συμβατότητα με την HTML5 εισάγονται από το portal στα άρθρα ετικέτες σημασιολογικής δομής. Εκτός από τα άρθρα που δημιουργούνται με τη χρήση του Editor, δημοσιοποιούνται και άρθρα από εξωτερικές πηγές. Στη διαδικασία που είναι αυτόματη και επαναλαμβανόμενη, γίνεται επεξεργασία και αποθήκευση μέρους των δεδομένων των εξωτερικών άρθρων. Στον αναγνώστη του portal παρουσιάζεται ένα πρωτοσέλιδο και σελίδες ανά κατηγορία με τα πρόσφατα άρθρα. Στο portal υπάρχει ενσωματωμένη μηχανή αναζήτησης των άρθρων, με πεδία για φιλτράρισμα χρονικά, κατηγορίας, αρθρογράφου-πηγής αλλά και λέξεων κλειδιών. Οι λέξεις κλειδιά προκύπτουν από την περιγραφή του άρθρου στη φόρμα δημιουργίας ή αυτόματα. Όταν τα άρθρα προέρχονται από εξωτερικές πηγές, η διαδικασία είναι υποχρεωτικά αυτόματη. Για την αυτόματη ανεύρεση των λέξεων κλειδιών από ένα άρθρο χρησιμοποιείται η συχνότητα της λέξης στο άρθρο, με τη βαρύτητα που δίνεται από την HTML για τη λέξη (τίτλος, έντονη γραφή), κανονικοποιημένη για το μέγεθος του άρθρου και η συχνότητα του λήμματος της λέξης σε ένα σύνολο άρθρων που ανανεώνεται. Για την ανάκτηση των άρθρων χρησιμοποιείται η τεχνική των inverted files για όλες τις λέξεις κλειδιά. Για τη μείωση του όγκου των δεδομένων και την επιτάχυνση απάντησης ερωτημάτων, αφαιρούνται από την περιγραφή λέξεις που παρουσιάζουν μεγάλη συχνότητα και μικρή αξία ανάκτησης πληροφορίας “stop words”. Η επιλογή μιας αντιπροσωπευτικής λίστας με stop words πραγματοποιήθηκε με τη χρήση ενός σώματος κειμένων από άρθρα εφημερίδων, τη μέτρηση της συχνότητας των λέξεων και τη σύγκριση τους με τη λίστα stop words της Google. Επίσης για τον περιορισμό του όγκου των δεδομένων αλλά και την ορθότερη απάντηση των ερωτημάτων, το portal κάνει stemming στις λέξεις κλειδιά, παράγοντας όρους που μοιάζουν με τα λήμματα των λέξεων. Για to stemming έγινε χρήση της διατριβής του Γεώργιου Νταή του Πανεπιστημίου της Στοκχόλμης που βασίζεται στη Γραμματική της Νεοελληνικής Γραμματικής του Μανώλη Τριανταφυλλίδη. Η επιστροφή των άρθρων στα ερωτήματα που περιλαμβάνουν λέξεις κλειδιά γίνεται με κατάταξη εγγύτητας των λέξεων κλειδιών του άρθρου με εκείνο του ερωτήματος. Γίνεται χρήση της συχνότητας των λέξεων κλειδιών και της συχνότητας που έχουν οι ίδιες λέξεις σε ένα σύνολο άρθρων που ανανεώνεται. Για την αναζήτηση γίνεται χρήση θησαυρού συνώνυμων λέξεων. / The Resource Description Framework (RDF) is an appropriate framework for describing resources as metadata in the Semantic Web. The aim of semantic web is the development and expansion of the existing web, so users can acquire more integrated the supplied information. Today's Web is human oriented. In order to facilitate complex queries and the combination of the acquired data, web is changing orientation. To relieve the user from the extra burden the semantic web shall be interpreted by machines. The most ambitious form incorporating appropriate metadata on the web is by the description of data with RDF triples stored as XML. The RDF framework describes resources, with the use of Uniform Resource Identifiers (URI's) or literals as subject-predicate-object. The use of existing RDF vocabularies to describe classes and properties is encouraged by the W3C. In this work an information-news RDF portal has been developed. The RDF / XML, is created using vocabularies and schemas recommended by W3C and the well known DCMI and PRISM. The metadata is created automatically with the use of data supplied when a new articles is published. To facilitate the journalist job, a Rich Text Editor, which enables formatting text and inserting images and media has been used and expanded. The editor automatically generates HTML code from text in a graphic environment. The capabilities of the editor were extended in order to support images and media uploading and media encoding changes for better compatibility with the standards of HTML5. Apart from uploading articles with the use of the editor the portal integrates articles published by external sources. The process is totally automatic and repetitive. The user of the portal is presented a front page and articles categorized by theme. The portal includes a search engine, with fields for filtering time, category, journalist-source and keywords. The keywords can be supplied by the publisher or selected automatically. When the articles are integrated from external sources, the process is necessarily automatic. For the automatic selection of the keywords the frequency of each word in the article is used. Extra weight is given by the HTML for the words stressed (e.g. title, bold, underlined), normalized for the size of the article and stem frequency of the word in a set of articles that were already uploaded. For the retrieval of articles by the search engine the portal is using an index as inverted files for all keywords. To reduce the data volume and accelerate the query processing words that have high frequency and low value information retrieval "stop words" are removed. The choice of a representative list of stop words is performed by using a corpus of newspaper articles, measuring the frequency of words and comparing them with the list of stop words of Google. To further reduce the volume of data and increase the recall to questions, the portal stems the keywords. For the stemming the rule based algorithm presented in the thesis of George Ntais in the University of Stockholm -based Grammar was used. The returned articles to the keywords queried by the search engine are ranked by the proximity of the keywords the article is indexed. To enhance the search engine synonymous words are also included by the portal.
40

Ανάκτηση ανόργανων φωσφορικών από υδατικά διαλύματα / Phosphorus recovery from aqueous media

Κοφινά, Αικατερίνη-Κανέλλα 11 March 2009 (has links)
Η δέσμευση του P με την μορφή του στρουβίτη θεωρείται από τις εναλλακτικές μεθόδους ανάκτησης του P από τα υγρά απόβλητα. Ο στρουβίτης χρησιμοποιείται ως αργά αποδεσμευόμενο λίπασμα, ως υλικό για την σταθεροποίηση αμμωδών εδαφών και συμβάλλει στην αειφόρο ανάπτυξη. Η καταβύθιση του στρουβίτη σε υπέρκορα διαλύματά του υπό σταθερή θερμοκρασία εξαρτάται από τον υπερκορεσμό και από την παρουσία ξένων ιόντων ή ουσιών. Στόχος της παρούσας διατριβής, ήταν η μελέτη της κινητικής της καταβύθισης του στρουβίτη σε συνθήκες σύστασης αντίστοιχες των αστικών αποβλήτων. Η θερμοδυναμική ανάλυση γίνεται με μοντελοποίηση του ειδομορφισμού της υδατικής φάσης ενώ η μελέτη της κινητικής με την μέθοδο του σταθερού υπερκορεσμού η οποία επιτρέπει την διερεύνηση του ρόλου των ιόντων Ca, των βαρέων μετάλλων και οργανικών υδατοδιαλυτών ενώσεων με μεγάλη ακρίβεια και επαναληψιμότητα. Επίσης, διερευνήθηκε ο ετερογενής σχηματισμός του στρουβίτη με την χρήση κρυσταλλικών φύτρων στρουβίτη, SiO2, CaCO3 και πυριτικής άμμου για την μελέτη της πρόσφυσης του καταβυθιζόμενου στερεού στα υποστρώματα αυτά. Προσδιορίστηκε επίσης το γινόμενο διαλυτότητας του στρουβίτη προσεγγίζοντας την ισορροπία από υπέρκορα και ακόρεστα διαλύματα σε διαφορετικές τιμές ιονικής ισχύος. Με την ενζυμική υδρόλυση πολυφωσφορικών οξέων από ειδικά ένζυμα, τις φωσφατάσες, και την σταδιακή απελευθέρωση φωσφορικών ιόντων επετεύχθη ελεγχόμενη καταβύθιση του στρουβίτη σε υψηλούς υπερκορεσμούς. Τέλος, μελετήθηκε η κινητική της διάλυσης του στρουβίτη σε ακόρεστα διαλύματα συνθετικού αποβλήτου και σε διαφορετικές τιμές pH. Από τα κινητικά αποτελέσματα, με βάση την κλασσική θεωρία τη πυρηνογένεσης, προέκυψαν στενά όρια μεταστάθειας του συστήματος και η επιφανειακή διάχυση των δομικών μονάδων ότι είναι το βραδύ στάδιο, το οποίο ελέγχει την καταβύθιση. Το ποσοστό απομάκρυνσης φωσφόρου ήταν 60-65% και από τις δοκιμές συσσωμάτωσης, προέκυψαν ελαφρά σταθεροποιημένα δοκίμια κατάλληλα για εφαρμογές σε καλλιεργήσιμα εδάφη. / Phosphorus precipitated in the form of struvite is a new prospective alternative in phosphorus recovery from wastewaters. Struvite may be used as a slow-released fertilizer, as fitment for stabilization of sandy soil areas and contributing towards sustainable development. Struvite precipitation in supersaturate solution at constant temperature depends on the supersaturation and the presence of foreign ions or substrates. The aim of this thesis was the investigation of struvite precipitation kinetics at conditions similar to municipal wastewaters. The thermodynamic analysis had been done by suitable speciation of aqueous medium while the kinetics of precipitation was investigated with constant solution supersaturation method. This method provides reliable and highly reproducible kinetics results of the effect of calcium ions, heavy metals and organic soluble compounds on the spontaneous precipitation of struvite. The heterogeneous formation of struvite was also investigated in order to examine struvite precipitated adhesion at different substrates. Struvite crystals, SiO2, CaCO3, and silicate sand were used to inoculate the supersaturated solutions. The thermodynamic solubility product of struvite was determined once equilibrium had been attained, when undersaturated and supersaturated solutions were allowed to reach equilibrium, at different ionic strengths values. Controlled struvite precipitation in solutions highly supersaturated was also achieved by the slow evolution of the supersaturation when sufficient phosphate was released from the enzymic action through the phosphatase mediated decomposition of polyphosphates. Finally, the kinetics of struvite dissolution was examined in undersaturate synthetic wastewater solutions at different pH values. The kinetics results, according to the classical nucleation theory, showed that the system stability range was very narrow and a surface diffusion controlled mechanism. A phosphorus recovery corresponding to 60-65% of the initially present phosphorus is feasible. Laboratory experiments using loose sand packs showed mildly consolidated agglomerates that can be used properly for cultivable land.

Page generated in 0.0806 seconds