• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Τεχνικές δυναμικής δεικτοδότησης και φιλτραρίσματος XML εγγράφων / Dynamic algorithms for indexing and filtering XML documents

Παναγιώτης, Αντωνέλλης 22 October 2007 (has links)
Η ολοένα αυξανόμενη διείσδυση και χρήση του Internet παγκοσμίως έχει οδηγήσει στην επιτακτική ανάγκη ενός καλά ορισμένου και κοινά αποδεκτού τρόπου αναπαράστασης και ανταλλαγής της πληροφορίας στο διαδίκτυο. Όλο και περισσότερα ετερογενή συστήματα και πλατφόρμες χρειάζονται να ανταλλάξουν δεδομένα και πληροφορίες μεταξύ τους, με τρόπο καλά ορισμένο αλλά ταυτόχρονα δυναμικό και ελαστικό. H XML αναπτύχθηκε για να επιλύσει ακριβώς αυτό το πρόβλημα, της εινιαίας και καθολικά αποδεκτής αναπαράστασης της διακινούμενης πληροφορίας. Η ραγδαία αύξηση όμως του όγκου των δεδομένων που αναπαρίστανται σε XML δημιούργησε την ανάγκη αναζήτησης μέσα στην δενδρική δομή ενός ΧΜL εγγράφου για κάποια συγκεκριμένη πληροφορία. Η ανάγκη αυτή ταυτόχρονα με την ανάγκη για γρήγορη πρόσβαση στους κόμβους του ΧΜL δέντρου, οδήγησε σε διάφορα εξειδικευμένα ευρετήρια καθένα με διαφορετικά χαρακτηριστικά και δομή. Τα δεδομένα όμως στη σύγχρονη κοινωνία της πληροφόρησης δεν παραμένουν στατικά, αλλά διαρκώς αλλάζουν και μεταβάλλονται δυναμικά. Για να μπορέσουν να αναταποκριθούν στη δυναμική αυτή των δεδομένων, τα ευρετήρια θα πρέπει να έχουν τη δυνατότητα να μεταβάλλονται και αυτά δυναμικά και με ελάχιστο κόστος. Ταυτόχρονα με την ανάγκη αναζήτησης συγκεκριμένης πληροφορίας μέσα σε ένα σύνολο XML δεδομένων, γεννήθηκε και η ακριβώς αντίστροφη ανάγκη: το φιλτράρισμα ενός συνόλου XML δεδομένων διαμέσου κάποιων προτύπων και κανόνων ώστε να βρεθούν εκείνα τα δεδομένα που ταιριάζουν με τα αποθηκευμένα πρότυπα και κανόνες. Το πρόβλημα αυτό συναντάται κυρίως στα συστήματα publish/subscribe, στα οποία οι χρήστες ορίζουν τα ενδιαφέροντά τους και το σύστημα αναλαμβάνει να τους αποστέλλει μόνο πληροφορίες και δεδομένα σχετικά με τις προτιμήσεις τους. Η αναπαράσταση της πληροφορίας σε XML οδήγησε τα συστήματα αυτά να ενσωματώσουν αλγορίθμους φιλτραρίσματος των XML δεδομένων διαμέσου ενός συνόλου προτύπων και κανόνων που έχουν ορίσει εκ των προτέρων οι χρήστες του. Στα πλαίσια της μεταπτυχιακής αυτής εργασίας μελετάμε και συγκρίνουμε τις υπάρχουσες τεχνικές δυναμικής δεικτοδότησης και φιλτραρίσματος XML εγγράφων και παρουσιάζουμε έναν νέο, πρωτοποριακό αλγόριθμο φιλτραρίσματος που υπερτερεί των υπαρχόντων. / The increasingly use of Internet worldwide has led to the impulsory need of a standard, well-defined and wide-accepted information representation. More and more heterogeneous systems require exchanging data and information between them, in a well-defined, flexible and dynamic matter. XML was created in order to address the need of a standard and well-defined information representation. However, the boom of information capacity expressed in XML has rised a new problem: that of searching among a huge XML data for a specific information. This problem along with the need of efficient access to the nodes of an XML tree-structured document has led to the proposal of various heuristic indexes, each one with diferrent structure and features. However, because data do not remain static but change dynamically through time, the proposed indexes should have the flexibility to change dynamically accordingly to the data changes, with the minimal cost. Together with the problem of searching through a set of XML documents, a new problem has rised: that of filtering an XML document through a predefined set of patterns and rules. This problem comes from publish/subscribe systems where the users define their interests and preferences and the system undertakes to filter incoming information through the stored user profiles. The vast volume of XML-represented data and information has led those systems to incorporate XML filtering algorithms which filter the incoming XML data streams through the predefined user profiles.
2

Φιλτράρισμα και εξόρυξη δεδομένων σε αντικείμενα πληροφορίας / Filtering and data mining techniques in information objects

Αντωνέλλης, Παναγιώτης 06 October 2011 (has links)
Καθώς ο κόσμος της πληροφορίας γίνεται κοινός τόπος για όλο και μεγαλύτερο μέρος του πληθυσμου παγκοσμίως, η ανάγκη για αποδοτική διαχείριση μεγάλου όγκου ετερογενών δεδομένων γίνεται επιτακτική. Τα δεδομένα που διακινούνται καθημερινά μέσω του διαδικτύου απαιτούν φιλτράρισμα ώστε στους τελικούς χρήστες να φθάσουν μόνο όσα είναι απαραίτητα, ενώ ταυτόχρονα κρίνεται αναγκαίος ο σχεδιασμός τεχνικών και μεθόδων που θα επιτρέψουν τη βέλτιστη αποθήκευση, διαχείριση, αναζήτηση και ανάκτηση των δεδομένων αυτών, με απώτερο σκοπό την εξόρυξη χρήσιμης πληροφορίας και γνώσης από αυτά. Οι τεχνικές Εξόρυξης Δεδομένων, με την ευρεία εφαρμογή τους σε διαφόρων ειδών δεδομένα, παρουσιάζουν ως μια ιδανική λύση στα προβλήματα που αναφέρθηκαν προηγουμένως. Τα τελευταία χρόνια, αρκετή έρευνα έχει διεξαχθεί στο πως μπορούν να εφαρμοσθούν σε δεδομένα χρήσης του παγκοσμίου ιστού, καθώς και σε XML δεδομένα. Επίσης ενδιαφέρον υπάρχει και κατά την αξιολόγηση λογισμικού όπου η πηγή δεδομένων είναι τα αρχεία πηγαίου κώδικα ενός συστήματος λογισμικού, ώστε να αναγνωρισθούν και να επιλυθούν έγκαιρα τυχόν προβλήματα. Η eXtensible Markup Language (XML) είναι το πρότυπο για αναπαράσταση δεδομένων στον Παγκόσμιο Ιστό. Η ραγδαία αύξηση του όγκου των δεδομένων που αναπαρίστανται σε XML δημιούργησε την ανάγκη αναζήτησης μέσα στην δενδρική δομή ενός ΧΜL εγγράφου για κάποια συγκεκριμένη πληροφορία. Η ανάγκη αυτή ταυτόχρονα με την ανάγκη για γρήγορη πρόσβαση στους κόμβους του ΧΜL δέντρου, οδήγησε σε διάφορα εξειδικευμένα ευρετήρια. Για να μπορέσουν να ανταποκριθούν στη δυναμική αυτή των δεδομένων, τα ευρετήρια πρέπει να έχουν τη δυνατότητα να μεταβάλλονται δυναμικά. Επίσης, λόγω της απαίτησης για αναζήτηση συγκεκριμένης πληροφορίας είναι απαραίτητο το φιλτράρισμα ενός συνόλου XML δεδομένων διαμέσου κάποιων προτύπων και κανόνων ώστε να βρεθούν εκείνα τα δεδομένα που ταιριάζουν με τα αποθηκευμένα πρότυπα και κανόνες. Ταυτόχρονα, η ανάγκη συσταδοποίησης ενός μεγάλου όγκου XML δεδομένων για περαιτέρω επεξεργασία, κάνει απαιτητική την ανάγκη εφαρμογής έξυπνων και αποδοτικών αλγορίθμων και τεχνικών, οι οποίοι θα είναι προσαρμοσμένοι τόσο στην ημι-δομημένη φύση της XML όσο και στο πραγματικό περιεχόμενο το οποίο αναπαριστά. Τέλος, λόγω του μεγάλου όγκου δεδομένων που πρέπει να επεξεργαστούν, η κατανεμημένη διαχείριση σε δίκτυα ομότιμων κόμβων (P2P) γίνεται ολοένα και πιο ελκυστική καθώς προσφέρει πολλά πλεονεκτήματα όπως επιμερισμό του φόρτου εργασίας καθώς και κατανομή του αποθηκευτικού χώρου. Επιπλέον, η ραγδαία εξάπλωση του διαδικτύου οδήγησε και σε μια προσπάθεια αναβάθμισης των υπηρεσιών που παρέχουν οι διάφοροι ιστότοποι, με στόχο την καλύτερη εξυπηρέτηση των χρηστών που τους επισκέπτονται. Η πρόσπαθεια εξατομίκευσης του προβαλλόμενου περιεχομένου προϋποθέτει μια ενδελεχή μελέτη της συμπεριφοράς των χρηστών, όπως αυτή αποτυπώνεται από τα δεδομένα χρήσης (clickstreams) του δικτυακού ιστοτόπου. Η εύρεση κοινών προτύπων συμπεριφοράς μεταξύ των χρηστών μπορεί μόνο να επιτευχθεί με την εφαρμογή κατάλληλων αλγόρίθμων εξόρυξης δεδομένων. Τέλος οι διαστάσεις της εσωτερικής, της εξωτερικής και της ποιότητας στη χρήση ενός προϊόντος λογισμικού αλλάζουν κατά τη διάρκεια ζωής του. Για παράδειγμα η ποιότητα όπως ορίζεται στην αρχή του κύκλου ζωής του λογισμικού δίνει πιο πολλή έμφαση στην εξωτερική και σε αυτή του χρήστη και διαφέρει από την εσωτερική ποιότητα, όπως η ποιότητα της σχεδίασης η οποία είναι εσωτερική και αφορά τους μηχανικούς λογισμικού. Οι τεχνικές εξόρυξης δεδομένων που μπορούν να χρησιμοποιηθούν για την επίτευξη του απαραίτητου επιπέδου ποιότητας, όπως είναι η αξιολόγηση της ποιότητας πρέπει να λαμβάνουν υπόψιν τους τις διαφορετικές αυτές διαστάσεις σε κάθε στάδιο του κύκλου ζωής του προϊόντος. Στα πλαίσια αυτής της διδακτορικής διατριβής η έρευνα επικεντρώθηκε στην αναγνώριση των ιδιαιτέρων προβλημάτων και προκλήσεων που εισάγουν τα XML δεδομένα ώστε να σχεδιαστούν αποδοτικοί αλγόριθμοι φιλταρίσματος, συσταδοποίησης και διαχείρισης XML δεδομένων σε δίκτυα ομότιμων κόμβων. Επιπλέον μελετήθηκε το πρόβλημα της εφαρμογής τεχνικών εξόρυξης δεδομένων σε μετρικές πηγαίου κώδικα ενός συστήματος λογισμικού ώστε να γίνει δυνατή η αξιολόγηση της ποιότητάς τους και η έγκαιρη αναγνώριση τυχόν προβλημάτων. Η έρευνα στον τομέα αυτό επικεντρώθηκε στην σχεδίαση ενός αλγορίθμου συσταδοποίησης για μετρικές πηγαίου κώδικα, ώστε τα συστατικά στοιχεία του πηγαίου κώδικα (πακέτα, κλάσεις, συναρτήσεις) να μπορούν να ομαδοποιηθούν ανάλογα με την ποιότητά τους. Τέλος, μελετήθηκε το πρόβλημα της επεξεργασίας και εξόρυξης γνώσης από δεδομένα χρήσης του παγκοσμίου ιστού ώστε να γίνει εφικτή η παροχή προσωποποιημένων πληροφοριών στον χρήστη. Η έρευνα στον τομέα αυτό επικεντρώθηκε στο πως μπορεί να γίνει αποδοτική συσταδοποίηση των χρηστών με βάση το ιστορικό τους σε ένα δικτυακό τόπο καθώς και στο πως μπορεί να οριστεί μια μετρική ομοιότητας μεταξύ δύο χρηστών κάνοντας χρήση του ιστορικού τους. / The increasing usage of World Wide Web for storing and exchanging information internationally has lead to huge growth of the different types of stored data. The useful information stored in these data is usually hidden and needs special processing to be unveiled. The area of data mining has arisen over the last decade to address this problem. It has become not only an important research area, but also one with large potential in the real world. Data mining has many directives and can handle various types of data. The wide acceptance of XML (eXtensive Markup Language) as the standard for storing and exchanging information through internet, combined with the growth of native XML databases has designated the problem of efficient data mining techniques on semi structured data. Traditional approaches have proven inefficient as they are mainly oriented to well- structured data, like relational databases, while Web data and XML databases are based on semi structured format. The XML language permits the description of new structures, the nesting of structures in arbitrary depth and the optional description of its grammar, which allows the modeling of an XML document as a labeled treed: elements and attributes are mapped to nodes in the tree and direct nesting relationships are mapped to edges in the tree. Together with the problem of searching through a set of XML documents, a new problem has arisen: that of filtering an XML document through a predefined set of patterns and rules. This problem comes from publish/subscribe systems where the users define their interests and preferences and the system undertakes to filter incoming information through the stored user profiles. In addition, data management and processing issues, such as storage, mining and retrieval of the large number of XML documents, have also arisen. Clustering of XML documents improves the process of management and retrieval as it organizes the massive amounts of XML data into groups without prior knowledge. This grouping may boost the process of querying by applying the user queries only to related groups of XML documents as well the process of storing and processing XML documents in peer-to-peer networks. The next part of the thesis deals with mining source code quality metrics to assist the comprehension and the analysis of a software system’s maintainability. Due to the special nature of source code quality metrics (numerical and categorical), traditional data mining techniques can not be applied as it is. This thesis investigates a new clustering algorithm, based on frequent itemset mining, which helps produce general overviews of the system’s various source code entities (packages, classes, methods) or to identify specific parts that need further attention or handling (outliers). The final part of the thesis deals with data mining techniques on web usage data in order to identify common trends and patterns in the user navigational behavior. Clustering is a useful and ubiquitous tool in such a data analysis, allowing the website owners to group their users into different groups based on their interaction with the website, find usability issues related to the website’s content and its structure and obtain knowledge by learning the user preferences and interests. This thesis investigates the application of clustering techniques in web usage data and proposes a new model for analyzing click-stream data in the World Wide Web based on multiple levels of clustering.
3

Μέτρηση υψίσυχνων ταλαντώσεων με GPS δειγματοληψίας 100Hz / Measurement of high-frequency oscillations using GPS with 100Hz sampling rate

Μόσχας, Θεοφάνης 01 August 2014 (has links)
Στην παρούσα διατριβή διερευνήθηκε για πρώτη φορά η δυνατότητα επέκτασης του ορίου εφαρμογής της γεωδαιτικής μεθόδου μέτρησης μετακινήσεων σε πλέον άκαμπτες (υψίσυχνες) κατασκευές με τη χρήση οργάνων GPS δειγματοληψίας 100Hz. Τα όργανα αυτά αποτελούν πρόκληση για διάφορους τομείς καθώς έχουν δυνατότητα δειγματοληψίας σχεδόν ίδιας τάξης μεγέθους με όργανα που χρησιμοποιούνται παραδοσιακά για την καταγραφή δυναμικών κινήσεων όπως επιταχυνσιογράφοι, σεισμόμετρα κτλ. Στην παρούσα διατριβή μελετήθηκαν τα χαρακτηριστικά του θορύβου των οργάνων GPS-100Hz μέσα από συστηματικά πειράματα “supervised learning”, όπου στατικοί δέκτες ή δέκτες κινούμενοι σε γνωστές οριζόντιες και κατακόρυφες τροχιές, επέτρεπαν να καταγραφεί και να αναλυθεί ο στατικός και δυναμικός θόρυβος διαφόρων τύπων. Η περαιτέρω μελέτη του θορύβου έδειξε ότι οι συσχετίσεις και το εύρος του επηρεάζονται σημαντικά από το εύρος συχνοτήτων του βρόχου PLL (Phase-Locked Loop bandwidth) του δέκτη GPS. Η χρήση βρόχου PLL με εύρος συχνοτήτων (bandwidth) 100Hz εξασφαλίζει ασυσχέτιστες μετρήσεις αλλά αυξάνει σημαντικά το εύρος του θορύβου (τυπική απόκλιση περίπου 3mm στους οριζόντιους άξονες και περίπου 6-7mm στον κατακόρυφο). Το φάσμα συχνοτήτων του θορύβου των χρονοσειρών συντεταγμένων GPS-100Hz χαρακτηρίζεται από μη τυχαίο (χρωματισμένο) θόρυβο στις χαμηλές συχνότητες (μέχρι περίπου 0.5Hz) και πρακτικά τυχαίο θόρυβο για τις υψηλές συχνότητες. Επιπλέον λόγω της δυνατότητας υψηλού ρυθμού δειγματοληψίας των οργάνων GPS-100Hz, έγινε δυνατό να διερευνηθεί για πρώτη φορά το φαινόμενο της δυναμικής πολυανάκλασης του δορυφορικού σήματος από κινούμενες ανακλαστικές επιφάνειες (dynamic multipath) και η επίδρασή του στις χρονοσειρές στιγμιαίων συντεταγμένων GPS. Με βάση τα συμπεράσματα της ανάλυσης των πειραματικών δεδομένων αναπτύχθηκε μεθοδολογία απομείωσης του θορύβου των χρονοσειρών στιγμιαίων μετατοπίσεων κατασκευών ενδιαφέροντος Πολιτικού Μηχανικού με βάση ψηφιακά φίλτρα ζώνης. Η μεθοδολογία αυτή επιτρέπει να εκτιμηθούν οριζόντιες και κατακόρυφες μετακινήσεις της τάξης των λίγων χιλιοστών. Η παραπάνω μεθοδολογία εφαρμόστηκε στις καταγραφές των ταλαντώσεων μίας ξύλινης πεζογέφυρας στην περιοχή της Πάτρας. Από αφιλτράριστες μετρήσεις GPS-100Hz εκτιμήθηκε εύρος εγκάρσιας ταλάντωσης της τάξης των 60-70mm και συχνότητα ταλάντωσης 0.92Hz. Στον κατακόρυφο άξονα εκτιμήθηκε συχνότητα ταλάντωσης 6.5Hz ενώ μετά την απομάκρυνση του θορύβου των μετρήσεων εκτιμήθηκε εύρος κατακόρυφης ταλάντωσης της τάξης των 3mm. Η πειραματική και αναλυτική διερεύνηση δείχνουν ότι η υψηλή δειγματοληψία που παρέχουν τα νέα όργανα GPS-100Hz προσφέρει δυνατότητα καλύτερης εκτίμησης των χαρακτηριστικών ταλάντωσης (συχνότητα/εύρος) σχετικά εύκαμπτων κατασκευών αλλά και επέκτασης των ορίων εφαρμογής του GPS σε μέτρηση δυναμικών μετακινήσεων δύσκαμπτων κατασκευών (ιδιοσυχνότητα μεγαλύτερη των 5Hz) με εύρος μέχρι λίγα χιλιοστά. / The possibility of the newly introduced GNSS receivers, with sampling rate up to 100Hz, for broadening the limits of application of GPS technology toward measuring the displacements of stiff (high-frequency) Civil Engineering Structures was studied in the present thesis. The new generation GPS receivers present a great challenge for various applications since they offer a sampling rate similar to the sampling rate of traditional instruments used in vibration measurement/monitoring like accelerometers and seismometers. The noise characteristics of the 100Hz GPS measurements were studied on the basis of systematic “supervised learning” experiments where instantaneous coordinate time-series from stationary receivers or receivers performing motions with known characteristics permitted to study static and dynamic noise of several types including noise due to dynamic multipath. The last phenomenon has been identified during the measurements of the response of bridges due to excitation by passing vehicles. The study of noise characteristics indicated that the correlations and noise amplitude is highly dependent on the PLL (Phase-Locked Loop) bandwidth used by the GPS receiver. The use of a 100Hz PLL bandwidth ensures uncorrelated instantaneous coordinates but at the cost of high amplitude noise (standard deviation approximately 3mm and 6-7mm along the horizontal and vertical axes respectively). The noise spectrum is characterized by a power-law with colored noise affecting low frequencies up to approximately 0.5Hz and white noise affecting higher frequencies. A methodology for the reduction of noise of the instantaneous coordinate time-series using band-pass filtering has been designed on the basis of the results of the experimental data. Application of the methodology permits the identification of millimeter level dynamic displacements similar to the ones developed during structural vibrations. The methodology was applied on the measurements of the oscillations of a timber bridge in Patras, Greece. Oscillation amplitudes around 60-70mm and a fundamental natural frequency of 0.92Hz were identified along the lateral axis of the bridge on the basis of unfiltered GPS coordinates. The first natural frequency along the vertical axis was estimated at 6.5Hz. After the de-noising of the GPS coordinates vertical oscillation amplitudes of around 3mm were successfully identified. The main result from the experimental and analytical investigation carried out in the present thesis is that the newly introduced GPS receivers with sampling rate up to 100Hz provide the opportunity of more detailed measurement of the oscillations and extraction of the dynamic characteristics of relatively flexible structures as well as the broadening of the limits of applications of GPS toward the measurement of dynamic displacements of stiff (natural frequencies >5Hz) structures.
4

Η αντιμετώπιση της πληροφοριακής υπερφόρτωσης ενός οργανισμού με χρήση ευφυών πρακτόρων

Κόρδαρης, Ιωάννης 26 August 2014 (has links)
Η πληροφοριακή υπερφόρτωση των χρηστών αποτελεί βασικό πρόβλημα ενός οργανισμού. Η συσσώρευση μεγάλου όγκου πληροφορίας στα πληροφοριακά συστήματα, προκαλεί στους χρήστες άγχος και υπερένταση, με αποτέλεσμα να δυσχεραίνει την ικανότητά τους για λήψη αποφάσεων. Λόγω αυτού, η επίδραση της πληροφοριακής υπερφόρτωσης στους οργανισμούς είναι καταστροφική και απαιτείται η αντιμετώπισή της. Υπάρχουν διάφοροι τρόποι αντιμετώπισης της πληροφοριακής υπερφόρτωσης όπως τα συστήματα υποστήριξης λήψης αποφάσεων, τα συστήματα φιλτραρίσματος πληροφορίας, οι αποθήκες δεδομένων και άλλες τεχνικές της εξόρυξης δεδομένων και της τεχνητής νοημοσύνης, όπως είναι οι ευφυείς πράκτορες. Οι ευφυείς πράκτορες αποτελούν εφαρμογές που εφάπτονται της τεχνικής νοημοσύνης, οι οποίες έχουν την ικανότητα να δρουν αυτόνομα, συλλέγοντας πληροφορίες, εκπαιδεύοντας τον εαυτό τους και επικοινωνώντας με τον χρήστη και μεταξύ τους. Συχνά, υλοποιούνται πολυπρακτορικά συστήματα προκει-μένου να επιλυθεί ένα πρόβλημα του οργανισμού. Στόχος τους είναι να διευκολύνουν τη λήψη αποφάσεων των χρηστών, προτείνοντας πληροφορίες βάσει των προτιμήσεών τους. Ο σκοπός της παρούσας διπλωματικής εργασίας είναι να αναλύσει σε βάθος τους ευφυείς πράκτορες, σαν μία αποτελεσματική μέθοδο αντιμετώπισης της πληροφοριακής υπερφόρτωσης, να προτείνει πειραματικούς πράκτορες προτά-σεων και να εξετάσει επιτυχημένες υλοποιήσεις. Συγκεκριμένα, παρουσιάζεται ένα ευφυές σύστημα διδασκαλίας για την ενίσχυση του e-Learning/e-Teaching, προτείνεται ένα σύστημα πρακτόρων για τον οργανισμό Flickr, ενώ εξετάζεται το σύστημα προτάσεων του Last.fm και ο αλγόριθμος προτάσεων του Amazon. Τέλος, αναλύεται μια πειραματική έρευνα ενός ευφυούς πράκτορα προτάσεων, ο οποίος αντιμετώπισε με επιτυχία την αντιληπτή πληροφοριακή υπερφόρτωση των χρηστών ενός θεωρητικού ηλεκτρονικού καταστήματος. Τα αποτελέσματα του πειράματος παρουσίασαν την επίδραση της αντιληπτής πληροφοριακής υπερφόρτωσης και του φορτίου πληροφορίας στην ποιότητα επιλογής, στην εμπιστοσύνη επιλογής και στην αντιληπτή αλληλεπίδραση μεταξύ ηλεκτρονικού καταστήματος και χρήστη, ενώ παρατηρήθηκε η καθοριστική συμβολή της χρήσης των ευφυών πρακτόρων στην αντιμετώπιση της πληροφοριακής υπερφόρτωσης. / -
5

Υλοποίηση πειραματικής διάταξης υπολογισμού του καρδιακού ρυθμού χρησιμοποιώντας τεχνικές ψηφιακής επεξεργασίας εικόνας και βίντεο

Αλεξανδρή, Βασιλική 05 September 2011 (has links)
Η παρούσα διπλωματική εργασία, πραγματεύεται την εύρεση της κυματομορφής της μεταβολής της φωτεινότητας φωτονίων που διέρχονται από το χέρι ανθρώπου και δίνουν πληροφορία για την αρτηριακή πίεση και κατ’ επέκταση τον υπολογισμό του καρδιακού ρυθμού ενός ατόμου με τη χρήση τεχνικών επεξεργασίας εικόνας. Χρησιμοποιώντας μια σειρά από διόδους εκπομπής, στο ορατό και υπέρυθρο φάσμα, κατευθύνουμε το φως προς ένα δίκτυο ιστών όπου αυτό είναι λεπτό και το διαπερνά (δάκτυλο, λοβίο αυτιού κλπ). Στη συνέχεια, μέσω μιας βιντεοκάμερας παίρνουμε τα υπό εξέταση δεδομένα. Συγκρίνοντας την απορρόφηση του φωτός στις διαδοχικές εικόνες και ύστερα από κατάλληλη επεξεργασία των εικόνων με τη βοήθεια του Matlab οδηγούμαστε στην εύρεση του καρδιακού ρυθμού. / The present thesis deals with the determination of the waveform that depicts the fluctuation of the brightness of photons which pass through the hand of a person and provides information for the arterial pressure. Exploiting the results through digital image processing techniques, subject’s cardiac rhythm can be conclusively calculated. Using a series of diodes emitting in the visible spectrum along with a second series of diodes emitting in the infrared spectrum, we direct their light to a part of the human tissue which is thin (finger, earlobe etc) and can be easily penetrated. Afterwards via a CCD video camera we capture picture data of the light that is not absorbed. Cardiac rhythm can be calculated by comparing the absorption of light in successive pictures processed by digital imaging processing tools of Matlab.
6

Ανάπτυξη ολοκληρωμένου συστήματος εκτίμησης της πυκνότητας του μαστού από εικόνες μαστογραφίας

Χατζηστέργος, Σεβαστιανός 05 December 2008 (has links)
Αντικείμενο της παρούσας εργασία είναι ο υπολογισμός και η ταξινόμηση, με βάση το σύστημα, BIRADS της πυκνότητας του μαστού από εικόνες μαστογραφίας. Στα πλαίσια της προσπάθειας αυτής αναπτύχθηκε ολοκληρωμένο υπολογιστικό σύστημα σε γραφικό περιβάλλον ως λογισμικό πακέτο, σε γλώσσα Visual C++ .NET . Το υπολογιστικό αυτό σύστημα δέχεται σαν είσοδο εικόνες μαστογραφίας σε οποιοδήποτε από τα δημοφιλή bitmap format εικόνων όπως jpeg και tiff καθώς και DICOM αρχεία. Η λειτουργία του μπορεί να χωριστεί σε τρία στάδια: το στάδιο της προεπεξεργασίας, το στάδιο απομόνωσης της περιοχής του μαστού και το στάδιο καθορισμού της πυκνότητας του μαστού. Στο πρώτο στάδιο παρέχονται μια σειρά από στοιχειώδη εργαλεία επεξεργασίας εικόνας όπως εργαλεία περιστροφής, αποκοπής και αλλαγής αντίθεσης . Επιπρόσθετα παρέχεται η δυνατότητα Ανισοτροπικού Φιλτραρίσματος της εικόνας. Στο δεύτερο στάδιο γίνεται η απομόνωση της περιοχής του μαστού είτε απευθείας από τον χρήστη είτε αυτόματα με χρήση των ιδιοτήτων του μονογονικού (monogenic) σήματος για την αφαίρεση του παρασκηνίου (background) καθώς και κυματιδίων Gabor για τον διαχωρισμού του θωρακικού μυός. Στο τρίτο στάδιο παρέχεται η δυνατότητα ταξινόμησης της πυκνότητας του μαστού από τον χρήστη με τον καθορισμό κατάλληλου κατωφλίου των επιπέδων γκρίζου της εικόνας αλλά και η δυνατότητα αυτόματης ταξινόμησης της πυκνότητας του μαστού κατά BIRADS με χρήση Δομικών Στοιχείων Υφής (textons) και της τεχνικής pLSA. Όλες οι παραπάνω λειτουργίες παρέχονται μέσω μίας κατά το δυνατόν φιλικότερης προς τον χρήστη διεπαφής. / The present thesis aims at the classification of breast tissue according to BIRADS system based on texture features. To this end an integrated software system was developed in visual C ++. The system takes as inputs pictures in most of the popular bitmap formats like .jpeg and .till as well as DICOM. The functionality of the system is provided by three modules: (a) pre-processing module, (b) breast segmentation module and (c) the breast tissue density classification module. In the pre-processing module a set tools for image manipulation (rotation, crop, gray level adjustment) are available which are accompanied by the ability to perform anisotropic filtering to the input image. In the second module, the user has the ability to interactively define the actual borders of the breast or ask the system to perform it automatically. Automatic segmentation is a two step procedure; in the first step breast tissue is separated from its background by using the characteristics of monogenic signals, while in the second step the pectoral muscle region is subtracted using Gabor wavelets. In the density classification module the user can either ask for a calculation of breast density based on user-defined grey level threshold or perform an automatic BIRADS-based classification using texture characteristics in conjunction with Probabilistic Latent Semantic Analysis (pLSA) algorithm. Special emphasis was given to the development of a functional and user-friendly interface.
7

Ενίσχυση σημάτων μουσικής υπό το περιβάλλον θορύβου

Παπανικολάου, Παναγιώτης 20 October 2010 (has links)
Στην παρούσα εργασία επιχειρείται η εφαρμογή αλγορίθμων αποθορυβοποίησης σε σήματα μουσικής και η εξαγωγή συμπερασμάτων σχετικά με την απόδοση αυτών ανά μουσικό είδος. Η κύρια επιδίωξη είναι να αποσαφηνιστούν τα βασικά προβλήματα της ενίσχυσης ήχων και να παρουσιαστούν οι διάφοροι αλγόριθμοι που έχουν αναπτυχθεί για την επίλυση των προβλημάτων αυτών. Αρχικά γίνεται μία σύντομη εισαγωγή στις βασικές έννοιες πάνω στις οποίες δομείται η τεχνολογία ενίσχυσης ομιλίας. Στην συνέχεια εξετάζονται και αναλύονται αντιπροσωπευτικοί αλγόριθμοι από κάθε κατηγορία τεχνικών αποθορυβοποίησης, την κατηγορία φασματικής αφαίρεσης, την κατηγορία στατιστικών μοντέλων και αυτήν του υποχώρου. Για να μπορέσουμε να αξιολογήσουμε την απόδοση των παραπάνω αλγορίθμων χρησιμοποιούμε αντικειμενικές μετρήσεις ποιότητας, τα αποτελέσματα των οποίων μας δίνουν την δυνατότητα να συγκρίνουμε την απόδοση του κάθε αλγορίθμου. Με την χρήση τεσσάρων διαφορετικών μεθόδων αντικειμενικών μετρήσεων διεξάγουμε τα πειράματα εξάγοντας μια σειρά ενδεικτικών τιμών που μας δίνουν την ευχέρεια να συγκρίνουμε είτε τυχόν διαφοροποιήσεις στην απόδοση των αλγορίθμων της ίδιας κατηγορίας είτε διαφοροποιήσεις στο σύνολο των αλγορίθμων. Από την σύγκριση αυτή γίνεται εξαγωγή χρήσιμων συμπερασμάτων σχετικά με τον προσδιορισμό των παραμέτρων κάθε αλγορίθμου αλλά και με την καταλληλότητα του κάθε αλγορίθμου για συγκεκριμένες συνθήκες θορύβου και για συγκεκριμένο μουσικό είδος. / This thesis attempts to apply Noise Reduction algorithms to signals of music and draw conclusions concerning the performance of each algorithm for every musical genre. The main aims are to clarify the basic problems of sound enhancement and present the various algorithms developed for solving these problems. After a brief introduction to basic concepts on sound enhancement we examine and analyze various algorithms that have been proposed at times in the literature for speech enhancement. These algorithms can be divided into three main classes: spectral subtractive algorithms, statistical-model-based algorithms and subspace algorithms. In order to evaluate the performance of the above algorithms we use objective measures of quality, the results of which give us the opportunity to compare the performance of each algorithm. By using four different methods of objective measures to conduct the experiments we draw a set of values that facilitate us to make within-class algorithm comparisons and across-class algorithm comparisons. From these comparisons we can draw conclusions on the determination of parameters for each algorithm and the appropriateness of algorithms for specific noise conditions and music genre.

Page generated in 0.4324 seconds