• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • Tagged with
  • 13
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Μελέτη και ανάπτυξη διαδικτυακού συστήματος αξιολόγησης ιστοσελίδων : εφαρμογή τεχνικών πολυδιάστατης σταδιακής ανάλυσης μέσω ιστοσελίδων πλούσιας διαδραστικότητας

Σπηλιόπουλος, Αλέξανδρος 07 July 2010 (has links)
Στόχος της παρούσης διπλωματικής εργασίας είναι η διερεύνηση καταλληλότητας της μεθόδου πολυδιάστατης σταδιακής ανάλυσης για την αξιολόγηση σχεδιασμού ιστοσελίδων. Για την επίτευξη του στόχου, αναπτύχθηκε διαδικτυακή εφαρμογή αξιολόγησης με χρήση μεθόδων πολυδιάστατης σταδιακής ανάλυσης και αξιολογήθηκε τόσο η μέθοδος όσο και η εφαρμογή ως προς την χρησιμότητα της στο πλαίσιο που μας ενδιαφέρει, δηλαδή την αξιολόγηση σχεδιασμού ιστοσελίδων. Η εφαρμογή εκμεταλλεύεται τα πλεονεκτήματα των ιστοσελίδων πλούσιας διαδραστικότητας για την πλήρη υποστήριξη της διαδικασίας αξιολόγησης. / -
2

Μέθοδοι προστασίας ιστοσελίδων στο διαδίκτυο

Μπαλαφούτης, Χρήστος 19 October 2012 (has links)
Στην παρούσα διπλωματική εργασία παρουσιάζονται βασικές έννοιες και μέθοδοι για την ασφάλεια ιστοσελίδων και ιδιαίτερα των site με web application προσανατολισμό, χωρίς αυτό να σημαίνει ότι αρκετές τεχνικές προστασίας και σφάλματα που θα εντοπίσουμε δεν μπορούν να συναντηθούν και σε άλλου σκοπού ιστοσελίδες. Αρχικά, γίνεται αναφορά στο τι είναι μια εφαρμογή ιστού (web app) και ποια είναι τα στοιχεία που την αποτελούν. Στη συνέχεια, χρησιμοποιώντας έρευνες, παρουσιάζονται κάποιες από τις πιο “δημοφιλείς” επιθέσεις που γίνονται σε ιστοσελίδες και περιγράφεται πιο διεξοδικά ποια αδύνατα σημεία της δομής των ιστοσελίδων εκμεταλλεύονται. Παράλληλα, γίνεται αναφορά στο πως και με ποια εργαλεία μπορούμε να εντοπίσουμε και να κλείσουμε τα κενά ασφαλείας που τυχόν έχει μία εφαρμογή ιστού. Τέλος, παρουσιάζεται η εφαρμογή που αναπτύχθηκε στα πλαίσια της εργασίας με σκοπό να γίνει επίδειξη συγκεκριμένων επιθέσεων και σφαλμάτων που παρατηρούνται στο διαδίκτυο. / In the following pages basic principals and methods are presented in order to secure websites and web applications. I begin by mentioning what is a web application. Moreover, by using statistics and recent researches from various sources i mention the most common web app attack methods and which vulnerabilities can be found in a web app and how to prevent exploiting, something we can accomplish by using various penetration testing tools. Finally, by using a basic web app some web attacks are shown so that it will become more clear how these attacks work.
3

Αξιολόγηση ευχρηστίας ιστοσελίδων για τις ανάγκες του e-banking

Γούναρη, Αναστασία 08 February 2010 (has links)
Στην εργασία αυτή αρχικά δίνεται ο ορισμός της έννοιας του e-banking, γίνεται μια σύντομη ιστορική αναδρομη και παρουσιάζεται η τρέχουσα κατάσταση στην Ελλάδα, στην Ευρώπη και στις ΗΠΑ. Αναφέρονται οι υπηρεσίες που προσφέρονται μέσω της Ηλεκτρονικής Τραπεζικής και τα πλεονεκτήματα και μειονεκτήματα που αυτή προσφέρει τόσο στους πελάτες, όσο και στις τράπεζες. Στη συνέχεια στο δεύτερο κεφάλαιο γίνεται λόγος για την ευχρηστία των ιστοσελίδων, τι σημαίνει και πόσο σημαντική είναι για την σχεδίαση αυτών. Παρακάτω, στο τρίτο κεφάλαιο αναφέρονται κάποια κριτήρια για αξιολόγηση ιστοσελίδων και με ποιον τροπο πρέπει αυτές να σχεδιάζονται, βλέποντας τα πράγματα από την πλευρά του χρήστη αλλά και από την πλευρα του προγραμματιστη. Στο τέταρτο κεφάλαιο δίνονται τα κριτήρια για την αξιολόγηση Τραπεζικών Ιστοσελίδων και σύμφωνα με αυτά τα κριτήρια αξιολογούνται κάποιες απο τις σημαντικότερες Τραπεζικές ιστοσελίδες. Τέλος παρουσιάζεται ένα ερωτηματολόγιο για να δούμε την ικανοποίηση των πελατών από τις υπηρεσίες που προσφέρει το E-Banking. / In this work is initially given the definition of significance of e-banking, there is a short historical retrospection and is presented the running situation in Greece, in Europe and in the USA. The services that are offered via Electronic Banking are reported and also the advantages and disadvantages that this offers in the customers and in the banks. In the second chapter there are reasons for the web pages' usability, what means and how important is for the designing of those. Below, in the third chapter are reported certain criteria for evaluation of web pages and in what way should these be drawn, seeing the things from the side of user but also from the side of programmer.In the fourth chapter are given the criteria for the evaluation of Banking Web pages and according to these criteria are evaluated the most important Banking web pages. Finally is presented a questionnaire in order to see the customers' satisfaction from the services that the E-banking offers.
4

Μελέτη περιπτώσεων και ανάλυση δυνατοτήτων λογισμικών υποδομής για εφαρμογές διαδικτυακών φόρουμ συζητήσεων (Web-forum)

Γκότση, Αντιόπη 11 January 2011 (has links)
Σκοπός της παρούσας διπλωματικής είναι να αναγνωρίσει βασικά και αντιπροσωπευτικά λογισμικά υποδομής για φόρουμ και να τα αξιολογήσει. Ομαδοποιούνται τα χαρακτηριστικά τους με σκοπό τη δημιουργία ενός συγκριτικού πίνακα, ο οποίος προκύπτει έπειτα από ενδελεχή μελέτη των παροχών, των χαρακτηριστικών και των δυνατοτήτων του εκάστοτε λογισμικού. Θα καταλήξει σε συμπεράσματα που θα είναι χρήσιμα για όποιον ενδιαφέρεται να μάθει για τα φόρουμ, να έρθει σε επαφή με τον τρόπο δημιουργίας και να επιλέξει εν τέλει αυτό το λογισμικό που τον αντιπροσωπεύει καλύτερα. / The intention of this paper is to recognize, rate and compare the most common web forum softwares.
5

Τεχνικές επαναδιατύπωσης ερωτημάτων στον παγκόσμιο ιστό για ανάκτηση πληροφορίας προσανατολισμένης στο σκοπό αναζήτησης / Query rewrites for goal oriented web searches

Κύρτσης, Νικόλαος 15 May 2012 (has links)
Στα πλαίσια της παρούσας διπλωματικής εργασίας, ασχολούμαστε με την αυτόματη κατηγοριοποίηση των αποτελεσμάτων των αναζητήσεων στον Παγκόσμιο Ιστό. Αρχικά, ορίζουμε τα χαρακτηριστικά των σελίδων που είναι κατάλληλα για κατηγοριοποίηση με βάση την πρόθεση του χρήστη. Έπειτα, με χρήση μεθόδων μείωσης της διαστατικότητας επιλέγουμε τα πιο αντιπροσωπευτικά από τα χαρακτηριστικά αυτά και αξιολογούμε την απόδοση διάφορων αλγορίθμων κατηγοριοποίησης. Ακολούθως, επιλέγουμε τον αλγόριθμο κατηγοριοποίησης που βασίζεται στα επιλεγμένα χαρακτηριστικά και επιτυγχάνει την καλύτερη απόδοση. Εφαρμόζοντας τον αλγόριθμο, κατηγοριοποιούμε τα αποτελέσματα των αναζητήσεων στον Παγκόσμιο Ιστό. Τέλος, προτείνουμε μια μέθοδο εξαγωγής όρων από τα κατηγοριοποιημένα αποτελέσματα και επαναδιατύπωσης του ερωτήματος με βάση τον σκοπό αναζήτησης του χρήστη. / In this thesis, we tackle the problem of automatic classification of search results in Web environment. First, we define web pages features that are convenient for classification based on the user’s intent. Next, we use dimensionality reduction techniques to choose the most representative features and we evaluate different classification algorithms. We choose the most efficient classification algorithm based on chosen features and by using it, we classify the results retrieved from web searches. In the end, we propose a method to extract terms from the classified results and to reformulate the query based on user intent.
6

Μέθοδοι αυτόματης αναγνώρισης περιεχομένου που παράγεται από χρήστες (User Generated Content) στον Παγκόσμιο ιστό

Λάμπος, Βασίλειος 08 May 2013 (has links)
Εκατομμύρια ανθρώπων επιλέγουν καθημερινά να χρησιμοποιήσουν τον Παγκόσμιο Ιστό για ένα ευρύ σύνολο δραστηριοτήτων. Ο αριθμός των χρηστών του διαδικτύου αυξάνεται συνεχώς, όπως επίσης και το σύνολο των διαφορετικών δραστηριοτήτων που μπορούν να εκτελεστούν μέσω ιστοσελίδων και υπηρεσιών του διαδικτύου. Οι χρήστες του Παγκόσμιου Ιστού καθημερινά συμμετέχουν σε διάφορες ψηφιακές δραστηριότητες, οριοθετώντας με αυτόν τον τρόπο τη ψηφιακή τους «ζωή». Κάθε χρήστης μπορεί να στείλει μήνυμα με το ηλεκτρονικό ταχυδρομείο, να επικοινωνήσει και να δημιουργήσει σχέσεις με άλλους χρήστες του Παγκόσμιου Ιστού, να επισκεφτεί ιστότοπους για να ικανοποιήσει τις ενημερωτικές του ανάγκες ή να διατηρεί ένα προσωπικό προφίλ σε έναν ή περισσότερους ιστότοπους κοινωνικής δικτύωσης. Παράλληλα, όλο και περισσότεροι χρήστες του Παγκόσμιου Ιστού χρησιμοποιούν τα ηλεκτρονικά καταστήματα για τις αγορές τους, επιτυγχάνοντας την απευθείας σύνδεση της έρευνας αγοράς με την αγορά προϊόντων ή υπηρεσιών, ενώ ο σχολιασμός και οι απόψεις άλλων χρηστών για προϊόντα και υπηρεσίες αποτελεί άλλο ένα αναμφισβήτητο πλεονέκτημα των ηλεκτρονικών καταστημάτων. Αποτέλεσμα της αυξανόμενης δραστηριοποίησης των χρηστών είναι η συνεχής αύξηση του όγκου των κειμενικών δεδομένων που έχουν παραχθεί από χρήστες (user generated text content - UGTC) στις ιστοσελίδες του Παγκόσμιου Ιστού. Οι δικτυακές κοινότητες αυξάνονται συνεχώς σε μέγεθος και αριθμό, ενώ ταυτόχρονα οι ιστότοποι και οι υπηρεσίες του Παγκόσμιου Ιστού προσφέρουν όλο και περισσότερες δυνατότητες στους χρήστες τους για να δημιουργήσουν, να συντηρήσουν και να δημοσιοποιήσουν περιεχόμενο κειμένου που έχει παραχθεί από τους ίδιους. Αποτέλεσμα της αλληλεπίδρασης των χρηστών αλλά και χρηστών και ιστοσελίδων, είναι ότι ένα αρκετά μεγάλο μέρος της διαδικτυακής πληροφορίας με το οποίο έρχεται σε επαφή ο μέσος χρήστης καθημερινά, έχει παραχθεί από άλλους χρήστες και όχι από τους δημιουργούς του ιστοτόπου. Η μελέτη των χαρακτηριστικών του περιεχομένου που έχει παραχθεί από χρήστες είναι κομβικό σημείο σε μια σειρά ερευνητικών πεδίων. Χαρακτηριστικό παράδειγμα αποτελούν οι μελέτες στα πλαίσια του πεδίου της εξόρυξης άποψης (opinion mining), οι οποίες βασίζονται στο περιεχόμενο των χρηστών για να αλιεύσουν τις απόψεις για ένα θέμα ή ένα προϊόν. Μελέτες, όπως οι παραπάνω, είναι ιδιαίτερα χρήσιμες στην ανάπτυξη σύγχρονων εμπορικών εφαρμογών, που θα προσφέρουν στον καταναλωτή δυνατότητα πληρέστερης ενημέρωσης για τις συναλλαγές που πρόκειται να πραγματοποιήσει. Άλλες περιπτώσεις αφορούν στην ανάλυση των γλωσσολογικών χαρακτηριστικών των κειμενικών δεδομένων που έχουν συνταχθεί από χρήστες. Επίσης, η μελέτη των χαρακτηριστικών του περιεχομένου που έχει παραχθεί από χρήστες του Παγκόσμιου Ιστού είναι ιδιαίτερα σημαντική στη μελέτη του social web, καθώς είναι δυνατόν να προκύψουν χρήσιμα συμπεράσματα τόσο για την εξέλιξή του στο χώρο και στο χρόνο, όσο και για την περαιτέρω εξέλιξη του, προσφέροντας στους χρήστες νέες δυνατότητες μέσα από σύγχρονες εφαρμογές που θα αναπτυχθούν. Σε κάθε περίπτωση, το περιεχόμενο των ιστοσελίδων του Παγκόσμιου Ιστού μπορεί θεωρητικά να κατηγοριοποιηθεί σε δυο κατηγορίες: στα δεδομένα των δημιουργών των ιστοσελίδων και στα δεδομένα που προέκυψαν από τους χρήστες των ιστοσελίδων κατά την αλληλεπίδρασή τους με αυτές. Στόχος της παρούσας μελέτης είναι να μελετήσει το κατά πόσο είναι εφικτή και με ποιόν τρόπο η αυτόματη αναγνώριση ύπαρξης ή μη περιεχομένου κειμένου του Παγκόσμιου Ιστού που έχει παραχθεί από χρήστες. Στα πλαίσια της παρούσας μεταπτυχιακής εργασίας θα εντοπιστούν χαρακτηριστικά, τα οποία θα επιτρέψουν τον αυτόματο εντοπισμό των κειμενικών δεδομένων χρηστών σε μια ιστοσελίδα. Γενικά σε μια ιστοσελίδα υπάρχουν τρεις πηγές πληροφοριών, οι οποίες μπορούν να χρησιμοποιηθούν κατά τη διαδικασία προσδιορσμού του user generated content (UGC): το περιεχόμενο της ιστοσελίδας, το περιβάλλον εμφάνισής της (συνδεσιμότητα με άλλες σελίδες και anchor text) και η δομή της, η οποία περιγράφεται από τα html tags (πχ ο τίτλος της σελίδας, οι λέξεις που παρουσιάζονται με bold κλπ). Η προτεινόμενη μεθοδολογία συνίσταται στην εφαρμογή τεχνικών ανάλυσης της ιστοσελίδας που σκοπό έχουν τον καθορισμό ενός συνόλου χαρακτηριστικών γνωρισμάτων της (features). Το σύνολο των γνωρισμάτων αυτών αποτελείται από τρία επιμέρους είδη χαρακτηριστικών γνωρισμάτων, τα γλωσσολογικά χαρακτηριστικά γνωρίσματα (textual features), τα χαρακτηριστικά γνωρίσματα δομής της ιστοσελίδας (Html tags), και τα χαρακτηριστικά γνωρίσματα απεικόνισης ή εμφάνισης της ιστοσελίδας (Visual and Visually Central Features). Από τα καθορισμένα χαρακτηριστικά θα επιλεγούν πειραματικά εκείνα, τα οποία θα συμμετάσχουν αποδοτικότερα στον αλγόριθμο προσδιορισμού για την ύπαρξη user generated text content σε μια ιστοσελίδα. Η αξιολόγηση των αποτελεσμάτων της προτεινόμενης μεθόδου θα πραγματοποιηθεί βάσει ενός συνόλου δεδομένων ελέγχου. Τα δεδομένα ελέγχου αποτελούνται από μια συλλογή ιστοσελίδων, για τις οποίες έχει γίνει έλεγχος για το αν περιέχουν user generated text content. Η διαδικασία αξιολόγησης συνίσταται στην σύγκριση των αποτελεσμάτων του αλγορίθμου που προτείνουμε με τα αποτελέσματα που έχουν παραχθεί από την επεξεργασία του συνόλου δεδομένων ελέγχου. Τα συμπεράσματα που θα προκύψουν μπορούν να χρησιμοποιηθούν για την περεταίρω βελτίωση του αλγορίθμου προσδιορισμού ύπαρξης user generated text content, καθώς και για την αξιοποίηση τους σε τεχνικές ανάλυσης και επεξεργασίας του user generated text content από ιστοσελίδες του Παγκόσμιου Ιστού. / Millions of people every day use the Web for a wide range of activities. The number of Internet users is continuously growing, as well as all the different activities that can be performed through websites and Internet services. Web users daily participate in various digital activities, delimiting in this way their digital "life." Each user can send an e-mail, communicate and establish relationships with other web users, visit websites in order to satisfy his information needs, or keep a personal profile in one or more social networking sites. At the same time, more and more web users use online shopping for their purchases, achieving direct connection of the market research by buying products or services, while the commentations and the views of other users for goods and services is another undoubted advantage of online shops. The users’ increasing activity has as result the continuous raising of the volume data, generated by users (user generated content - UGTC) in Web pages. On-line communities are growing in size and number, while simultaneously websites and web services offer users more and more options, in order to create, preserve and publish text produced by them. Result of the interaction between users and the website users and websites, is that a large part of the online information, in which the user come daily in contact, is produced by others and not by the creators of the website. The study of the characteristics of the content obtained by users is a key point in a series of searching fields. Typical examples are the studies within the field of mining opinion (opinion mining), which are based on the content of users to catch their opinions on a topic or product. Studies such as the above, are particularly useful in the development of modern commercial applications that can offer the consumer better information for his transactions. Other cases concern the analysis of the linguistic characteristics of textual data compiled by users. Also, the study of the content characteristics generated by users of the World Wide Web is particularly important in the study of the social web, as well as it can yield useful results for both the evolution in space and time, and further development providing users with new capabilities through new applications, which are developed. In any case, the Web content could theoretically be categorized in two categories: data of Web pages creators and the data generated by web users when interacting with them. The aim of this study is to examine whether it is feasible and with which way the automatic recognition of the text content on the Web produced by users. In this thesis, it will be identified characteristics that allow the automatic detection of textual data of users to a website and its separation from the content that has been produced by the creators of the website. During the planning and design of the proposed method it will initially be studied the inherent characteristics of different types of websites, which are indicative of the presence of these text content users. It will also be studied the usefulness of linguistic and visual features for recognition textual data users at the site, in order to separate it from the official content, that is from content creators. Generally in a website there are three sources of information that can be used during the process of identifying user generated content (UGC): website content, setting of development (connectivity with other pages and anchor text) and its structure, which is described by the html tags (eg page title, words presented in bold, etc). The proposed methodology is recommended in applying technical analysis website aimed at defining a part of attributes (features). All these attributes consist of three kinds of features, textual features, features of the site structure (Html tags), and imaging features or appearance of the website (Visual and Visually Central Features). From the defined features it will experimentally be selected those, which will efficiently participate in the identification algorithm for the existence user generated text content on a website. The evaluation results of the proposed method will be held considering specific audit data. The audit data consist of a collection of web pages, which have already been checked whether they contain user generated text content. The process evaluation reccommends comparing the results of the proposed algorithm with the results obtained from processing all audit data. The conclusions can be used to further improvement of the identification algorithm existence of user generated text content, as well as to exploit them in technical analysis and processing of user generated text content from Web pages.
7

Αξιολόγηση ιστοσελίδων φαρμακευτικών εταιρειών

Παναγιωτοπούλου, Αναστασία 27 April 2015 (has links)
Σκοπός της παρούσας εργασίας είναι να γίνει μία προσπάθεια ανάλυσης της ποιότητας δικτυακών τόπων φαρμακευτικών εταιρειών, έχοντας υπόψη το πώς γίνεται μία γενική αξιολόγηση των χαρακτηριστικών των ιστοσελίδων καθώς παρουσιάζει αρκετά κοινά κριτήρια με την αξιολόγηση ιστοσελίδων φαρμακευτικών εταιρειών. Οι φαρμακευτικές εταιρείες που συμμετείχαν ως δείγμα στην έρευνά μας δραστηριοποιούνται τόσο στον ελλαδικό χώρο όσο και παγκοσμίως και είναι είτε εθνικές είτε πολυεθνικές εταιρείες. Οι διαδικτυακοί τόποι που αναλύσαμε ήταν είκοσι σε αριθμό και τα δεδομένα προέκυψαν με τη βοήθεια των λογιστικών φύλλων στο Excel. Τα χρώματα, οι γραμματοσειρές, τα στοιχεία πλοήγησης είναι λειτουργικά και ευπαρουσίαστα χωρίς περιττά και δύσχρηστα στοιχεία. Τα ερευνητικά συμπεράσματα υποδεικνύουν πως σε υψηλό βαθμό η κατασκευή των ιστοσελίδων έχει γίνει σε περιβάλλον φιλικό προς τους χρήστες, δίνοντας τη δυνατότητα για εύκολη πλοήγηση και αναζήτηση θεμάτων που άπτονται των ενδιαφερόντων τους. / The purpose of this paper is to analyse the quality of websites of pharmaceutical companies, having regard how is generally the evaluation of the websites as it presents several common criteria to evaluation of pharmaceutical companies’ websites. Pharmaceutical companies involved in our survey sample are active both in Greece and worldwide and are either national or multinational companies. The websites we analyzed were twenty and the data obtained with the help of a spreadsheet in Excel. The colors, fonts, navigability are functional and presentable without unnecessary and inconvenient items. The research findings indicate that these websites has been designed in an environmentally friendly frame for users, allowing them easy navigation and searching issues of their interests.
8

Αρχιτεκτονικές λογισμικού για περιβάλλοντα επίλυσης προβλημάτων και εφαρμογές στο ασύγχρονο μοντέλο υπολογισμού

Κόλλιας, Γεώργιος 11 January 2010 (has links)
Τα τελευταία χρόνια έχουν γίνει σημαντικές προσπάθειες o Πληροφορικός-Επιστήμονας των Υπολογισμών να εκθέσει με εύληπτο τρόπο τη γνώση και εμπειρία του στις κοινότητες εκείνων που θέλουν να κάνουν υπολογισμούς. Κάτι τέτοιο έχει καταστεί δυνατό με την κατασκευή σύνθετων στη δομή, αλλά εύκολων στη χρήση, εργαλείων-περιβαλλόντων υπολογισμού στα οποία κανείς μπορεί με εντελώς φυσικό τρόπο να προδιαγράψει το πρόβλημά του και -ανάλογα με την εμπειρία του- να επέμβει στη ροή επίλυσής του. Τα Περιβάλλοντα Επίλυσης Προβλημάτων (ΠΕΠ) προβάλλουν λοιπόν ως μια πολύ ελκυστική λύση για τον επιστήμονα των εφαρμογών που αναζητεί μια εύχρηστη, ισχυρή και αξιόπιστη πλατφόρμα λογισμικού για τους υπολογισμούς του. Σε πολλές περιπτώσεις αυτοί οι υπολογισμοί είναι πολύ μεγάλης κλίμακας και απαιτούν πολυάριθμους και αποδοτικούς πόρους. Η τιθάσευσή τους σε κάποια έκταση έγινε δυνατή με τη στροφή σε παράλληλες-κατανεμημένες αρχιτεκτονικές, πρόσφατα μεγάλης κλίμακας, με έμφαση στην ευχρηστία, στην ασφάλεια πρόσβασης και στη συνεργατικότητα (Πλέγμα (Grid)). Σε άλλες περιπτώσεις οι πολυπύρηνοι επεξεργαστές που εξοπλίζουν πλέον τους τυπικούς οικιακούς υπολογιστές μας και οι προβλέψεις για αθρόα κλιμάκωση του αριθμού των προσφερόμενων πυρήνων, προτρέπουν σε επαναδιαπραγμάτευση κλασικών αλγορίθμων με στόχευση στην εξαγωγή παραλληλίας, αφού πλέον αυτή μπορεί να απεικονιστεί άμεσα στο διαθέσιμο υλικό. Επιπρόσθετα μια τέτοια στροφή ώθησε και τη διερεύνηση εναλλακτικών μοντέλων υπολογισμού: Το ασύγχρονο μοντέλο υπολογισμού προσφέροντας τη δυνατότητα για εξάλειψη των χρονοβόρων φάσεων συγχρονισμού των πολλαπλών μονάδων επεξεργασίας προβάλλει ως μια ενδιαφέρουσα επιλογή. Συστηματοποιούμε τη μελέτη των Περιβαλλόντων Επίλυσης Προβλημάτων (ΠΕΠ) εντοπίζοντας τους άξονες που χαρακτηρίζουν αυτήν την κατηγορία συστημάτων λογισμικού και υλοποιώντας το Jylab, ένα πρωτότυπο ΠΕΠ με έμφαση στη φορητότητα, την επαναχρησιμοποίηση ελεύθερα διαθέσιμου κώδικα και τη δυνατότητα για ακολουθιακό, παράλληλο και κατανεμημένο υπολογισμό σε πολλαπλές πλατφόρμες. Ειδικότερα, το Jylab περιλαμβάνει υποστήριξη για ασύγχρονο κατανεμημένο υπολογισμό, ανάλυση ιστογραφημάτων και εκτέλεση υπολογισμών στο Πλέγμα (Grid). Αμέσως μετά εισάγουμε το ασύγχρονο μοντέλο υπολογισμού εστιάζοντας σε καίρια ζητήματα όπως η ανάλυση της σύγκλισης, η ανίχνευση του τερματισμού και η υλοποίησή του. Προτείνουμε πιθανοτικό πλαίσιο εντοπισμού της σύγκλισης και διερευνούμε την πολυπλοκότητα του μοντέλου. Στη συνέχεια μελετούμε αλγορίθμους διάταξης των κόμβων ενός γραφήματος, επικεντρώνοντας στον υπολογισμό του διανύσματος του PageRank το οποίο χρησιμοποιεί η Google για να διατάξει τα αποτελέσματα μιας ερώτησης που υποβάλλουμε στη μηχανή αναζήτησής της. Αποδεικνύουμε πως και άλλες μέθοδοι διάταξης, οι οποίες εκφράζονται πρωταρχικά ως δυναμοσειρές ενός τροποποιημένου μητρώου συνδέσμων μπορούν να γραφτούν ως γινόμενα των επαναληπτικών μητρώων που χρησιμοποιούνται στον υπολογισμό του διανύσματος PageRank, αλλά με διαφορετική παράμετρο σε κάθε όρο τους (μέθοδος της πολυπαραμετρικής απόσβεσης). Στη συνέχεια εκθέτουμε την πειραματική συμπεριφορά του ασύγχρονου μοντέλου, όπως αυτή προκύπτει από υλοποιήσεις κυρίως του αλγορίθμου του PageRank, σε διάφορες πλατφόρμες (τοπικά, στη συστάδα υπολογισμών και στο Πλέγμα (Grid)) και με μονάδες εκτέλεσης νήματα ή διεργασίες. To Jylab χρησιμοποιήθηκε εντατικά σε αυτές τις διερευνήσεις και αποδείχτηκε πως όλοι οι πειραματισμοί μπορούν να τεθούν κάτω από ενιαίο πλαίσιο λογισμικού. Επίσης εισάγουμε μια κλάση αλγορίθμων κατανεμημένου υπολογισμού στατιστικών μεγεθών, τους gossip αλγορίθμους, σε κάθε στοιχειώδες βήμα των οποίων μόνο δύο οντότητες επικοινωνούν και υπολογίζουν. Επεκτείνουμε αυτούς τους αλγορίθμους επιτρέποντας σε k > 2 οντότητες να αλληλεπιδρούν ανά βήμα, προσομοιώνουμε τη συμπεριφορά τους και προτείνουμε πρωτόκολλα υλοποίησής τους. / In recent years computational scientists strive to expose their knowledge and experience to the communities of people interested in performing computations. This endeavor focuses on the construction of complex in structure, however simple in use, toolchains and environments in which a researcher can specify his or her problem and - depending on his experience - change its exact solution flow. In many cases these computations necessitate large-scale and performant resources. Harnessing them, to some extent, became possible by turning to parallel-distributed architectures, recently of large scale, emphasizing usability, security in accessing them and collaboration perspectives (Grid). In other cases, the multicore processors, nowadays powering even typical personal computers, coupled with predictions for dramatic increase in the number of available cores in the near future, suggest a reconsideration of classic algorithms aiming at extracting parallelism, since this can be directly mapped to underlying hardware. Additionally, such a move, also fuels the investigation of alternative computation models: The asynchronous computation model, offering the flexibility for the complete removal of time-consuming synchronization phases, is a very interesting option. We study Problem Solving Environments (PSEs) in a systematic manner, specifying the axes characterizing this category of systems of software also implementing Jylab, a prototype PSE emphasizing portability and the reuse of freely available code and enabling sequential, parallel and distributed computing over multiple platforms. More specifically, Jylab includes support for asynchronous distributed computations, Web graph analysis and Grid computing. Then we introduce the asynchronous computation model, focusing in three core subjects, namely its convergence analysis, the termination detection problem and its implementation. We propose a probabilistic framework for convergence detection and explore the complexity of the model. Afterwards, we survey algorithms for ranking the nodes of a graph, focusing on computing the PageRank vector, which is used by Google for ranking the results of a query submitted to its search engine. We prove that a whole class of ranking methods, primarily expressed as a power series of a modified link matrix can be written as products of iterative matrices similar to those used in computing the PageRank vector, albeit with a different damping parameter for each of its terms (multidamping). Next, we present the experimental behavior of the asynchronous model, mainly as applied in computing the PageRank vector, over different platforms (locally, in a computer cluster and over the Grid) using either threads or processes as its units of execution. Jylab was intensively used in these investigations and it was proved that all experimentations can be cast under a unifying software framework. We also introduce a class of algorithms for the distributed computation of statistical quantities, namely gossip algorithms, for which only two entities communicate and compute at each elementary step. We extend these algorithms be permitting k > 2 entities to interact on a per elementary step basis, simulate their behavior and propose protocols for implementing them.
9

Ανάπτυξη μεθόδων και εργαλείων μέτρησης ευχρηστίας : υλοποίηση εργαλείου ταξινόμησης καρτών

Σιώζος, Κώστας 04 October 2011 (has links)
Στόχος της παρούσας διπλωματικής εργασίας είναι η ανάπτυξη ενός διαδικτυακού συστήματος το οποίο παρέχει την δυνατότητα εκτέλεσης πειραμάτων Ταξινόμησης Καρτών καθώς και ανάλυσης των αποτελεσμάτων που προκύπτουν. Αφότου έγινε συστηματική μελέτη της θεωρίας προσδιορίστηκαν οι κύριες αρχές, πάνω στις οποίες βασίστηκε η σχεδίαση και ανάπτυξη του συστήματος. Δόθηκε έμφαση στην ευχρηστία και στον διαδικτυακό χαρακτήρα του συστήματος καθώς και στην δημιουργία περιβάλλοντος υψηλής διαδραστικότητας. Για την επίτευξη του στόχου αξιοποιήθηκαν τεχνολογίες βάσεων δεδομένων και διαδικτύου. Η ευχρηστία του συστήματος είναι απόρροια διαδοχικών αξιολογήσεων από ειδικούς ευχρηστίας αλλά και δοκιμής του σε πραγματικές συνθήκες χρήσης. Το σύστημα αποτελεί ένα χρήσιμο εργαλείο στα χέρια ενός ερευνητή, αποκαλύπτοντας τις εννοιολογικές δομές ή κατηγοριοποιήσεις των ατόμων που εκτελούν το πείραμα, αλλά και ενός σχεδιαστή πληροφοριακών συστημάτων, ώστε να κατανοήσει καλύτερα τους χρήστες στους οποίους απευθύνεται και να βελτιώσει με αυτό τον τρόπο την ευχρηστία και την εμπειρία χρήστη. Τέλος, η λογική της μεταφοράς μιας μεθόδου όπως η Ταξινόμηση Καρτών σε ένα διαδικτυακό σύστημα μπορεί να επεκταθεί και σε άλλες ερευνητικές μεθόδους, απολαμβάνοντας αντίστοιχα οφέλη. / The aim of this thesis is to develop an online system that provides the ability to perform Card Sorting experiments and analysis of Card Sorting results. After a systematic study of theory, the main principles were identified upon which the design and development of the system was based on. Emphasis was placed on achieving a high level of usability and to create an online and highly interactive environment using RIA (Rich Internet Applications). To achieve this goal, database technologies and internet technologies as well as RIA were used. The usability of the system is the result of successive evaluations by experts and usability test in real conditions. The system is a useful tool for a researcher to reveal the conceptual structure or classifications(user mental model) of people participating in a Card Sorting experiment, but also for a designer of information systems to better understand the users to whom the design refers to and thereby to improve the usability and user experience. Finally, the logic of transferring a method such as Card Sorting from the "real world" in an online system can be extended to other research methods, enjoying the benefits of modern computer and internet technologies .
10

Σύστημα υλοποίησης και γραφικής αναπαράστασης αλγορίθμων ανάθεσης υπερσυνδέσμων στον παγκόσμιο ιστό

Τριανταφυλλίδης, Γρηγόριος 02 September 2008 (has links)
Ο παγκόσμιος ιστός έχει εδραιωθεί πλέον ως το δημοφιλέστερο μέσο ανάκτησης πληροφοριών. Όπως είναι λογικό, όσο παλαιώνει τόσο μεγαλύτερη πληροφορία εμπεριέχει. Πληθαίνουν έτσι εκείνοι οι ιστότοποι που γιγαντώνονται άναρχα και ενώ σαν στόχο έχουν να προσφέρουν την πληροφορία στον χρήστη που τους επισκέπτεται, λόγω του τεράστιου όγκου της, κάνουν συχνά δύσκολη την πρόσβαση σε συγκεκριμένα κομμάτια αυτής. Με στόχο την αντιμετώπιση αυτής της κατάστασης, αναπτύσσονται τα τελευταία χρόνια αλγόριθμοι ανάθεσης υπερσυνδέσμων σε ιστοτόπους. Η λογική τους είναι ο εντοπισμός της πιο δημοφιλούς ή πιθανής πληροφορίας και η εξασφάλιση καλύτερης πρόσβασης σε αυτήν, αναθέτοντας υπερσυνδέσμους (hotlinks) προς τις ιστοσελίδες που την περιέχουν. Οι αλγόριθμοι αυτοί εφαρμόζονται όχι σε πραγματικές αναπαραστάσεις ιστοτόπων, αλλά κατά κανόνα στα αντίστοιχα κατευθυνόμενα άκυκλα γραφήματα (DAG) αυτών. Όπως είναι γνωστό κανένας ιστότοπος δεν έχει μορφή DAG, με συνέπεια να υπάρχει μία απόσταση από τη θεωρητική ανεύρεση υπερσυνδέσμων και την πιθανή εφαρμογή τους στην πραγματικότητα. Σε αυτήν την εργασία ασχολούμαστε αρχικά με την μεθοδική καταγραφή της πραγματικής συνδεσμολογίας ενός ιστότοπου, που αποτελεί ένα πρώτο βήμα στην ανάθεση υπερσυνδέσμων σε πραγματικούς ιστοτόπους. Αυτό επιτυγχάνεται με την κατάλληλη προδιαγραφή και υλοποίηση μιας δικτυακής μηχανής αναζήτησης, ώστε να ανταποκρίνεται στις ανάγκες μας. Προτείνουμε στη συνέχεια το εργαλείο ‘HotLink Visualizer’, το οποίο αρχικά μετατρέπει την πληροφορία της συνδεσμολογίας ενός ιστοτόπου σε απλά δεδομένα μορφής πίνακα και στη συνέχεια οπτικοποιεί το αποτέλεσμα. Τέλος, υλοποιεί την απευθείας ανάθεση υπερσυνδέσμων προσθέτοντας αυτόματα μέσα στις σελίδες του ιστοτόπου τους υπερσυνδέσμους και οπτικοποιεί εκ νέου το αποτέλεσμα. Παρέχει έτσι τη δυνατότητα διατήρησης διαφορετικών εκδόσεων της μορφής ενός ιστοτόπου, ανάλογα με το σύνολο από υπερσυνδέσμους που έχουν ανατεθεί σε αυτό. / The World Wide Web has become established as the most popular source of information retrieval. As expected, the older it gets the more information it contains and thus the number of the web sites with gigantic growth and bad information access rates is constantly increased within it. During the last years the matter is being addressed with the development of several hotlink assignment algorithms for web sites. The main idea behind those algorithms is to spot the most popular or more likely to be accessed piece of information and provide better access to it by assigning links (hotlinks) to the web pages containing it. These algorithms are not applied to the actual representations of these web sites but usually to their corresponding direct acyclic graphs (DAGs). However, it is widely known that a web site in its true form is not a DAG, since there can be found hundreds of links pointing to just one page. Hence, there is a gap between the theoretical determination of a set of hotlinks and the possible application of this set to a real web site. In this paper we first address the issue of recording and persisting the exact map of a web site with its full connectivity, which can be considered as a first step towards the assignment of hotlinks in real web sites. We succeed in that, with the appropriate specification and implementation of a web crawler, with functionality suited to our specific needs. We then propose an administrative tool, the ‘Hotlink Visualizer’, which, after persisting in tabular data all the necessary information to capture a web site’s real map, visualizes the outcome and implements hotlink additions by adding with an automated procedure the generated hotlinks in the web pages of the site. Thus we have the ability to maintain in row data different forms and versions of the originally parsed web site, as it can be formed from the assignment of different hotlink sets to it.

Page generated in 0.0328 seconds