• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 10
  • Tagged with
  • 156
  • 23
  • 19
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Διερεύνηση τεχνικών παραμέτρων για δυνατότητες μετάδοσης βίντεο στο πλαίσιο της υποστήριξης υψηλής ποιότητας παρεχόμενων υπηρεσιών στα σύγχρονα ασύρματα δίκτυα

Σαρακινιώτη, Βικτωρία 19 July 2012 (has links)
Η παρούσα διπλωματική εργασία εκπονήθηκε στο Εργαστήριο Ασύρματης Τηλεπικοινωνίας του τμήματος Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Ο στόχος της εργασίας αυτής ήταν η μελέτη της μετάδοσης κωδικοποιημένου βίντεο H.264/AVC στο δίκτυο WiMAX με βάση τη χρήση τριών σχημάτων διαμόρφωσης φυσικού επιπέδου του σήματος βίντεο. Λαμβάνοντας υπόψιν την τεράστια εξέλιξη των ασύρματων δικτύων, αλλά και των συσκευών που μπορούν να υποστηρίξουν πολυμεσικές εφαρμογές, καθιστούν τελικά τη μετάδοση βίντεο μια από τις σημαντικότερες προκλήσεις και ένα δημοφιλή ερευνητικό προσανατολισμό. Σημαντικό ρόλο στη μετάδοση του βίντεο διαδραματίζουν οι παράμετροι που διασφαλίζουν την Ποιότητα των Παρεχόμενων Υπηρεσιών, όπως το εύρος ζώνης, η καθυστέρηση, η διακύμανση της καθυστέρησης και φυσικά η απώλεια πακέτων. Ωστόσο, σε ένα δίκτυο υπάρχουν ποικίλλες παράμετροι που πρέπει να λαμβάνονται υπόψιν κατά τη μετάδοση πολυμεσικής πληροφορίας και στην παρούσα εργασία έγινε μια προσπάθεια να εξεταστεί το θέμα υπό το πρίσμα της διαμόρφωσης φυσικού επιπέδου. Το εργαλείο που χρησιμοποιήθηκε για τη μελέτη αυτή, είναι ο εξομοιωτής δικτύων NS-2, η έκδοση ns-2.29. Για την εξαγωγή των γραφικών παραστάσεων χρησιμοποιήθηκε το Matlab R2009b, ενώ για την εξαγωγή των σχημάτων το Microsoft Office Visio 2010. / This diploma thesis was developed at the Laboratory of Wireless Communications, at the Department of Electrical and Computer Engineering. The objective of this work was to study the transmission of the encoded video H.264/AVC through its transmission over WiMAX network based on the use of three physical layer modulation schemes of the video signal. Considering the tremendous evolution of wireless networks and the fact that modern devices can support multimedia applications, it cannot be denied that video broadcasting is of major importance and constitutes a great challenge for the engineers for further research. Parameters that ensure quality of service, such as bandwidth, delay, delay variation and of course packet loss, play dominant role in the optimization of video transmission. However, in a network, there are various parameters that should be taken into consideration when transmitting multimedia data. The tool used for this study is the network simulator NS-2, the version ns-2.29. In order to export the graphics the software that was used is Matlab R2009b, while the Microsoft Office Visio 2010 software was used to export the figures.
122

Εξομοίωση αλγορίθμων για video on demand σε περιβάλλοντα P2P

Νικολάου, Νικόλαος 01 October 2012 (has links)
Από τις αρχές της δεκαετίας του 90 η υπηρεσία Video on Demand έπαιξε σημαντικό ρόλο στην εφαρμογή της διαδραστικής τηλεόρασης του εξωτερικού. Η ραγδαία αύξηση της χρήσης του διαδικτύου και κυρίως η βελτίωση των υποδομών αυτού έχουν επιφέρει σε παγκόσμιο επίπεδο τεράστιες μεταβολές στις μορφές επικοινωνίας οι οποίες έχουν καταστεί πλέον πιο άμεσες από ποτέ. Ως αποτέλεσμα αναπτύχθηκαν αρκετές δικτυακές εφαρμογές ασύγχρονου video streaming ή video on demand. Ωστόσο οι αυξημένες απαιτήσεις τους σε κλιμάκωση (scalability), προσαρμοστικότητα (flexibility), ανεκτικότητα σε σφάλματα και απόδοση, καθιστούν απαραίτητη την υποστήριξή τους από κατανεμημένες ή και παράλληλες αρχιτεκτονικές. Μία αρκετά υποσχόμενη προσέγγιση προς αυτή την κατεύθυνση είναι τα p2p (peer to peer) συστήματα καθώς οι ίδιοι οι χρήστες των εφαρμογών διαθέτουν ένα τεράστιο σύνολο από δικτυακή και υπολογιστική ισχύ. Στα συστήματα αυτά το περιεχόμενο που κατεβάζουν οι χρήστες διασπάται σε κομμάτια τα οποία ανταλλάσσονται από αυτούς, με σκοπό την τελική επανασύνδεση και ανάκτηση του συνολικού συρμού των δεδομένων. Ιδιαίτερο ενδιαφέρον παρουσιάζει η απαίτηση του χρήστη να παρακολουθεί μη διαδοχικά σημεία του video, να κάνει δηλαδή “άλματα” και πώς αυτή διαχειρίζεται από ένα p2p σύστημα. Σκοπός αυτής της διπλωματικής είναι η μελέτη της απόδοσης των p2p συστημάτων σε συνθήκες όπου οι χρήστες εκτελούν άλματα και η πρόταση αλγορίθμων για τη βέλτιστη διαχείριση τέτοιων αιτημάτων. Ως βέλτιστη θεωρούμε την κατάσταση στην οποία οι χρήστες δεν υπερφορτώνονται με εξερχόμενες συνδέσεις και δεν μένουν ποτέ χωρίς εισερχόμενες, ώστε να εξασφαλίζεται η συνεχής ροή του video. / The goal of each P2P VoD system is the provision of a real time streaming service in which each user (peer) is able to consume every point (part of the video) of every distribution object the time instant that demands it. The rapid, reliable and efficient transmission of the distribution object consist the core of the problem. The distribution of each object is done by exploiting both the upload bandwidth of the server and participating peers.Without loss of generality, in a P2P Video on demand (VoD) system a source(s) (named server) owns a set of videos which noted as distribution objects. The source (s) is responsible for providing the distribution object and contributes its upload bandwidth towards this objective. Peers that are clients of the streaming service act simultaneously as upload bandwidth contributors for the provision of the service. An interesting aspect of VoD is seeking functionality, in which a node can "jump" to another point of the video. In this thesis we introduce an algorithm tha approaches the issue of seeking an efficient way without unbalancing the traffic load
123

Κατανεμημένη παρατήρηση-εκτίμηση συνολικών πόρων μεγάλων συνόλων δικτυακών κόμβων και εφαρμογή αυτών σε δικτυακή εφαρμογή διαμοιρασμού βίντεο πραγματικού χρόνου

Δανούσης, Σπυρίδων 13 October 2013 (has links)
Τα τελευταία χρόνια είδαν την άνθιση διαδικτυακών εφαρμογών και υπηρεσιών διαμοιρασμού αντικειμένων πολυμέσων. Την τιμητική τους είχαν τα αντικείμενα οπτικοακουστικού περιεχομένου (video), δίνοντας πρωταγωνιστικό ρόλο στην ανάπτυξη συστημάτων διαμοιρασμού βίντεο. Μάλιστα, ανταποκρινόμενα στην δυνατότητα των χρηστών για επιλογή περιεχομένου, που παρείχαν η ραγδαία αύξηση της χρήσης του διαδικτύου και η βελτίωση των υποδομών αυτού, έγιναν ιδιαίτερα δημοφιλή τα συστήματα και οι υπηρεσίες διαμοιρασμού βίντεο κατόπιν ζήτησης Ωστόσο οι αυξημένες απαιτήσεις τους σε κλιμάκωση, προσαρμοστικότητα, απόδοση και ανεκτικότητα σε σφάλματα, κατέστησαν απαραίτητη την υποστήριξή τους από κατανεμημένες ή και παράλληλες αρχιτεκτονικές. Μία αρκετά υποσχόμενη προσέγγιση προς αυτή την κατεύθυνση είναι τα διομότιμα συστήματα καθώς οι ίδιοι οι χρήστες των εφαρμογών διαθέτουν ένα τεράστιο σύνολο από δικτυακούς και υπολογιστικούς πόρους. Στα συστήματα αυτά το περιεχόμενο που κατεβάζουν οι χρήστες διασπάται σε κομμάτια τα οποία ανταλλάσσονται από αυτούς ,με σκοπό την τελική επανασύνδεση και ανάκτηση του συνολικού μεγέθους των δεδομένων. Σκοπός αυτής της διπλωματικής είναι η μελέτη της αξιοποίησης του εύρους ζώνης στα πλαίσια ενός διομότιμου συστήματος διαμοιρασμού βίντεο κατόπιν ζήτησης με πολλαπλά κανάλια. Η παρατήρηση του τρόπου συμπεριφοράς των χρηστών και του συνολικού συστήματος ως προς τον πολύτιμο αυτό δικτυακό πόρο, μπορεί να αποτελέσει την βάση για την ανάπτυξη εφαρμογών με μεγαλύτερη αποδοτικότητα, πιο οικονομικών στην λειτουργία τους, και με βελτιωμένη ευελιξία. / The last year saw the flourishing of Internet applications and services sharing media objects. Their honor were the objects of audiovisual content (video), giving a leading role in the development of video sharing. Indeed, in response to users' ability to select content, provided by the rapid growth of internet usage and to improve the infrastructure of this, became very popular in the systems and services for sharing video on demand However, the increased demands on scalability, flexibility, performance and fault tolerance, made it necessary to support them or from distributed and parallel architectures. A very promising approach in this direction is the diomotima systems and the users themselves applications have a huge amount of network and computing resources. In these systems the content download users cleaved into pieces which are exchanged by them, with the final reconnection and recovery of the total size of data. The aim of this thesis is to study the utilization of bandwidth within a peer sharing system video on demand with multiple channels. The observation of how user behavior and the overall system to this valuable web resource, can provide the basis for developing applications with greater efficiency, more economical to operate, and with improved flexibility.
124

Μέθοδοι αυτόματης αναγνώρισης περιεχομένου που παράγεται από χρήστες (User Generated Content) στον Παγκόσμιο ιστό

Λάμπος, Βασίλειος 08 May 2013 (has links)
Εκατομμύρια ανθρώπων επιλέγουν καθημερινά να χρησιμοποιήσουν τον Παγκόσμιο Ιστό για ένα ευρύ σύνολο δραστηριοτήτων. Ο αριθμός των χρηστών του διαδικτύου αυξάνεται συνεχώς, όπως επίσης και το σύνολο των διαφορετικών δραστηριοτήτων που μπορούν να εκτελεστούν μέσω ιστοσελίδων και υπηρεσιών του διαδικτύου. Οι χρήστες του Παγκόσμιου Ιστού καθημερινά συμμετέχουν σε διάφορες ψηφιακές δραστηριότητες, οριοθετώντας με αυτόν τον τρόπο τη ψηφιακή τους «ζωή». Κάθε χρήστης μπορεί να στείλει μήνυμα με το ηλεκτρονικό ταχυδρομείο, να επικοινωνήσει και να δημιουργήσει σχέσεις με άλλους χρήστες του Παγκόσμιου Ιστού, να επισκεφτεί ιστότοπους για να ικανοποιήσει τις ενημερωτικές του ανάγκες ή να διατηρεί ένα προσωπικό προφίλ σε έναν ή περισσότερους ιστότοπους κοινωνικής δικτύωσης. Παράλληλα, όλο και περισσότεροι χρήστες του Παγκόσμιου Ιστού χρησιμοποιούν τα ηλεκτρονικά καταστήματα για τις αγορές τους, επιτυγχάνοντας την απευθείας σύνδεση της έρευνας αγοράς με την αγορά προϊόντων ή υπηρεσιών, ενώ ο σχολιασμός και οι απόψεις άλλων χρηστών για προϊόντα και υπηρεσίες αποτελεί άλλο ένα αναμφισβήτητο πλεονέκτημα των ηλεκτρονικών καταστημάτων. Αποτέλεσμα της αυξανόμενης δραστηριοποίησης των χρηστών είναι η συνεχής αύξηση του όγκου των κειμενικών δεδομένων που έχουν παραχθεί από χρήστες (user generated text content - UGTC) στις ιστοσελίδες του Παγκόσμιου Ιστού. Οι δικτυακές κοινότητες αυξάνονται συνεχώς σε μέγεθος και αριθμό, ενώ ταυτόχρονα οι ιστότοποι και οι υπηρεσίες του Παγκόσμιου Ιστού προσφέρουν όλο και περισσότερες δυνατότητες στους χρήστες τους για να δημιουργήσουν, να συντηρήσουν και να δημοσιοποιήσουν περιεχόμενο κειμένου που έχει παραχθεί από τους ίδιους. Αποτέλεσμα της αλληλεπίδρασης των χρηστών αλλά και χρηστών και ιστοσελίδων, είναι ότι ένα αρκετά μεγάλο μέρος της διαδικτυακής πληροφορίας με το οποίο έρχεται σε επαφή ο μέσος χρήστης καθημερινά, έχει παραχθεί από άλλους χρήστες και όχι από τους δημιουργούς του ιστοτόπου. Η μελέτη των χαρακτηριστικών του περιεχομένου που έχει παραχθεί από χρήστες είναι κομβικό σημείο σε μια σειρά ερευνητικών πεδίων. Χαρακτηριστικό παράδειγμα αποτελούν οι μελέτες στα πλαίσια του πεδίου της εξόρυξης άποψης (opinion mining), οι οποίες βασίζονται στο περιεχόμενο των χρηστών για να αλιεύσουν τις απόψεις για ένα θέμα ή ένα προϊόν. Μελέτες, όπως οι παραπάνω, είναι ιδιαίτερα χρήσιμες στην ανάπτυξη σύγχρονων εμπορικών εφαρμογών, που θα προσφέρουν στον καταναλωτή δυνατότητα πληρέστερης ενημέρωσης για τις συναλλαγές που πρόκειται να πραγματοποιήσει. Άλλες περιπτώσεις αφορούν στην ανάλυση των γλωσσολογικών χαρακτηριστικών των κειμενικών δεδομένων που έχουν συνταχθεί από χρήστες. Επίσης, η μελέτη των χαρακτηριστικών του περιεχομένου που έχει παραχθεί από χρήστες του Παγκόσμιου Ιστού είναι ιδιαίτερα σημαντική στη μελέτη του social web, καθώς είναι δυνατόν να προκύψουν χρήσιμα συμπεράσματα τόσο για την εξέλιξή του στο χώρο και στο χρόνο, όσο και για την περαιτέρω εξέλιξη του, προσφέροντας στους χρήστες νέες δυνατότητες μέσα από σύγχρονες εφαρμογές που θα αναπτυχθούν. Σε κάθε περίπτωση, το περιεχόμενο των ιστοσελίδων του Παγκόσμιου Ιστού μπορεί θεωρητικά να κατηγοριοποιηθεί σε δυο κατηγορίες: στα δεδομένα των δημιουργών των ιστοσελίδων και στα δεδομένα που προέκυψαν από τους χρήστες των ιστοσελίδων κατά την αλληλεπίδρασή τους με αυτές. Στόχος της παρούσας μελέτης είναι να μελετήσει το κατά πόσο είναι εφικτή και με ποιόν τρόπο η αυτόματη αναγνώριση ύπαρξης ή μη περιεχομένου κειμένου του Παγκόσμιου Ιστού που έχει παραχθεί από χρήστες. Στα πλαίσια της παρούσας μεταπτυχιακής εργασίας θα εντοπιστούν χαρακτηριστικά, τα οποία θα επιτρέψουν τον αυτόματο εντοπισμό των κειμενικών δεδομένων χρηστών σε μια ιστοσελίδα. Γενικά σε μια ιστοσελίδα υπάρχουν τρεις πηγές πληροφοριών, οι οποίες μπορούν να χρησιμοποιηθούν κατά τη διαδικασία προσδιορσμού του user generated content (UGC): το περιεχόμενο της ιστοσελίδας, το περιβάλλον εμφάνισής της (συνδεσιμότητα με άλλες σελίδες και anchor text) και η δομή της, η οποία περιγράφεται από τα html tags (πχ ο τίτλος της σελίδας, οι λέξεις που παρουσιάζονται με bold κλπ). Η προτεινόμενη μεθοδολογία συνίσταται στην εφαρμογή τεχνικών ανάλυσης της ιστοσελίδας που σκοπό έχουν τον καθορισμό ενός συνόλου χαρακτηριστικών γνωρισμάτων της (features). Το σύνολο των γνωρισμάτων αυτών αποτελείται από τρία επιμέρους είδη χαρακτηριστικών γνωρισμάτων, τα γλωσσολογικά χαρακτηριστικά γνωρίσματα (textual features), τα χαρακτηριστικά γνωρίσματα δομής της ιστοσελίδας (Html tags), και τα χαρακτηριστικά γνωρίσματα απεικόνισης ή εμφάνισης της ιστοσελίδας (Visual and Visually Central Features). Από τα καθορισμένα χαρακτηριστικά θα επιλεγούν πειραματικά εκείνα, τα οποία θα συμμετάσχουν αποδοτικότερα στον αλγόριθμο προσδιορισμού για την ύπαρξη user generated text content σε μια ιστοσελίδα. Η αξιολόγηση των αποτελεσμάτων της προτεινόμενης μεθόδου θα πραγματοποιηθεί βάσει ενός συνόλου δεδομένων ελέγχου. Τα δεδομένα ελέγχου αποτελούνται από μια συλλογή ιστοσελίδων, για τις οποίες έχει γίνει έλεγχος για το αν περιέχουν user generated text content. Η διαδικασία αξιολόγησης συνίσταται στην σύγκριση των αποτελεσμάτων του αλγορίθμου που προτείνουμε με τα αποτελέσματα που έχουν παραχθεί από την επεξεργασία του συνόλου δεδομένων ελέγχου. Τα συμπεράσματα που θα προκύψουν μπορούν να χρησιμοποιηθούν για την περεταίρω βελτίωση του αλγορίθμου προσδιορισμού ύπαρξης user generated text content, καθώς και για την αξιοποίηση τους σε τεχνικές ανάλυσης και επεξεργασίας του user generated text content από ιστοσελίδες του Παγκόσμιου Ιστού. / Millions of people every day use the Web for a wide range of activities. The number of Internet users is continuously growing, as well as all the different activities that can be performed through websites and Internet services. Web users daily participate in various digital activities, delimiting in this way their digital "life." Each user can send an e-mail, communicate and establish relationships with other web users, visit websites in order to satisfy his information needs, or keep a personal profile in one or more social networking sites. At the same time, more and more web users use online shopping for their purchases, achieving direct connection of the market research by buying products or services, while the commentations and the views of other users for goods and services is another undoubted advantage of online shops. The users’ increasing activity has as result the continuous raising of the volume data, generated by users (user generated content - UGTC) in Web pages. On-line communities are growing in size and number, while simultaneously websites and web services offer users more and more options, in order to create, preserve and publish text produced by them. Result of the interaction between users and the website users and websites, is that a large part of the online information, in which the user come daily in contact, is produced by others and not by the creators of the website. The study of the characteristics of the content obtained by users is a key point in a series of searching fields. Typical examples are the studies within the field of mining opinion (opinion mining), which are based on the content of users to catch their opinions on a topic or product. Studies such as the above, are particularly useful in the development of modern commercial applications that can offer the consumer better information for his transactions. Other cases concern the analysis of the linguistic characteristics of textual data compiled by users. Also, the study of the content characteristics generated by users of the World Wide Web is particularly important in the study of the social web, as well as it can yield useful results for both the evolution in space and time, and further development providing users with new capabilities through new applications, which are developed. In any case, the Web content could theoretically be categorized in two categories: data of Web pages creators and the data generated by web users when interacting with them. The aim of this study is to examine whether it is feasible and with which way the automatic recognition of the text content on the Web produced by users. In this thesis, it will be identified characteristics that allow the automatic detection of textual data of users to a website and its separation from the content that has been produced by the creators of the website. During the planning and design of the proposed method it will initially be studied the inherent characteristics of different types of websites, which are indicative of the presence of these text content users. It will also be studied the usefulness of linguistic and visual features for recognition textual data users at the site, in order to separate it from the official content, that is from content creators. Generally in a website there are three sources of information that can be used during the process of identifying user generated content (UGC): website content, setting of development (connectivity with other pages and anchor text) and its structure, which is described by the html tags (eg page title, words presented in bold, etc). The proposed methodology is recommended in applying technical analysis website aimed at defining a part of attributes (features). All these attributes consist of three kinds of features, textual features, features of the site structure (Html tags), and imaging features or appearance of the website (Visual and Visually Central Features). From the defined features it will experimentally be selected those, which will efficiently participate in the identification algorithm for the existence user generated text content on a website. The evaluation results of the proposed method will be held considering specific audit data. The audit data consist of a collection of web pages, which have already been checked whether they contain user generated text content. The process evaluation reccommends comparing the results of the proposed algorithm with the results obtained from processing all audit data. The conclusions can be used to further improvement of the identification algorithm existence of user generated text content, as well as to exploit them in technical analysis and processing of user generated text content from Web pages.
125

A reference computational model to manage the semantics of learning environments using SWRL enabled OWL ontologies

Almami, Eiman January 2017 (has links)
This thesis proposes a reference model and its computational core to support the creation of software applications within educational environments, which address Differences In Learning (DiffInL) and are applicable to both learners and instructors. This work differs from others in that the strength of this model resides on the re-usable character of the reasoning mechanism enabled by the computational environment. The starting point is the definition of agreed learning goals that the learner needs to achieve. In turn, the reference model generates personalised, best-practice teaching and learning materials, suitable for achieving the individual’s learning goals. This reference model consists of MODEL and MANAGEMENT components. The MODEL components store the domain needed to create learners and instructional models, which are required for the creation of Learning Spaces (LeS). The MANAGEMENT compo- nent also manages the semantics stored in various model components in order to carry out the configuration of an LeS. The architecture of software applications generated from the reference model is illustrated and contains: Netbeans IDE 8.0.2, JavaServer Faces framework and OWL-API library. We tested this to generate teaching practices for Learning Difficulties (LDif) student. In order to prove the feasibility of creating a software application from the reference model, an example of a particular scenario in a specific educational setting for LDif Students has been shown. This proposed model has successfully proved its ability to address the needs of LDif Students through a corresponding novel and re-usable reasoning mechanism implemented in Web Ontology Language (OWL) and Semantic Web Rule Language (SWRL) computational environments. The reference model has shown its ability to integrate with different disciplines such as psychology, sociology and human-computer interactions. The main contribution to research is the creation of a novel reference computational model which addresses the needs of people with DiffInL. The strength of this model resides on the re-usable character of the reasoning mechanism enabled by the computational environment. The whole framework allows a unified implementation which takes into account classes, constraints, matching, and inference mechanisms for the complete configuration of an LeS. The suggested approach also differs from previous work in that it is personalised, and the applied reasoning rules are dynamic. Therefore this model can be constantly “tuned” according to the questions we may ask in such environments. Overall, the proposed reference model in this research offers a promising and feasible solution that can support current educational systems and benefit both learners and instructors. It also demonstrates the applicability of the latest technologies and would allow for future technologies to be incorporated, in order to enhance the model.
126

Design of multi-homing architecture for mobile hosts

Kiani, Adnan K. January 2009 (has links)
This thesis proposes a new multi-homing mobile architecture for future heterogeneous network environment. First, a new multi-homed mobile architecture called Multi Network Switching enabled Mobile IPv6 (MNS-MIP6) is proposed which enables a Mobile Node (MN) having multiple communication paths between itself and its Correspondent Node (CN) to take full advantage of being multi-homed. Multiple communication paths exist because MN, CN, or both are simultaneously attached to multiple access networks. A new sub layer is introduced within IP layer of the host’s protocol stack. A context is established between the MN and the CN. Through this context, additional IP addresses are exchanged between the two. Our MNS-MIP6 architecture allows one communication to smoothly switch from one interface/communication path to another. This switch remains transparent to other layers above IP. Second, to make communication more reliable in multi-homed mobile environments, a new failure detection and recovery mechanism called Mobile Reach ability Protocol (M-REAP) is designed within the proposed MNS-MIP6 architecture. The analysis shows that our new mechanism makes communication more reliable than the existing failure detection and recovery procedures in multi-homed mobile environments. Third, a new network selection mechanism is introduced in the proposed architecture which enables a multi-homed MN to choose the network best suited for particular application traffic. A Policy Engine is defined which takes parameters from iv the available networks, compares them according to application profiles and user preferences, and chooses the best network. The results show that in multi-homed mobile environment, load can be shared among different networks/interfaces through our proposed load sharing mechanism. Fourth, a seamless handover procedure is introduced in the system which enables multi-homed MN to seamlessly roam in a heterogeneous network environment. Layer 2 triggers are defined which assist in handover process. When Signal to Noise Ratio (SNR) on a currently used active interface becomes low, a switch is made to a different active interface. We show through mathematical and simulation analysis that our proposed scheme outperforms the existing popular handover management enhancement scheme in MIPv6 networks namely Fast Handover for MIPv6 (FMIPv6). Finally, a mechanism is introduced to allow legacy hosts to communicate with MNS-MIP6 MNs and gain the benefits of reliability, load sharing and seamless handover. The mechanism involves introducing middle boxes in CN’s network. These boxes are called Proxy-MNS boxes. Context is established between the middle boxes and a multi-homed MN.
127

Optimising agent behaviours and game parameters to meet designers' objectives

Sombat, Wichit January 2016 (has links)
The game industry is one of the biggest economic sector in the entertainment business whose product rely heavily on the quality of the interactivity to stay relevant. Non-Player Character (NPC) is the main mechanic used for this purpose and it has to be optimised for its designated behaviour. The development process iteratively circulates the results among game designers, game AI developers, and game testers. Automatic optimisation of NPCs to designer’s objective will increase the speed of each iteration, and reduce the overall production time. Previous attempts used entropy evaluation metrics which are difficult to translate the terms to the optimising game and a slight misinterpretation often leads to incorrect measurement. This thesis proposes an alternative method which evaluates generated game data with reference result from the testers. The thesis first presents a reliable way to extract information for NPCs classification called Relative Region Feature (RRF). RRF provides an excellent data compression method, a way to effectively classify, and a way to optimise objective-oriented adaptive NPCs. The formalised optimisation is also proved to work on classifying player skill with the reference hall-of-fame scores. The demonstration are done on the on-line competition version of Ms PacMan. The generated games from participating entries provide challenging optimising problems for various evolutionary optimisers. The thesis developed modified version of CMA-ES and PSO to effectively tackle the problems. It also demonstrates the adaptivity of MCTS NPC which uses the evaluation method. This NPC performs reasonably well given adequate resources and no reference NPC is required.
128

Virtual belonging in Web 2.0 projects, and its association with online behaviour

Mohagheghi-Fard, Hamed January 2016 (has links)
The behavioural changes which result from expansion and popularity of online platforms can be observed in day to day activities such as buying tickets, ordering food, and communicating with friends and family. From a technical perspective these platforms utilise similar technologies and infrastructures (e.g. the Internet, servers, and databases), however there are numerous conceptual and functional differences which can be identified between them. This research is associated with specific types of online platforms which are commonly referred to as Web 2.0 platforms. Popular examples of such platforms include Wikipedia, YouTube, and Facebook. These platforms rely upon user generated content and benefit from users’ collaborative efforts. Users’ efforts can be considered as a resource, and a possible objective in associated projects could be to optimise the outcome of such efforts. In many cases, this can be accomplished by influencing users’ Online Behaviour (OB). In Web 2.0 platforms, OB can be influenced by various factors, and among them Sense of Belonging (SB) has been highlighted by many previous researchers as a significant factor. While the literature suggests a significant association between SB and OB in Web 2.0 platforms, this research identifies a gap in the existing literature in regards to SB due to its qualitative nature and the dependency of associated investigations on human interaction. In addition to the subjective nature of such investigations, other practical challenges can be associated with measuring SB in Web 2.0 projects. Firstly, considering the demographical, cultural and lingual diversity of users in many Web 2.0 platforms, such investigations can be complex and therefore expensive. Secondly, investigating SB cannot be performed in real time which can result in extended timelines for gathering data. Thirdly, in early stages of Web 2.0 projects in which the concept is being defined and the platform is being developed, the users might not yet exist, and hence investigating their SB and OB may not be an option. Finally, without an existing platform and community, there is nothing to belong to, and hence SB might not exist to measure or investigate. As an attempt to fill the identified gap and provide practical solutions for highlighted challenges in Web 2.0 projects, this research introduces a new factor, and investigates its association with OB. Virtual Belonging (VB) is proposed as a factor built upon suggested elements for SB, and based on a new perspective towards Web 2.0 features. Furthermore, in any Web 2.0 platform, VB can be quantitatively defined, compared, and analysed. This research suggests three dimensions for VB, and their associations with OB are hypothesised. To test the research hypotheses, a Web 2.0 platform was developed in association with a student poetry competition in the University of Manchester, and it was used as the vehicle for an experiment (available at epsPoetry.com). The platform includes a bespoke Tracking System that has been specifically designed and developed to assist with this investigation. Also, Ethical Approval was obtained from the University’s Ethics Committees for the use of the data collected by the Tracking System from the individuals who have agreed to take part in this research and used the platform between March 2013 and July 2014.VB’s dimensions are presented in this research as a hierarchy with three distinct levels, namely Inclusion, Involvement, and Influence. The results show a significant association between every dimension of users’ VB and their OB. On this basis, this research proposes VB as a predictive factor for OB in Web 2.0 projects. The findings can provide practical guidance and directions for Web 2.0 project managers, particularly in the early stages of such projects in which the existence of users and their interactivity with the platform can only be an assumption, and hence obtaining qualitative data (such as SB) may not be an option.
129

Widening stakeholder involvement : exploiting interactive 3D visualisation and protocol buffers in geo-computing

McCreadie, Christopher Andrew January 2014 (has links)
Land use change has an impact on regional sustainability which can be assessed using social, economic and environmental indicators. Stakeholder engagement tools provide a platform that can demonstrate the possible future impacts land use change may have to better inform stakeholder groups of the impact of policy changes or plausible climatic variations. To date some engagement tools are difficult to use or understand and lack user interaction whilst other tools demonstrate model environments with a tightly coupled user interface, resulting in poor performance. The research and development described herein relates to the development and testing of a visualisation engine for rendering the output of an Agent Based Model (ABM) as a 3D Virtual Environment via a loosely-coupled data driven communications protocol called Protocol Buffers. The tool, named Rural Sustainability Visualisation Tool (R.S.V.T) is primarily aimed to enhance nonexpert knowledge and understanding of the effects of land use change, driven by farmer decision making, on the sustainability of a region. Communication protocols are evaluated and Protocol Buffers, a binarybased communications protocol is selected, based on speed of object serialization and data transfer, to pass message from the ABM to the 3D Virtual Environment. Early comparative testing of R.S.V.T and its 2D counterpart RepastS shows R.S.V.T and its loosely-coupled approach offers an increase in performance when rendering land use scenes. The flexibility of Protocol Buffer’s and MongoDB are also shown to have positive performance implications for storing and running of loosely-coupled model simulations. A 3D graphics Application Programming Interface (API), commonly used in the development of computer games technology is selected to develop the Virtual Environment. Multiple visualisation methods, designed to enhance stakeholder engagement and understanding, are developed and tested to determine their suitability in both user preference and information retrieval. The application of a prototype is demonstrated using a case study based in the Lunan catchment in Scotland, which has water quality and biodiversity issues due to intense agriculture. The region is modelled using three scenario storylines that broadly describe plausible futures. Business as Might Be Usual (BAMBU), Growth Applied Strategy (GRAS) and the Sustainable European Development Goal (SEDG) are the applied scenarios. The performance of the tool is assessed and it is found that R.S.V.T can run faster than its 2D equivalent when loosely coupled with a 3D Virtual Environment. The 3D Virtual Environment and its associated visualisation methods are assessed using non-expert stakeholder groups and it is shown that 3D ABM output is generally preferred to 2D ABM output. Insights are also gained into the most appropriate visualisation techniques for agricultural landscapes. Finally, the benefit of taking a loosely-coupled approach to the visualisation of model data is demonstrated through the performance of Protocol Buffers during testing, showing it is capable of transferring large amounts of model data to a bespoke visual front-end.
130

SIGA3D : modélisation, échange et visualisation d'objets 3D du bâtiment et d'objets urbains géoréférencés ; application aux IFC pour la gestion technique de patrimoine immobilier et urbain / SIGA3D : modeling, exchange and visualization of 3D building objects and urban georeferenced objects. Application to IFC for building and urban facility management

Mignard, Clément 13 November 2012 (has links)
Cette thèse définit une nouvelle approche de gestion technique de biens immobiliers et urbains. Pour cela, un processus de production et de gestion de l’information du bâtiment, de son environnement proche et des objets urbains est défini. Il permet de gérer ces objets tout au long de leur cycle de vie, au sein d’un concept appelé Urban Facility Management, ou gestion technique de patrimoine urbain. Cette technologie s’appuie sur un Modèle d’Information Urbain qui permet de modéliser dans une ontologie dynamique et évolutive toute l’information de la ville et du bâtiment. Un mécanisme de niveaux de détail géométrico-contextuels a par ailleurs été définit afin de supporter la montée en charge d’un tel système. En effet, le nombre d’objets à gérer dans une scène par rapport à un système de modélisation du bâtiment est bien supérieur, tout comme la superficie de l’information à traiter. Aussi, les niveaux de détail contextuels permettent d’optimiser la scène en fonction de critères sémantiques.La proposition que nous avons faite se base sur une architecture dérivée des travaux en systèmes hypermédia adaptatifs. Elle est composée de six couches permettant de résoudre les problématiques de manière systémique : une couche de connexion aux sources de données, une couche d’import de ces données dans le système, une couche sémantique, une couche de contextualisation, une couche de connexion et une couche d’interface avec l’utilisateur. Cette architecture autorise la définition d’un workflow que nous avons décomposé au sein d’une architecture de processus. Celui-ci décrit la manière d’acquérir des données à la fois de sources SIG mais aussi IFC ou plus généralement CAO. Ces données sont importées dans le modèle d’information de la ville au sein d’une ontologie définie à l’aide d’outils présents dans la couche sémantique. Ces outils consistent en un ensemble d’opérateurs permettant de définir des concepts, relations et énoncés logiques. Ils sont couplés à un mécanisme de contextes locaux qui permet de définir des niveaux de détail contextuels au sein de l’ontologie. Associé à des représentations graphiques provenant des sources données, il est ainsi possible d’associer plusieurs représentations géométriques, 2D ou 3D, à un objet de notre base de connaissance, et de choisir le modèle à appliquer en fonction de critères sémantiques. La couche de gestion du contexte apporte des informations contextuelles au niveau des modèles de données grâce à un mécanisme basé sur les named graphs. Une fois l’ontologie mise en place, les données peuvent être exploitées par l’intermédiaire d’un moteur graphique que nous avons développé et qui gère l’information contextuelle et les niveaux de détail.Cette architecture de processus a été implémentée et adaptée sur la plateforme Active3D. Une partie des travaux de recherche a consisté à adapter l’architecture formelle du modèle d’information urbain à l’architecture existante afin de répondre aux contraintes industrielles du projet et aux critères de performances requis. La dernière partie de cette thèse présente les développements techniques nécessaires à la réalisation de ces objectifs / This thesis defines a new approach in urban and building facility management. A production and information management process of the building, its immediate environment and urban objects has been defined. It allows to manage these objects throughout their life cycle, in a concept called Urban Facility Management. This technology relies on an Urban Information Model to model all the information of cities and buildings in a dynamic and evolutive ontology. A mechanism for geometric and semantic levels of detail has also been defined to support the scalability of such a system. Indeed, the number of objects to be managed in a scene, compared to a building modeling system, is much higher, as the area of information processing. Also, contextual levels of detail optimize the scene according to semantic criteria.The proposal we made is based on an architecture derived from work in adaptive hypermedia systems. It consists of six layers that aim at solving problems in a systemic form: a connecting layer to data sources, a layer to import these data into the system, a semantic layer, a level of contextualization, a connection layer and an interface layer with the user. This architecture allows the definition of a workflow that we decomposed in an architecture of processes. This one describes how to acquire data from both GIS sources and IFC, but also from CAD in general. Data are then imported into the city information model into an ontology defined using tools from the semantic layer. These tools are composed of a set of operators that aim at defining concepts, relations and logical statements. They are coupled to a mechanism that allows the definition of local contexts used to express contextual levels of details within the ontology. Associated with graphical representations issued from diverse data sources, it become possible to combine several geometric representations, 2D or 3D, to an object of the knowledge base, and choose the representation to be displayed according to semantic criteria. The layer for context management provides contextual information on global data models through a mechanism based on named graphs. Once the ontology is developed, data can be exploited via a graphical engine that has been specially developed and that manages contextual information and levels of details.This architecture of processes has been implemented and adapted to the platform Active3D. Part of the research has been to adapt the formal architecture of the urban information model to the existing architecture. The goal was to provide a solution to the industrial constraints of the project and required performance criteria. The last part of this thesis therefore presents the technical developments necessary to achieve these goals

Page generated in 0.0289 seconds