• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Voice over application-level multicast

Blundell, Nick January 2005 (has links)
No description available.
2

Improving asynchronous messaging and path finding in the OpenPGP Web of Trust

Tipper, Paul January 2008 (has links)
This thesis seeks to examine the failures of the current asynchronous messaging systems upon which more and more of our lives seem to depend. It also examines current work with OpenPGP, and the extensions thereof. Two strands of thesis were created, firstly reengineering the SMTP protocol and associated technologies to attempt to increase its efficency, flexibility and security. Secondly an attempt to create an efficently searchable layer above the OpenPGP Web of Trust, assisting programs in locating paths between keys which increases the usefulness of the OpenPGP trust model. These two strands are combined to provide a proof of concept system that delivers mails in optional chunks with TCP connections secured by OpenPGP certificates.
3

Secure VoIP performance measurement

Saad, Amna January 2013 (has links)
This project presents a mechanism for instrumentation of secure VoIP calls. The experiments were run under different network conditions and security systems. VoIP services such as Google Talk, Express Talk and Skype were under test. The project allowed analysis of the voice quality of the VoIP services based on the Mean Opinion Score (MOS) values generated by Perceptual valuation of Speech Quality (PESQ). The quality of the audio streams produced were subjected to end-to-end delay, jitter, packet loss and extra processing in the networking hardware and end devices due to Internetworking Layer security or Transport Layer security implementations. The MOS values were mapped to Perceptual Evaluation of Speech Quality for wideband (PESQ-WB) scores. From these PESQ-WB scores, the graphs of the mean of 10 runs and box and whisker plots for each parameter were drawn. Analysis on the graphs was performed in order to deduce the quality of each VoIP service. The E-model was used to predict the network readiness and Common vulnerability Scoring System (CVSS) was used to predict the network vulnerabilities. The project also provided the mechanism to measure the throughput for each test case. The overall performance of each VoIP service was determined by PESQ-WB scores, CVSS scores and the throughput. The experiment demonstrated the relationship among VoIP performance, VoIP security and VoIP service type. The experiment also suggested that, when compared to an unsecure IPIP tunnel, Internetworking Layer security like IPSec ESP or Transport Layer security like OpenVPN TLS would improve a VoIP security by reducing the vulnerabilities of the media part of the VoIP signal. Morever, adding a security layer has little impact on the VoIP voice quality.
4

On enhancing recommender systems by utilizing general social networks combined with users goals and contextual awareness / Renforcement des systèmes de recommandation à l'aide de réseaux sociaux et en combinant les objectifs et les préférences des usagers et la prise en compte du contexte

Chamsi Abu Quba, Rana 18 May 2015 (has links)
Nous sommes amenés chaque jour à prendre un nombre important de décisions : quel nouveau livre lire ? Quel film regarder ce soir ou où aller ce week-end ? De plus en plus, nous utilisons les ressources en ligne pour nous aider à prendre des décisions. Comme la prise de décision est assistée par le domaine en ligne, l'utilisation de systèmes de recommandation est devenue essentielle dans la vie quotidienne. Dans le même temps, les réseaux sociaux sont devenus une partie indispensable de ce processus ; partout dans le monde on les utilise quotidiennement pour récupérer des données de personne et de sources d'information en qui on a confiance. Quand les internautes passent du temps sur les réseaux sociaux, ils laissent de précieuses informations sur eux-mêmes. Cela a attiré l'attention des chercheurs et les professionnels de nombreux domaines académiques et commerciaux. Comme le domaine de la recommandation est un domaine qui a assisté à des changements de grande ampleur attribuable à des réseaux sociaux, il y a un intérêt évident pour les systèmes de recommandation sociale. Cependant, dans la littérature de ce domaine, nous avons constaté que de nombreux systèmes de recommandation sociale ont été évalués en utilisant des réseaux sociaux spécialisés comme Epinions, Flixter et d'autres types des réseaux sociaux de recommandation, qui tendent à être composées d'utilisateurs, d'articles, de notes et de relations. Ces solutions ne peuvent pas être étendues directement à des réseaux sociaux à usage général (GPSNs) comme Facebook et Twitter, qui sont des réseaux sociaux ouverts où les utilisateurs peuvent réaliser une variété d'actions utiles pour l'aide à la recommandation / We are surrounded by decisions to take, what book to read next? What film to watch this night and in the week-end? As the number of items became tremendous the use of recommendation systems became essential in daily life. At the same time social network become indispensable in people’s daily lives; people from different countries and age groups use them on a daily basis. While people are spending time on social networks, they are leaving valuable information about them attracting researchers’ attention. Recommendation is one domain that has been affected by the social networks widespread; the result is the social recommenders’ studies. However, in the literature we’ve found that most of the social recommenders were evaluated over Epinions, flixter and other type of domains based recommender social networks, which are composed of (users, items, ratings and relations). The proposed solutions can’t be extended directly to General Purpose Social Networks (GPSN) like Facebook and Twitter which are open social networks where users can do a variety of useful actions that can be useful for recommendation, but as they can’t rate items, these information are not possible to be used in recommender systems! Moreover, evaluations are based on the known metrics like MAE, and RMSE. This can’t guarantee the satisfaction of users, neither the good quality of recommendation
5

Guiding principles for adopting and promoting the use of Enterprise 2.0 collaboration technologies within the enterprise environment

Louw, Robert Leonard 11 1900 (has links)
Although Enterprise 2.0 collaboration technology toolsets present enterprises with a significant amount of business benefits, such as improved enterprise communication, collaboration, creativity and innovation; nevertheless, enterprises are still facing tremendous challenges in promoting and sustaining end-user adoption. The challenges associated with the adoption and promotion of Enterprise 2.0 collaboration technologies can often be linked to a resistance to change, a closed culture environment, and concerns pertaining to information security, technology complexity, as well as an unclear enterprise collaboration technology strategic roadmap. The primary objective of this study was to determine how generic guiding principles could facilitate the adoption and promotion of Enterprise 2.0 collaboration technologies within an enterprise environment. In support of the primary objective, our sub-objectives were to identify the challenges that enterprises, as well as enterprise end-users experience when adopting and promoting Enterprise 2.0 collaboration technologies, as well as to explore and describe the critical success factors for adopting and promoting Enterprise 2.0 collaboration technologies. A case study technique was used to gather the data from a large South African information and communications technology (ICT) enterprise operating within the retail sector based in Johannesburg. Enterprise end-users that formed part of the case study were selected by using purposive sampling. The end-users were selected, based on their experience, project sponsorship, as well as the project-participation roles performed in the adoption of their Enterprise 2.0 collaboration technology toolset. Semi-structured interviews were conducted on three (3) end-users, comprising a business analyst, a technology specialists and a senior executive. Furthermore, administered questionnaires were completed by five (5) end-users, who actively use their Enterprise 2.0 collaboration technology toolset on a daily basis, performing operational, as well as business administrative tasks. This study used a qualitative research approach. Since validity forms a vital role in any qualitative study, this research study incorporated three validity approaches, including: the theoretical, internal and external approaches. The theoretical and external validity approaches were used to validate the identified guiding principles through a systematic review of the existing literature, as well as reviews and comments obtained from two subject-matter experts representing independent enterprises. Furthermore, internal validity was employed to complement and substantiate the research findings, consisting of project documents and reports made available by the enterprise. The main contribution in this research study is a set of ten (10) guiding principles that could be applied by enterprises either planning to, or in the process of adopting an Enterprise 2.0 collaboration technology toolset. Furthermore, the guiding principles could assist enterprises in formulating a Enterprise 2.0 collaboration technology adoption strategy, incorporating key adoption elements, including commitment, promotion and sustainability. / Computing
6

Guiding principles for adopting and promoting the use of Enterprise 2.0 collaboration technologies within the enterprise environment

Louw, Robert Leonard 11 1900 (has links)
Although Enterprise 2.0 collaboration technology toolsets present enterprises with a significant amount of business benefits, such as improved enterprise communication, collaboration, creativity and innovation; nevertheless, enterprises are still facing tremendous challenges in promoting and sustaining end-user adoption. The challenges associated with the adoption and promotion of Enterprise 2.0 collaboration technologies can often be linked to a resistance to change, a closed culture environment, and concerns pertaining to information security, technology complexity, as well as an unclear enterprise collaboration technology strategic roadmap. The primary objective of this study was to determine how generic guiding principles could facilitate the adoption and promotion of Enterprise 2.0 collaboration technologies within an enterprise environment. In support of the primary objective, our sub-objectives were to identify the challenges that enterprises, as well as enterprise end-users experience when adopting and promoting Enterprise 2.0 collaboration technologies, as well as to explore and describe the critical success factors for adopting and promoting Enterprise 2.0 collaboration technologies. A case study technique was used to gather the data from a large South African information and communications technology (ICT) enterprise operating within the retail sector based in Johannesburg. Enterprise end-users that formed part of the case study were selected by using purposive sampling. The end-users were selected, based on their experience, project sponsorship, as well as the project-participation roles performed in the adoption of their Enterprise 2.0 collaboration technology toolset. Semi-structured interviews were conducted on three (3) end-users, comprising a business analyst, a technology specialists and a senior executive. Furthermore, administered questionnaires were completed by five (5) end-users, who actively use their Enterprise 2.0 collaboration technology toolset on a daily basis, performing operational, as well as business administrative tasks. This study used a qualitative research approach. Since validity forms a vital role in any qualitative study, this research study incorporated three validity approaches, including: the theoretical, internal and external approaches. The theoretical and external validity approaches were used to validate the identified guiding principles through a systematic review of the existing literature, as well as reviews and comments obtained from two subject-matter experts representing independent enterprises. Furthermore, internal validity was employed to complement and substantiate the research findings, consisting of project documents and reports made available by the enterprise. The main contribution in this research study is a set of ten (10) guiding principles that could be applied by enterprises either planning to, or in the process of adopting an Enterprise 2.0 collaboration technology toolset. Furthermore, the guiding principles could assist enterprises in formulating a Enterprise 2.0 collaboration technology adoption strategy, incorporating key adoption elements, including commitment, promotion and sustainability. / Computing
7

Πρωτόκολλα πραγματικού χρόνου για τη μετάδοση πληροφορίας πολυμέσων με δυνατότητα προσαρμογής σε δίκτυα μη εγγυημένης ποιότητας / Adaptive real-time protocols for multimedia transmission over best-effort networks

Κιουμουρτζής, Γεώργιος 11 January 2011 (has links)
Οι εφαρμογές πολυμέσων έχουν αποκτήσει τα τελευταία χρόνια μία αυξανόμενη ζήτηση από τους χρήστες γενικά του Διαδικτύου καθώς προσφέρουν νέες και ποικιλόμορφες δυνατότητες ανταλλαγής πληροφοριών εικόνας και ήχου. Όμως οι εφαρμογές αυτές υπόκεινται σε περιορισμούς που έχουν να κάνουν κυρίως με τη φύση τους και χαρακτηρίζονται από τις υψηλές απαιτήσεις σε ρυθμό μετάδοσης δεδομένων (bandwidth-consuming applications) και την ευαισθησία τους στις καθυστερήσεις που παρουσιάζονται κατά τη μετάδοση των πακέτων από τον αποστολέα στο παραλήπτη (delay-sensitive applications). Από την άλλη μεριά οι εφαρμογές αυτές φέρεται ότι είναι λιγότερο ευαίσθητες στις απώλειες των πακέτων (packet-loss tolerant applications). Το ζητούμενο όμως με τις εφαρμογές πολυμέσων, πέρα από το εύρος των υπηρεσιών τις οποίες προσφέρουν, είναι και η παρεχόμενη ποιότητα των υπηρεσιών (Quality of Service, QOS) στο τελικό χρήστη. Η ποιότητα αυτή των υπηρεσιών συνδέεται άμεσα με τα προαναφερόμενα χαρακτηριστικά των εφαρμογών πολυμέσων. Η μέχρι τώρα προσέγγιση από την ερευνητική κοινότητα αλλά και τις εταιρείες παροχής υπηρεσιών Διαδικτύου (Internet Service Providers), σε ότι αφορά την εξασφάλιση της ποιότητας υπηρεσιών, έχει εστιασθεί είτε στην επιμέρους βελτιστοποίηση της απόδοσης των πρωτοκόλλων μετάδοσης, είτε στην εγκατάσταση επιπλέον εξοπλισμού για τη δημιουργία δικτύων διανομής πολυμέσων (Content Distribution Networks, CDNs) που τοποθετούνται συνήθως κοντά στον τελικό χρήστη. Επιπρόσθετα η αυξανόμενη προσπάθεια της ερευνητικής κοινότητας με σκοπό την αύξηση της ποιότητας υπηρεσιών προσέφερε νέες καινοτόμες λύσεις με την μορφή των υπηρεσιών-αρχιτεκτονικών όπως οι Ολοκληρωμένες Υπηρεσίες (Integrated services, Intserv) και οι Διαφοροποιημένες Υπηρεσίες (Differentiated Services, Diffserv) οι οποίες φιλοδοξούν να προσφέρουν εγγυήσεις ποιότητας υπηρεσιών σε συγκεκριμένες ομάδες χρηστών. Όμως και οι δύο αυτές αρχιτεκτονικές δεν κατάφεραν μέχρι τώρα να αποτελέσουν μια ολοκληρωμένη λύση για τη παροχή εγγυήσεων ποιότητας υπηρεσιών στο χρήστη λόγω των μεγάλων δυσκολιών στην εφαρμογή τους που έχουν να κάνουν τόσο με χρηματοοικονομικά κριτήρια όσο και με τη ίδια τη δομή του Διαδικτύου. Έτσι βλέπουμε ότι παρόλη τη πρόοδο που έχει γίνει μέχρι σήμερα στη τεχνολογία των δικτύων η παροχή ποιότητας υπηρεσίας στο Διαδίκτυο από άκρο σε άκρο δεν είναι ακόμη στις μέρες μας εφικτή με αποτέλεσμα οι υπηρεσίες μετάδοσης πολυμέσων στο Διαδίκτυο – π.χ “youtube” – να επηρεάζονται σημαντικά από τις όποιες μεταβολές στη κατάσταση του δικτύου. Προς το σκοπό αυτό η ερευνητική κοινότητα έχει στραφεί στη μελέτη μηχανισμών οι οποίοι θα είναι να θέση να προσαρμόζουν το ρυθμό μετάδοσης της πολυμεσικής πληροφορίας, ανάλογα με τις εκάστοτε συνθήκες του δικτύου, έτσι ώστε να προσφέρουν τη μέγιστη δυνατή ποιότητα υπηρεσίας στο τελικό χρήστη. Η προσπάθεια αυτή μπορεί να κατηγοριοποιηθεί σε δύο μεγάλες κατηγορίες ανάλογα με το τρόπο δρομολόγησης της πολυμεσικής πληροφορίας, όπως παρακάτω: • Μηχανισμοί προσαρμογής για unicast μετάδοση: Σε αυτή τη περίπτωση οι μηχανισμοί προσαρμογής προσαρμόζουν το ρυθμό μετάδοσης της πληροφορίας από ένα σημείο (αποστολέας) προς ένα σημείο (παραλήπτης). • Μηχανισμοί προσαρμογής εκπομπής πολλαπλής διανομής (multicast): Στη περίπτωση αυτή οι μηχανισμοί προσαρμογής προσαρμόζουν το ρυθμό μετάδοσης της πληροφορίας που λαμβάνει χώρα από ένα σημείο (αποστολέας) προς πολλά σημεία (παραλήπτες). Σε ότι αφορά τη unicast μετάδοση την επικρατέστερη πρόταση αποτελεί ο μηχανισμός ελέγχου συμφόρησης με την ονομασία TCP Friendly Rate Control (TFRC) που έχει γίνει αποδεκτός ως διεθνές πρότυπο από τη Internet Engineering Task Force (IETF). Στη περιοχή της multicast εκπομπής ο μηχανισμός TCP-friendly Multicast Congestion Control (TFMCC) έχει γίνει επίσης αποδεκτός ως πειραματικό πρότυπο από την IETF. Παρόλα αυτά όμως εργαστηριακές μελέτες και πειράματα έχουν δείξει ότι τόσο ο μηχανισμός TFRC όσο και ο TFMCC δεν είναι και οι πλέον κατάλληλοι μηχανισμοί προσαρμογής για τη μετάδοση πολυμέσων. Τα κυριότερα προβλήματα αφορούν στη “φιλικότητα” των μηχανισμών αυτών προς το πρωτόκολλο Transmission Control Protocol (TCP) καθώς και στις απότομες διακυμάνσεις του ρυθμού μετάδοσης. Ιδιαίτερα οι απότομες διακυμάνσεις του ρυθμού μετάδοσης είναι ένα στοιχείο μη επιθυμητό από τις εφαρμογές πολυμέσων και ιδιαίτερα από τις εφαρμογές πολυμέσων πραγματικού χρόνου. Στη περιοχή των ασυρμάτων δικτύων τα προβλήματα τα οποία αντιμετωπίζονται κατά τη μετάδοση των πολυμέσων δεν έχουν τόσο άμεση σχέση με τη συμφόρηση του δικτύου (αυτή παρατηρείται κυρίως στα ενσύρματα δίκτυα), όσο με τις απώλειες των πακέτων που είναι ένα άμεσο αποτέλεσμα του μέσου διάδοσης. Η μέχρι τώρα προσέγγιση αφορά στην επιμέρους βελτιστοποίηση των διαφόρων πρωτοκόλλων των στρωμάτων του OSI έτσι ώστε να μειωθούν τα προβλήματα διάδοσης και να ελαχιστοποιηθούν οι απώλειες πακέτων και οι καθυστερήσεις από τον αποστολέα στο παραλήπτη. Κατά τα τελευταία χρόνια όμως κερδίζει όλο και περισσότερο έδαφος μια διαφορετική προσέγγιση η οποία έχει επικρατήσει να ονομάζεται διεθνώς ως “cross-layer optimization-adaptation”. Κατά τη προσέγγιση αυτή διαφαίνεται ότι θα μπορούσαμε να πετύχουμε τη βελτιστοποίηση της παρεχόμενης ποιότητας στις εφαρμογές πολυμέσων μέσω κάποιων μηχανισμών προσαρμογής, που θα εμπλέκουν περισσότερα του ενός εκ των στρωμάτων του OSI στις τρέχουσες συνθήκες του δικτύου. Η μεθοδολογία, οι προκλήσεις, οι περιορισμοί καθώς και οι εφαρμογές της διαστρωματικής (cross layer) προσαρμογής αποτελούν ένα ανοικτό ερευνητικό πεδίο το οποίο βρίσκεται αυτή τη στιγμή σε εξέλιξη. Σκοπός της παρούσας Διδακτορικής Διατριβής είναι καταρχήν η μελέτη των υπαρχόντων μηχανισμών ελέγχου συμφόρησης που αφορούν τα ενσύρματα δίκτυα μη εγγυημένης ποιότητας, όπως το Διαδίκτυο. Προς τη κατεύθυνση αυτή αξιολογούνται αρχικά οι υπάρχοντες μηχανισμοί ελέγχου συμφόρησης και διαπιστώνονται τα κυριότερα προβλήματα τα οποία σχετίζονται με τη ποιότητα υπηρεσιών. Η αξιολόγηση γίνεται με βάση τα κριτήρια που αφορούν τόσο στη φιλικότητα των μηχανισμών αυτών προς το TCP όσο και στα κριτήρια που αφορούν τη ποιότητα υπηρεσιών των εφαρμογών πολυμέσων. Η αξιολόγηση αυτή μας οδηγεί στο σχεδιασμό νέων πρωτοκόλλων τα οποία υπόσχονται υψηλότερη φιλικότητα προς το TCP και καλύτερη ποιότητα υπηρεσιών. Ένα σημαντικό στοιχείο που διαφοροποιεί τα πρωτόκολλα αυτά από τις άλλες προσεγγίσεις είναι η ομαλή (smooth) συμπεριφορά κατά την οποία ελαχιστοποιούνται οι απότομες μεταβολές του ρυθμού μετάδοσης, που είναι μη επιθυμητές από τις εφαρμογές πολυμέσων, διατηρώντας παράλληλα ένα υψηλό ρυθμό απόκρισης στις απότομες μεταβολές των συνθηκών του δικτύου. Ένα δεύτερο σημαντικό στοιχείο της εργασίας αυτής είναι οι προσθήκες στις βιβλιοθήκες του προσομοιωτή ns-2 οι οποίες είναι ήδη αντικείμενο εκμετάλλευσης από άλλους ερευνητές. Για το σκοπό αυτό τα νέα πρωτόκολλα καθορίζονται πλήρως και ενσωματώνονται στις βιβλιοθήκες του προσομοιωτή ns-2 έτσι ώστε να είναι διαθέσιμα στην ερευνητική κοινότητα ως μέρος του προσομοιωτή, για περαιτέρω μελέτη και αξιολόγηση. Επεκτείνονται παράλληλα υπάρχοντα ερευνητικά εργαλεία προσομοιώσεων τα οποία επιτρέπουν την ανάλυση και την αξιολόγηση υπαρχόντων και μελλοντικών μηχανισμών προσαρμογής με βάση κριτήρια ποιότητας που αφορούν ειδικά τις εφαρμογές πολυμέσων, πλέον των “κλασσικών” κριτηρίων που σχετίζονται με μετρικά δικτύων. Σε ότι αφορά στα ασύρματα δίκτυα μελετάται η διαστρωματική προσαρμογή και εάν και κατά πόσο είναι δυνατό να επιτευχθεί η αύξηση της ποιότητας της παρεχόμενης υπηρεσίας μέσα από την εφαρμογή μια τέτοιας σχεδίασης. Μελετώνται οι διάφοροι τρόποι και μεθοδολογίες σχεδίασης μιας διαστρωματικής προσαρμογής και προτείνεται ένα νέο πλαίσιο με το οποίο είναι δυνατό να αυξήσουμε τη ποιότητα υπηρεσίας σε υβριδικά δίκτυα, που αποτελούνται τόσο από ενσύρματους όσο και από ασύρματους χρήστες. / Multimedia applications have gained in recent years an increasing demand from Internet users as they offer new opportunities and diverse multimedia services. These applications, however, are subject to restrictions which mainly have to do with its nature and are characterized by high requirements of the transmission rates (bandwidth-consuming applications) and their sensitivity to delays in the transmission of packets by the consignor to consignee (delay-sensitive applications). On the other hand, allegedly these applications are less sensitive to packet losses (packet-loss tolerant applications). The issue, however, with multimedia applications, except for the scope of the services which offer, is the Quality of Services (QoS) that is offered to the end user. This quality of services is directly linked to the above characteristics of multimedia applications. The approach so far by the research community and also the Internet Service Providers (ISPs), as regards ensuring the quality of service, has focused either to individually optimizing the efficiency of transmission protocols, or in the installation of additional equipment (servers) for the establishment of distribution networks (Content Distribution Networks, CDNS) which are normally positioned close to the final user. In addition, the growing effort of the research community with a view to increasing the quality of service offered new innovative solutions in the form of services-architectures like the Integrated Services (Intserv) and Differentiated Services (Diffserv ) which aspire to offer guarantees of quality of services in specific user groups. But these two architectures failed until now to become the solution for the provision of guarantees of quality of services to the end user due to difficulties in applying them which have to do with financial criteria and the structure of the Internet itself. Therefore, we can see that despite the progress made so far in networks technology the provision of QoS across the Internet is not still feasible with the result that multimedia services via the Internet (for example “YouTube”) are significantly affected by the changes of the network conditions. To this course, the research community has directed to the study of mechanisms which will be able to adjust the transmission rate of multimedia data, according to the conditions of the network, so as to offer the best possible quality of service to the end user. This effort could be classified into two broad categories, according to the way the multimedia information is routed, as follows: • Adaptation mechanisms for unicast transmission: In this case the adaptation mechanisms regulate the transmission rate between the sender and the receiver in a unicast connection. • Adaptation mechanisms for multicast transmission: In this case the adaptation mechanisms regulate the transmission rate between the sender and a group of receivers. Regarding the unicast transmission the predominant proposal is the congestion control mechanism that is termed as the “TCP-friendly Rate Control (TFRC) and has been accepted as an international standard by the Internet Engineering Task Force (IETF). In the area of multicast transmission the TCP-friendly Multicast Congestion Control (TFMCC) has also become acceptable as an experimental standard from IETF. Nevertheless, laboratory studies and experiments have shown that both TFRC and TFMCC are not the most suitable adaptation mechanisms for multimedia transmission. The main problems have to do with its friendliness towards the Transmission Connection Protocol (TCP) and the sudden fluctuations in the transmission. rate. These sharp variations of the transmission rates are an attribute non desirable by multimedia applications and particularly by real-time applications. In the area of wireless networks the problems with the transmission of multimedia data are not directly linked to the congestion of the network (this mainly occurs in wired networks) as the packet losses are a direct result of the free space propagation. The approach so far has aimed at the individual optimization of the various protocols of the OSI model so as to reduce the transmission problems and minimize packet losses and the delays from the sender to the end user. In recent years, however, a different approach which has prevailed to be termed internationally as “cross-layer optimization-adaptation” has earned more and more space. Under this approach we could be able to succeed the optimization of the service, regarding the quality of multimedia applications, by means of some adaptation mechanisms which will involve more than one of the OSI layers to current network conditions. The methodology, the challenges, the restrictions and the applications of cross layer adaptation constitute an open research area which is currently in progress. The aim of this dissertation is firs the study of the existing congestion control mechanisms which mainly concern best-effort wired networks, such as the Internet. In this direction we evaluate the existing congestion/flow control mechanisms and record the main problems related to the quality of service. The performance evaluation is based on criteria relating both to TCP-friendliness and the quality of service of multimedia applications. This performance evaluation leads us to the design of new protocols which promise greater TCP-friendliness and better quality of service. An important element that distinguishes these protocols of the other approaches is the “smooth” behavior by which we minimize the high oscillations of the transmission rate, which are not desirable by multimedia applications, while maintaining a high response to sudden changes of network conditions. A second important element of this dissertation is the additions we have made to the libraries of the ns-2 simulator which are already exploited by other researchers. For this purpose the new protocols are fully defined and incorporated into the ns-2 libraries so as to be available to the research community as part of the simulator, for further studies and evaluation. At the same time we expand existing research tools in order to enable the analysis and evaluation of existing and future mechanisms based on quality criteria specific to multimedia applications, along with network-centric criteria. Regarding the wireless networks we study the cross layer adaptation and how it is possible to achieve the increase in the quality of service by implementing such a design. We study the various ways and design methodologies of a cross layer adaptation and propose a new framework with which it is possible to increase the quality of service in hybrid networks consisting of both by wired and wireless users.

Page generated in 0.0452 seconds