• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Resource, Data and Application Management for Cloud Federations and Multi-Clouds

Xhagjika, Vamis January 2017 (has links)
Distributed Real-Time Media Processing refers to classes of highly distributed, delay no-tolerant applications that account for the majority of the data traffic generated in the world today. Real-Time audio/video conferencing and live content streaming are of particular research interests as technology forecasts predict video traffic surpassing every other type of data traffic in the world in the near future. Live streaming refers to applications in which audio/video streams from a source need to be delivered to a set of geo-distributed destinations while maintaining low latency of stream delivery. Real-time conferencing platforms are application platforms that implement many-to-many audio/video real-time communications. Both of these categories exhibit high sensitivity to both network state (latency, jitter, packet loss, bit rate) as well as stream processing backend load profiles (latency and jitter introduced as Cloud processing of media packets). This thesis addresses enhancing real-time media processing both at the network level parameters as well as Cloud optimisations. We provide a novel, bandwidth management algorithm, for cloud services sharing the same network infrastructure, which provides a 2x improvement in system stability. Further examining network impact on cloud services, we provide a novel hybrid Cloud-Network distributed Cloud architecture to enable locality aware, application enhancements. This architecture led to a multi-cloud management overlay algorithm that maintains low management overhead on large scale cloud deployments. On the application level we provide a study of Media Quality parameters for a WebRTC enabled Media Cloud back-end, and provide patterns of quality metrics with respect to back-end stream load and network parameters. Additionally we empirically show that a "minimal load" algorithm for stream allocation, outperforms other Rotational, or Static Threshold based algorithms. / El procesamiento de medios en tiempo real distribuido se refiere a clases de aplicaciones altamente distribuidas,no tolerantes al retardo, que representan la mayoría del tráfico de datos generado en el mundo actual. Las conferenciasde audio y video en tiempo real y la transmisión de contenido en vivo tienen especial interés en investigación, ya quela prospectiva tecnológica estima que el tráfico de video supere a cualquier otro tipo de tráfico de datos en el futurocercano. La transmisión envivo se refiere a aplicaciones en las que flujos de audio/vídeo de una fuente se han de entregara un conjunto de destinos en lugares geográficos diferentes mientras se mantiene baja la latencia de entrega del flujo(como por ejemplo la cobertura de eventos en vivo). Las plataformas de conferencia en tiempo real son plataformasde  aplicación  que  implementan  comunicaciones  de  audio/video  en  tiempo  real  entre  muchos  participantes.  Ambascategorías presentan una alta sensibilidad tanto al estado de la red (latencia, jitter, pérdida de paquetes, velocidad debits) como a los perfiles de carga de la infraestructura de procesamiento de flujo (latencia y jitter introducidos duranteel procesamiento en la nube de paquetes de datos multimedia). Esta tesis trata de mejorar el procesamiento de datosmultimedia en tiempo real tanto en los parámetros de nivel de red como en las optimizaciones en la nube.En este contexto, investigamos si los recursos de la red se podían controlar a nivel de servicio para aumentar laeficiencia y el rendimiento de la red, así como cuantificar el impacto del recurso compartido de la red en la calidad delservicio. Los recursos de red compartidos afectan el rendimiento del servicio en la nube y, por lo tanto, optimizandoo intercambiando recursos de red pueden mejorar el rendimiento del servicio en la nube. Esta posible degradación delrendimiento se debe a la infraestructura de red compartida no regulada (la asignación de recursos de ancho de banda noes consciente de los objetivos del acuerdo de nivel de servicio (SLO) y de comportamiento). Gestionando el ancho debanda de la red a través de control predictivo, permitimos un mejor uso de los recursos de red disponibles y menoresviolaciones de SLO, logrando una mayor estabilidad del sistema por al menos un factor de 2.Las redes de acceso (AN) (extremo, red principal) de los ISP, transportistas y redes comunitarias no tienen unainfraestructura de nube de propósito general, mientras que los proveedores de recursos de Internet proporcionan bajodemanda recursos de la nube. Encontramos una oportunidad para la unificación de los recursos dentro de un AN y fueracon el fin de proporcionar una oferta de nube unificada a través de una federación de nubes y proporcionar movilidad delservicio hacia los usuarios para optimizar la localidad. Este trabajo de investigación proporciona una nueva arquitecturade red híbrida y nube federada que proporciona una infraestructura de red extendida con un despliegue en nube a granescala, incorporándolo directamente a la infraestructura de red. La nueva arquitectura multi-nube permite a los serviciosllegar a un compromiso entre localidad respecto al usuario o el rendimiento en tiempo de ejecución optimizando asípara latencia para conseguir la asignación óptima de recursos de aplicaciones en tiempo real. Para  optimizar  la  latencia  en  las  aplicaciones  de  transmisión  en  vivo  se  propuso  un  nuevo  algoritmo  desuperposición  de  multi-nube  autogestionado  basado  en  una  topología  de  gradiente  en  la  que  cada  nube  de  unaaplicación de transmisión de flujos optimiza la proximidad del cliente a la fuente. El modelo de aplicación se separa enun  diseño  de  dos  capas,  el  back-end  de  entrega  multi-nube  y  los  clientes  de  flujo.  El  backend  de  gradienteautorregulado minimiza la carga de tráfico creando un árbol de expansión mínimo a través de las nubes que se utilizapara  el  enrutamiento  de  cada  flujo.  El  algoritmo  propuesto  tiene  una  tasa  de  convergencia  muy  rápida  en  losdespliegues de nube a gran escala, y no resulta afectado por la rotación de recursos de la nube, así como proporcionauna mayor estabilidad de la transmisión en vivo.En este trabajo ofrecemos un análisis de calidad de los medios de comunicación y mejoras de los emisores deflujo en la nube en tiempo real, así como estrategias de asignación para mejorar el rendimiento de nivel de serviciode las plataformas de comunicación de Web en tiempo real. Los patrones de calidad de los medios están fuertementeinfluenciados por el rendimiento del procesamiento en la nube, y por lo tanto, al ajustar este aspecto, podemos controlarla calidad de los medios. En particular, demostramos empíricamente que a medida que los tamaños de sesión aumentan,la difusión simultánea supera la codificación de capa única. Además, introducimos un algoritmo de asignación de flujopara minimizar los picos de carga en los retransmisores de flujos en la nube y comparamos el comportamiento devarias políticas de asignación de flujos. Con la mínima información y el requisito de asignación de sesión de un únicoservidor, la política de asignación de carga mínima se comporta bastante mejor que otros algoritmos basados en unumbral rotativo o estático. / Distribuerad realtidshantering av mediadata syftar på klasser av starkt distribuerade tillämpningar som inte tolererar fördröjningar, och som utgör majoriteten av datatrafiken som genereras i världen idag. Audio/video-konferenser i realtid och överföring av innehåll "live" är av speciellt intresse för forskningen eftersom teknikprognoser förutser att videotrafiken kommer att kraftigt dominera över all annan datatrafik i den nära framtiden. "Live streaming" syftar på tillämpningar i vilka audio/video strömmar från en källa och behöver distribueras till en mängd av geografisk distribuerade destinationer medan överföringen bibehåller låg latens i leveransen av det strömmade datat (som ett exempel kan nämnas "live"-täckning av händelser). Konferensplattformar för realtidsdata är tillämpningsplattformar som implementerar realtidskommunikation av audio/video-data av typen "många-till-många". Båda dessa kategorier uppvisar hög känslighet för såväl nätverkets tillstånd (latens, jitter, paketförluster, bithastighet) och lastprofiler av ström bearbetning "back-end" (latens och jitter introducerat som Cloud-hantering av mediadatapaket). Denna avhandling adresserar förbättringar inom realtidshantering av mediainnehåll både med avseende på nätverksnivåns parametrar och optimeraringar för molninfrastrukturen. I detta sammanhang har vi undersökt huruvida nätverksresurserna kan kontrolleras på servicenivån i syfte att öka nätverkets effektivitet och prestanda, och även att kvantifiera påverkan av den delade nätverksresursen på servicekvaliteten. Delade nätverksresurser påverkar molntjänstens prestanda och dessa kan genom en optimering eller handel med nätverksresurser förbättra molntjänstens prestanda. Denna potentiella prestandadegradering beror på en oreglerad delad nätverksinfrastruktur (allokeringen av bandbredd är inte medveten om prestanda och mål för servicenivån). Genom att mediera nätverkets bandbredd genom prediktiv kontroll, möjliggör vi ett bättre utnyttjande av de tillgängliga nätverksresurserna och en lägre grad av avvikelser mot SLO, vilket leder till en ökad stabilitet med åtminstone en faktor 2. Accessnätverken (AN) (edge, kärnnätverk) hos ISP, bärare och lokala nätverk har ingen generell molninfrastruktur, medan s.k. "Internet Resource Providers" erbjuder resurser för molntjänster "on demand". Vi ser en möjlighet till ensande av resurserna inuti ett AN och utanför i syfte att erbjuda ett samlat molntjänsterbjudande genom s.k. "Cloud Federation" och erbjuder tjänstemobilitet för användarna för att optimera lokaliteten. Denna forskningansats erbjuder ett nytt hybrid nätverk med Federated Cloud arkitektur vilken ger en utvidgad nätverksinfrastruktur med en storskalig användning av molntjänster, som direkt inkorporerar denna i nätverksinfrastrukturen. Den nyskapande "Multi-Cloud"-arkitekturen möjliggör för tjänster att balansera lokalitet för användaren mot run-time-prestanda och därigenom optimera för latens mot optimal resursallokering för realtidstillämpningar. För att optimera latensen i "live streaming"-tillämpningar föreslås en nyskapande självstyrd "multi-Cloud-overlay"-algorithm baserad på gradienttopologi i vilken varje moln för en tillämpning inom "stream broadcasting" optimerar klientens närhet till källan. Tillämpningsmodellen separeras i en tvålagersdesign, "multi-cloud delivery back-end" och "stream clients". Denna självreglerande gradientbaserade "back-end" minimerar trafiklasten genom att skapa ett minimalt spännande träd genom molnen som används för routing av strömmarna. Den föreslagna algoritmen har en mycket snabb konvergenshastighet vid större moln, och påverkas inte av "churn" hos molnresursen liksom att den erbjuder ökad motståndskraft hos "live"-strömmen. I detta arbete erbjuder vi mediakvalitetsanalys och förstärkning av realtidsmolnets "forwarders", liksom även allokeringsstrategier för att förstärka servicenivåprestanda hos "Web Real-Time Communication"-plattformar. Mediakvalitetsmönster påverkas kraftigt av molnets bearbetsningsprestanda, och således kan vi genom att påverka denna aspekt kontrollera mediakvaliteten. Specifikt demonstrerar vi empiriskt att efterhand som sessionsstorlekarna ökar, så utklassar simulcast enlagersinkodning. Dessutom introducerar vi en strömallokeringsalgoritm för att minimera "load spikes" hos "Cloud stream forwarders" och jämför beteendet hos olika strömallokeringspolicys. Med enbart minimal information och allokeringsbehoven hos en enskild serversession beter sig den minimala lastbalansallokeringspolicyn tydligt bättre än andra "rotational"- eller "static threshold"-baserade algoritmer. / <p>QC 20170425</p>
2

The role of communication satisfaction in job satisfaction in the Department of Communications : an exploration

Nhlapo, Joseph Maotla 01 1900 (has links)
This researcher investigates the role of communication satisfaction in job satisfaction in the Department of Communications, a government policy-making institution that deals with post, telecommunications, and broadcasting services in South Africa. This study describes communication satisfaction as the overall degree of satisfaction an employee perceives in his total communication environment and job satisfaction as the degree of satisfaction the individual feels with his job. Focus groups are used to explore the role of communication satisfaction in job satisfaction in the Department of Communications because they are appropriate and suitable in capturing the discussions reflecting emotions, particularly uncovering individuals' feelings about their environment. The emphasis is on finding out how communication motivates and makes employees satisfied in their jobs. Qualitative content analysis, based on transcriptions from audiotapes, is used for interpretation and analysis of the data. These transcnptions reflect the descriptive nature of the data and people's own spoken words. / Communication Science / M. A. (Communication)
3

The role of communication satisfaction in job satisfaction in the Department of Communications : an exploration

Nhlapo, Joseph Maotla 01 1900 (has links)
This researcher investigates the role of communication satisfaction in job satisfaction in the Department of Communications, a government policy-making institution that deals with post, telecommunications, and broadcasting services in South Africa. This study describes communication satisfaction as the overall degree of satisfaction an employee perceives in his total communication environment and job satisfaction as the degree of satisfaction the individual feels with his job. Focus groups are used to explore the role of communication satisfaction in job satisfaction in the Department of Communications because they are appropriate and suitable in capturing the discussions reflecting emotions, particularly uncovering individuals' feelings about their environment. The emphasis is on finding out how communication motivates and makes employees satisfied in their jobs. Qualitative content analysis, based on transcriptions from audiotapes, is used for interpretation and analysis of the data. These transcnptions reflect the descriptive nature of the data and people's own spoken words. / Communication Science / M. A. (Communication)
4

AIM - A Social Media Monitoring System for Quality Engineering

Bank, Mathias 14 June 2013 (has links)
In the last few years the World Wide Web has dramatically changed the way people are communicating with each other. The growing availability of Social Media Systems like Internet fora, weblogs and social networks ensure that the Internet is today, what it was originally designed for: A technical platform in which all users are able to interact with each other. Nowadays, there are billions of user comments available discussing all aspects of life and the data source is still growing. This thesis investigates, whether it is possible to use this growing amount of freely provided user comments to extract quality related information. The concept is based on the observation that customers are not only posting marketing relevant information. They also publish product oriented content including positive and negative experiences. It is assumed that this information represents a valuable data source for quality analyses: The original voices of the customers promise to specify a more exact and more concrete definition of \"quality\" than the one that is available to manufacturers or market researchers today. However, the huge amount of unstructured user comments makes their evaluation very complex. It is impossible for an analysis protagonist to manually investigate the provided customer feedback. Therefore, Social Media specific algorithms have to be developed to collect, pre-process and finally analyze the data. This has been done by the Social Media monitoring system AIM (Automotive Internet Mining) that is the subject of this thesis. It investigates how manufacturers, products, product features and related opinions are discussed in order to estimate the overall product quality from the customers\\\'' point of view. AIM is able to track different types of data sources using a flexible multi-agent based crawler architecture. In contrast to classical web crawlers, the multi-agent based crawler supports individual crawling policies to minimize the download of irrelevant web pages. In addition, an unsupervised wrapper induction algorithm is introduced to automatically generate content extraction parameters which are specific for the crawled Social Media systems. The extracted user comments are analyzed by different content analysis algorithms to gain a deeper insight into the discussed topics and opinions. Hereby, three different topic types are supported depending on the analysis needs. * The creation of highly reliable analysis results is realized by using a special context-aware taxonomy-based classification system. * Fast ad-hoc analyses are applied on top of classical fulltext search capabilities. * Finally, AIM supports the detection of blind-spots by using a new fuzzified hierarchical clustering algorithm. It generates topical clusters while supporting multiple topics within each user comment. All three topic types are treated in a unified way to enable an analysis protagonist to apply all methods simultaneously and in exchange. The systematically processed user comments are visualized within an easy and flexible interactive analysis frontend. Special abstraction techniques support the investigation of thousands of user comments with minimal time efforts. Hereby, specifically created indices show the relevancy and customer satisfaction of a given topic.:1 Introduction 1.1 Chapter Overview 2 Problem Definition and Data Environment 2.1 Commonly Applied Quality Sensors 2.2 The Growing Importance of Social Media 2.3 Social Media based Quality Experience 2.4 Change to the Holistic Concept of Quality 2.5 Definition of User Generated Content and Social Media 2.6 Social Media Software Architectures 3 Data Collection 3.1 Related Work 3.2 Requirement Analysis 3.3 A Blackboard Crawler Architecture 3.4 Semi-supervised Wrapper Generation 3.5 Structure Modifification Detection 3.6 Conclusion 4 Hierarchical Fuzzy Clustering 4.1 Related Work 4.2 Generalization of Agglomerative Crisp Clustering Algorithms 4.3 Topic Groups Generation 4.4 Evaluation 4.5 Conclusion 5 A Social Media Monitoring System for Quality Analyses 5.1 Related Work 5.2 Pre-Processing Workflow 5.3 Quality Indices 5.4 AIM Architecture 5.5 Evaluation 5.6 Conclusion 6 Conclusion and Perspectives 6.1 Contributions and Conclusions 6.2 Perspectives Bibliography / In den letzten Jahren hat sich das World Wide Web dramatisch verändert. War es vor einigen Jahren noch primär eine Informationsquelle, in der ein kleiner Anteil der Nutzer Inhalte veröffentlichen konnte, so hat sich daraus eine Kommunikationsplattform entwickelt, in der jeder Nutzer aktiv teilnehmen kann. Die dadurch enstehende Datenmenge behandelt jeden Aspekt des täglichen Lebens. So auch Qualitätsthemen. Die Analyse der Daten verspricht Qualitätssicherungsmaßnahmen deutlich zu verbessern. Es können dadurch Themen behandelt werden, die mit klassischen Sensoren schwer zu messen sind. Die systematische und reproduzierbare Analyse von benutzergenerierten Daten erfordert jedoch die Anpassung bestehender Tools sowie die Entwicklung neuer Social-Media spezifischer Algorithmen. Diese Arbeit schafft hierfür ein völlig neues Social Media Monitoring-System, mit dessen Hilfe ein Analyst tausende Benutzerbeiträge mit minimaler Zeitanforderung analysieren kann. Die Anwendung des Systems hat einige Vorteile aufgezeigt, die es ermöglichen, die kundengetriebene Definition von \"Qualität\" zu erkennen.:1 Introduction 1.1 Chapter Overview 2 Problem Definition and Data Environment 2.1 Commonly Applied Quality Sensors 2.2 The Growing Importance of Social Media 2.3 Social Media based Quality Experience 2.4 Change to the Holistic Concept of Quality 2.5 Definition of User Generated Content and Social Media 2.6 Social Media Software Architectures 3 Data Collection 3.1 Related Work 3.2 Requirement Analysis 3.3 A Blackboard Crawler Architecture 3.4 Semi-supervised Wrapper Generation 3.5 Structure Modifification Detection 3.6 Conclusion 4 Hierarchical Fuzzy Clustering 4.1 Related Work 4.2 Generalization of Agglomerative Crisp Clustering Algorithms 4.3 Topic Groups Generation 4.4 Evaluation 4.5 Conclusion 5 A Social Media Monitoring System for Quality Analyses 5.1 Related Work 5.2 Pre-Processing Workflow 5.3 Quality Indices 5.4 AIM Architecture 5.5 Evaluation 5.6 Conclusion 6 Conclusion and Perspectives 6.1 Contributions and Conclusions 6.2 Perspectives Bibliography

Page generated in 0.0702 seconds