• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Resource, Data and Application Management for Cloud Federations and Multi-Clouds

Xhagjika, Vamis January 2017 (has links)
Distributed Real-Time Media Processing refers to classes of highly distributed, delay no-tolerant applications that account for the majority of the data traffic generated in the world today. Real-Time audio/video conferencing and live content streaming are of particular research interests as technology forecasts predict video traffic surpassing every other type of data traffic in the world in the near future. Live streaming refers to applications in which audio/video streams from a source need to be delivered to a set of geo-distributed destinations while maintaining low latency of stream delivery. Real-time conferencing platforms are application platforms that implement many-to-many audio/video real-time communications. Both of these categories exhibit high sensitivity to both network state (latency, jitter, packet loss, bit rate) as well as stream processing backend load profiles (latency and jitter introduced as Cloud processing of media packets). This thesis addresses enhancing real-time media processing both at the network level parameters as well as Cloud optimisations. We provide a novel, bandwidth management algorithm, for cloud services sharing the same network infrastructure, which provides a 2x improvement in system stability. Further examining network impact on cloud services, we provide a novel hybrid Cloud-Network distributed Cloud architecture to enable locality aware, application enhancements. This architecture led to a multi-cloud management overlay algorithm that maintains low management overhead on large scale cloud deployments. On the application level we provide a study of Media Quality parameters for a WebRTC enabled Media Cloud back-end, and provide patterns of quality metrics with respect to back-end stream load and network parameters. Additionally we empirically show that a "minimal load" algorithm for stream allocation, outperforms other Rotational, or Static Threshold based algorithms. / El procesamiento de medios en tiempo real distribuido se refiere a clases de aplicaciones altamente distribuidas,no tolerantes al retardo, que representan la mayoría del tráfico de datos generado en el mundo actual. Las conferenciasde audio y video en tiempo real y la transmisión de contenido en vivo tienen especial interés en investigación, ya quela prospectiva tecnológica estima que el tráfico de video supere a cualquier otro tipo de tráfico de datos en el futurocercano. La transmisión envivo se refiere a aplicaciones en las que flujos de audio/vídeo de una fuente se han de entregara un conjunto de destinos en lugares geográficos diferentes mientras se mantiene baja la latencia de entrega del flujo(como por ejemplo la cobertura de eventos en vivo). Las plataformas de conferencia en tiempo real son plataformasde  aplicación  que  implementan  comunicaciones  de  audio/video  en  tiempo  real  entre  muchos  participantes.  Ambascategorías presentan una alta sensibilidad tanto al estado de la red (latencia, jitter, pérdida de paquetes, velocidad debits) como a los perfiles de carga de la infraestructura de procesamiento de flujo (latencia y jitter introducidos duranteel procesamiento en la nube de paquetes de datos multimedia). Esta tesis trata de mejorar el procesamiento de datosmultimedia en tiempo real tanto en los parámetros de nivel de red como en las optimizaciones en la nube.En este contexto, investigamos si los recursos de la red se podían controlar a nivel de servicio para aumentar laeficiencia y el rendimiento de la red, así como cuantificar el impacto del recurso compartido de la red en la calidad delservicio. Los recursos de red compartidos afectan el rendimiento del servicio en la nube y, por lo tanto, optimizandoo intercambiando recursos de red pueden mejorar el rendimiento del servicio en la nube. Esta posible degradación delrendimiento se debe a la infraestructura de red compartida no regulada (la asignación de recursos de ancho de banda noes consciente de los objetivos del acuerdo de nivel de servicio (SLO) y de comportamiento). Gestionando el ancho debanda de la red a través de control predictivo, permitimos un mejor uso de los recursos de red disponibles y menoresviolaciones de SLO, logrando una mayor estabilidad del sistema por al menos un factor de 2.Las redes de acceso (AN) (extremo, red principal) de los ISP, transportistas y redes comunitarias no tienen unainfraestructura de nube de propósito general, mientras que los proveedores de recursos de Internet proporcionan bajodemanda recursos de la nube. Encontramos una oportunidad para la unificación de los recursos dentro de un AN y fueracon el fin de proporcionar una oferta de nube unificada a través de una federación de nubes y proporcionar movilidad delservicio hacia los usuarios para optimizar la localidad. Este trabajo de investigación proporciona una nueva arquitecturade red híbrida y nube federada que proporciona una infraestructura de red extendida con un despliegue en nube a granescala, incorporándolo directamente a la infraestructura de red. La nueva arquitectura multi-nube permite a los serviciosllegar a un compromiso entre localidad respecto al usuario o el rendimiento en tiempo de ejecución optimizando asípara latencia para conseguir la asignación óptima de recursos de aplicaciones en tiempo real. Para  optimizar  la  latencia  en  las  aplicaciones  de  transmisión  en  vivo  se  propuso  un  nuevo  algoritmo  desuperposición  de  multi-nube  autogestionado  basado  en  una  topología  de  gradiente  en  la  que  cada  nube  de  unaaplicación de transmisión de flujos optimiza la proximidad del cliente a la fuente. El modelo de aplicación se separa enun  diseño  de  dos  capas,  el  back-end  de  entrega  multi-nube  y  los  clientes  de  flujo.  El  backend  de  gradienteautorregulado minimiza la carga de tráfico creando un árbol de expansión mínimo a través de las nubes que se utilizapara  el  enrutamiento  de  cada  flujo.  El  algoritmo  propuesto  tiene  una  tasa  de  convergencia  muy  rápida  en  losdespliegues de nube a gran escala, y no resulta afectado por la rotación de recursos de la nube, así como proporcionauna mayor estabilidad de la transmisión en vivo.En este trabajo ofrecemos un análisis de calidad de los medios de comunicación y mejoras de los emisores deflujo en la nube en tiempo real, así como estrategias de asignación para mejorar el rendimiento de nivel de serviciode las plataformas de comunicación de Web en tiempo real. Los patrones de calidad de los medios están fuertementeinfluenciados por el rendimiento del procesamiento en la nube, y por lo tanto, al ajustar este aspecto, podemos controlarla calidad de los medios. En particular, demostramos empíricamente que a medida que los tamaños de sesión aumentan,la difusión simultánea supera la codificación de capa única. Además, introducimos un algoritmo de asignación de flujopara minimizar los picos de carga en los retransmisores de flujos en la nube y comparamos el comportamiento devarias políticas de asignación de flujos. Con la mínima información y el requisito de asignación de sesión de un únicoservidor, la política de asignación de carga mínima se comporta bastante mejor que otros algoritmos basados en unumbral rotativo o estático. / Distribuerad realtidshantering av mediadata syftar på klasser av starkt distribuerade tillämpningar som inte tolererar fördröjningar, och som utgör majoriteten av datatrafiken som genereras i världen idag. Audio/video-konferenser i realtid och överföring av innehåll "live" är av speciellt intresse för forskningen eftersom teknikprognoser förutser att videotrafiken kommer att kraftigt dominera över all annan datatrafik i den nära framtiden. "Live streaming" syftar på tillämpningar i vilka audio/video strömmar från en källa och behöver distribueras till en mängd av geografisk distribuerade destinationer medan överföringen bibehåller låg latens i leveransen av det strömmade datat (som ett exempel kan nämnas "live"-täckning av händelser). Konferensplattformar för realtidsdata är tillämpningsplattformar som implementerar realtidskommunikation av audio/video-data av typen "många-till-många". Båda dessa kategorier uppvisar hög känslighet för såväl nätverkets tillstånd (latens, jitter, paketförluster, bithastighet) och lastprofiler av ström bearbetning "back-end" (latens och jitter introducerat som Cloud-hantering av mediadatapaket). Denna avhandling adresserar förbättringar inom realtidshantering av mediainnehåll både med avseende på nätverksnivåns parametrar och optimeraringar för molninfrastrukturen. I detta sammanhang har vi undersökt huruvida nätverksresurserna kan kontrolleras på servicenivån i syfte att öka nätverkets effektivitet och prestanda, och även att kvantifiera påverkan av den delade nätverksresursen på servicekvaliteten. Delade nätverksresurser påverkar molntjänstens prestanda och dessa kan genom en optimering eller handel med nätverksresurser förbättra molntjänstens prestanda. Denna potentiella prestandadegradering beror på en oreglerad delad nätverksinfrastruktur (allokeringen av bandbredd är inte medveten om prestanda och mål för servicenivån). Genom att mediera nätverkets bandbredd genom prediktiv kontroll, möjliggör vi ett bättre utnyttjande av de tillgängliga nätverksresurserna och en lägre grad av avvikelser mot SLO, vilket leder till en ökad stabilitet med åtminstone en faktor 2. Accessnätverken (AN) (edge, kärnnätverk) hos ISP, bärare och lokala nätverk har ingen generell molninfrastruktur, medan s.k. "Internet Resource Providers" erbjuder resurser för molntjänster "on demand". Vi ser en möjlighet till ensande av resurserna inuti ett AN och utanför i syfte att erbjuda ett samlat molntjänsterbjudande genom s.k. "Cloud Federation" och erbjuder tjänstemobilitet för användarna för att optimera lokaliteten. Denna forskningansats erbjuder ett nytt hybrid nätverk med Federated Cloud arkitektur vilken ger en utvidgad nätverksinfrastruktur med en storskalig användning av molntjänster, som direkt inkorporerar denna i nätverksinfrastrukturen. Den nyskapande "Multi-Cloud"-arkitekturen möjliggör för tjänster att balansera lokalitet för användaren mot run-time-prestanda och därigenom optimera för latens mot optimal resursallokering för realtidstillämpningar. För att optimera latensen i "live streaming"-tillämpningar föreslås en nyskapande självstyrd "multi-Cloud-overlay"-algorithm baserad på gradienttopologi i vilken varje moln för en tillämpning inom "stream broadcasting" optimerar klientens närhet till källan. Tillämpningsmodellen separeras i en tvålagersdesign, "multi-cloud delivery back-end" och "stream clients". Denna självreglerande gradientbaserade "back-end" minimerar trafiklasten genom att skapa ett minimalt spännande träd genom molnen som används för routing av strömmarna. Den föreslagna algoritmen har en mycket snabb konvergenshastighet vid större moln, och påverkas inte av "churn" hos molnresursen liksom att den erbjuder ökad motståndskraft hos "live"-strömmen. I detta arbete erbjuder vi mediakvalitetsanalys och förstärkning av realtidsmolnets "forwarders", liksom även allokeringsstrategier för att förstärka servicenivåprestanda hos "Web Real-Time Communication"-plattformar. Mediakvalitetsmönster påverkas kraftigt av molnets bearbetsningsprestanda, och således kan vi genom att påverka denna aspekt kontrollera mediakvaliteten. Specifikt demonstrerar vi empiriskt att efterhand som sessionsstorlekarna ökar, så utklassar simulcast enlagersinkodning. Dessutom introducerar vi en strömallokeringsalgoritm för att minimera "load spikes" hos "Cloud stream forwarders" och jämför beteendet hos olika strömallokeringspolicys. Med enbart minimal information och allokeringsbehoven hos en enskild serversession beter sig den minimala lastbalansallokeringspolicyn tydligt bättre än andra "rotational"- eller "static threshold"-baserade algoritmer. / <p>QC 20170425</p>

Page generated in 0.0501 seconds