• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Telecommunication Services’ Migration to the Cloud : Network Performance analysis

Albarrán Munoz, Isaac, Parras Ruiz De Azúa, Manuel January 2012 (has links)
Nowadays, telecommunication services are commonly deployed in private networks, which are controlled and maintained by the telecommunication operators themselves, by co-location services providers, or, to some extent, by their hardware and software providers. However, with the present development of cloud computing resources, one might consider if these services could and should be implemented in the Cloud, thus taking advantage of cloud computing’s high availability, geographic distribution, and ease of usage. Additionally, this migration could reduce the telecommunication operators’ concerns in terms of hardware and network maintenance, leaving those to the Cloud computing providers who will need to supply a highly available and consistent service, to fulfill the telecommunication services’ requirements. Furthermore, virtualization provides the possibility of easily and rapidly changing the Cloud network topology facilitating the addition and removal of machines and services, allowing telecommunication services providers to adapt to their demands on the fly. The aim of this thesis project is to analyze and evaluate the level of performance, from the network point of view, that can be achieved when using Cloud computing resources to implement a telecommunication service, carrying out practical experiments both in laboratory and real environments. These measurements and analyses were conducted using an Ericsson prototype mobile switching center server (MSC-S) application, although the results obtained could be adapted to other applications with similar requirements. In order to potentially test this approach in a real environment, a prior providers’ survey was utilized to evaluate their services based on our requirements in terms of hardware and network characteristics, and thus select a suitable candidate environment for our purposes. One cloud provider was selected and its service was further evaluated based on the MSC-S application requirements. We report the results of our bench-marking process in this environment and compare them to the results of testing in a laboratory environment. The results of both sets of testing were well correlated and indicate potential for hosting telecommunication services in a Cloud environment, providing the Cloud meets the requirements imposed by the telecom services. / Actualmente, los servicios de telecomunicaciones se implementan comúnmente en redes privadas, controladas y mantenidas por los operadores de telecomunicaciones, por proveedores de servicios de colocación o, hasta cierto punto, por proveedores de hardware y software. Sin embargo, con el presente desarrollo de la tecnología de ’Cloud computing’, se puede considerar la posibilidad de implementar servicios de telecomunicaciones en la nube, aprovechando su alta disponibilidad, distribución geográfica y facilidad de uso. Además, este cambio puede reducir las preocupaciones de los operadores en relación al mantenimiento del hardware y de la red, delegando en los proveedores del servicio de ’Cloud computing’, los cuáles deberán proporcionar un servicio consistente, cumpliendo así con los requisitos de los servicios de telecomunicaciones. Por otra parte, la virtualización propociona la posibilidad de cambiar rápida y fácilmente la topología de la red, facilitando la adición y supresión de maquinas y servicios, y, por tanto, permitiendo a los operadores adaptarse a sus necesidades sobre la marcha. El objetivo de esta tésis es analizar y evaluar en nivel de rendimiento, desde el punto de vista de la red, que se puede conseguir usando recursos de ’Cloud computing’ para implementar un servicio de telecomunicaciones, llevando a cabo experimentos tanto en el laboratorio como en un entorno real. Estos análisis fueron realizados utilizando un prototipo de un servidor de conmutación móvil (MSC-S) de Ericsson, aunque los resultados pueden adaptarse a otras aplicaciones con unos requisitos similares. Para probar esta propuesta en un entorno real, se realizó una encuesta de proveedores de servicios de ’Cloud computing’, con el objetivo de evaluar sus servicios teniendo en cuenta nuestros requisitos de hardware y red. Finalmente, un proveedor fue escogido y su servicio evaluado basándonos en los requisitos de la aplicación MSC-S. En este documento proporcionamos los resultados de esa evaluación y los comparamos con los obtenidos en el laboratorio. Los resultados de ambas evaluaciones fueron satisfactorios e indican la posibilidad de implementar servicios de telecomunicaciones en la nube, siempre que la nube cumpla los requisitos impuestos por dichos servicios de telecomunicaciones. / Nuförtiden är telekommunikationstjänster ofta uppsatta i privata nätverk, som kontrolleras och underhålls av teleoperatörerna själva, av samlokaliserande tjänsteleverantörer eller i viss utsträckning av deras hårdvaruoch programvaru-leverantörer. Med den nuvarande utvecklingen av Cloud Computing-resurser kan man dock överväga om dessa tjänster kan och bör genomföras i ett Cloud, vilket drar fördel av Cloud Computings höga tillgänglighet, geografiska spridning, och enkla användning. Denna migration minskar även teleoperatörernas oro angående hårdvaru- och nätverks-underhåll genom att överlåta detta till Cloud Computing-leverantörerna, som kommer att behöva leverera en hög tillgänglighet och konsekvent service för att uppfylla telekommunikationstjänsternas krav. Dessutom ger virtualisering möjlighet att enkelt och snabbt ändra ett Clouds nätverkstopologi, vilket underlättar tillägg och borttagning av maskiner och tjänster, vilket hjälper teleoperatörer att snabbt anpassa sig till deras krav. Målet med examensarbetet är att analysera och uppskatta prestandan, från nätets perspektiv, som kan uppnås vid användning av Cloud Computingresurser för att genomföra en teletjänst, genom praktiska experiment både i laboratorium och i verkligheten. Dessa mätningar och analyser utfördes med en prototyp av en Ericsson mobilomkopplingscentralserverapplikation (MSCS), även om de erhållna resultaten skulle kunna anpassas till andra program med liknande krav. För att potentiellt kunna testa denna metod i en verklig miljö användes en tidigare leverantörs undersökning för att utvärdera deras tjänster baserat på våra krav på hårdvara och nätverksegenskaper, och genom detta välja en lämplig kandidatmiljö för våra syften. En Cloud-leverantör valdes och dess tjänster utvärderades vidare baserat på MSC-Ss applikationskrav. Vi redovisar resultatet av vår testprocess i den här miljön och jämför det med resultaten av tester i laboratoriemiljö. Resultaten från båda uppsättningarna av tester var väl korrelerade och visar på potentialen av att implementera telekommunikationstjänster i en Cloud-miljö, om detta Cloud uppfyller de kraven som ställs av telekommunikationtjänsterna.
2

Ensuring availability and managing consistency in geo-replicated file systems / Assurance de disponibilité et cohérence dirigeante dans systèmes de fichiers géo-reproduits

Tao Thanh, Vinh 08 December 2017 (has links)
Les systèmes de fichiers géo-distribués souffrent de latences élevées et de partitions réseau. À cause de cela, et pour assurer une haute disponibilité, de tels systèmes effectuent généralement des mises à jour localement, sans latence, et les propagent ensuite en arrière-plan. Cette réplication optimiste est confrontée à deux défis majeurs : (i) détecter les conflits entre les mises à jour simultanées et les résoudre d'une manière significative pour les utilisateurs, tout en maintenant les invariants d'intégrité du système; et (ii) la prise en charge d'applications qui n'ont pas été conçues pour gérer les anomalies de concurrence. Les systèmes de fichiers géo-distribués optimistes existants ne permettent pas de relever ces défis. Par exemple, Dropbox ne supporte pas les liens matériels. Le système de fichiers AndrewFS échoue sur certains changements de noms de répertoires; et tous les systèmes existants utilisent la résolution automatique des conflits qui viole la sémantique POSIX. Nous présentons notre solution aux problèmes posés ci-dessus dans la conception et la mise en œuvre d'un prototype de système de fichiers géo-distribué, nommé Tofu. Sa conception inclut une nouvelle abstraction de session pour prendre en charge l'API, tout en permettant des mises à jour optimistes. Il est capable de détecter tous les conflits sur ces structures de données et de les résoudre d'une façon que nous pensons que les utilisateurs trouveront raisonnable. Les expériences montrent que Tofu est hautement évolutif et qu'il entraîne des surcoûts linéaires, améliorant ainsi les systèmes académiques et industriels existants. / Geo-distributed file systems suffer from high latency and network partitions. Because of this, and to ensure high availability, such systems typically commit updates locally, with no latency, and propagate them in the background. Such optimistic replication faces two major challenges: (i) detecting conflicts between concurrent updates and resolving them in a way meaningful for users, while maintaining system integrity invariants; and (ii) supporting legacy applications that are not prepared to deal with concurrency anomalies. Existing optimistic geo-distributed file systems fall short of addressing the challenges. For instance, Dropbox does not support hard links; Andrew File System fails on some concurrent renaming of directories; and all existing systems use automatic conflict resolution that violates the legacy POSIX semantics. We present our solution to the above problems in the design and implementation of a prototype geo-distributed file system, named Tofu. Its design includes a new session abstraction to support the legacy API, while allowing optimistic updates. Unlike previous approaches, our solution is based on a formal model covering all aspects of a Unix-like file system, including directories, inodes, hard links, etc. It is able to detect all conflicts on those data structures, and resolves them in a way that we believe users will find generally reasonable. Experiments show that Tofu is highly scalable, and incurs linear overhead, improving over existing academic and industrial systems.
3

Resource, Data and Application Management for Cloud Federations and Multi-Clouds

Xhagjika, Vamis January 2017 (has links)
Distributed Real-Time Media Processing refers to classes of highly distributed, delay no-tolerant applications that account for the majority of the data traffic generated in the world today. Real-Time audio/video conferencing and live content streaming are of particular research interests as technology forecasts predict video traffic surpassing every other type of data traffic in the world in the near future. Live streaming refers to applications in which audio/video streams from a source need to be delivered to a set of geo-distributed destinations while maintaining low latency of stream delivery. Real-time conferencing platforms are application platforms that implement many-to-many audio/video real-time communications. Both of these categories exhibit high sensitivity to both network state (latency, jitter, packet loss, bit rate) as well as stream processing backend load profiles (latency and jitter introduced as Cloud processing of media packets). This thesis addresses enhancing real-time media processing both at the network level parameters as well as Cloud optimisations. We provide a novel, bandwidth management algorithm, for cloud services sharing the same network infrastructure, which provides a 2x improvement in system stability. Further examining network impact on cloud services, we provide a novel hybrid Cloud-Network distributed Cloud architecture to enable locality aware, application enhancements. This architecture led to a multi-cloud management overlay algorithm that maintains low management overhead on large scale cloud deployments. On the application level we provide a study of Media Quality parameters for a WebRTC enabled Media Cloud back-end, and provide patterns of quality metrics with respect to back-end stream load and network parameters. Additionally we empirically show that a "minimal load" algorithm for stream allocation, outperforms other Rotational, or Static Threshold based algorithms. / El procesamiento de medios en tiempo real distribuido se refiere a clases de aplicaciones altamente distribuidas,no tolerantes al retardo, que representan la mayoría del tráfico de datos generado en el mundo actual. Las conferenciasde audio y video en tiempo real y la transmisión de contenido en vivo tienen especial interés en investigación, ya quela prospectiva tecnológica estima que el tráfico de video supere a cualquier otro tipo de tráfico de datos en el futurocercano. La transmisión envivo se refiere a aplicaciones en las que flujos de audio/vídeo de una fuente se han de entregara un conjunto de destinos en lugares geográficos diferentes mientras se mantiene baja la latencia de entrega del flujo(como por ejemplo la cobertura de eventos en vivo). Las plataformas de conferencia en tiempo real son plataformasde  aplicación  que  implementan  comunicaciones  de  audio/video  en  tiempo  real  entre  muchos  participantes.  Ambascategorías presentan una alta sensibilidad tanto al estado de la red (latencia, jitter, pérdida de paquetes, velocidad debits) como a los perfiles de carga de la infraestructura de procesamiento de flujo (latencia y jitter introducidos duranteel procesamiento en la nube de paquetes de datos multimedia). Esta tesis trata de mejorar el procesamiento de datosmultimedia en tiempo real tanto en los parámetros de nivel de red como en las optimizaciones en la nube.En este contexto, investigamos si los recursos de la red se podían controlar a nivel de servicio para aumentar laeficiencia y el rendimiento de la red, así como cuantificar el impacto del recurso compartido de la red en la calidad delservicio. Los recursos de red compartidos afectan el rendimiento del servicio en la nube y, por lo tanto, optimizandoo intercambiando recursos de red pueden mejorar el rendimiento del servicio en la nube. Esta posible degradación delrendimiento se debe a la infraestructura de red compartida no regulada (la asignación de recursos de ancho de banda noes consciente de los objetivos del acuerdo de nivel de servicio (SLO) y de comportamiento). Gestionando el ancho debanda de la red a través de control predictivo, permitimos un mejor uso de los recursos de red disponibles y menoresviolaciones de SLO, logrando una mayor estabilidad del sistema por al menos un factor de 2.Las redes de acceso (AN) (extremo, red principal) de los ISP, transportistas y redes comunitarias no tienen unainfraestructura de nube de propósito general, mientras que los proveedores de recursos de Internet proporcionan bajodemanda recursos de la nube. Encontramos una oportunidad para la unificación de los recursos dentro de un AN y fueracon el fin de proporcionar una oferta de nube unificada a través de una federación de nubes y proporcionar movilidad delservicio hacia los usuarios para optimizar la localidad. Este trabajo de investigación proporciona una nueva arquitecturade red híbrida y nube federada que proporciona una infraestructura de red extendida con un despliegue en nube a granescala, incorporándolo directamente a la infraestructura de red. La nueva arquitectura multi-nube permite a los serviciosllegar a un compromiso entre localidad respecto al usuario o el rendimiento en tiempo de ejecución optimizando asípara latencia para conseguir la asignación óptima de recursos de aplicaciones en tiempo real. Para  optimizar  la  latencia  en  las  aplicaciones  de  transmisión  en  vivo  se  propuso  un  nuevo  algoritmo  desuperposición  de  multi-nube  autogestionado  basado  en  una  topología  de  gradiente  en  la  que  cada  nube  de  unaaplicación de transmisión de flujos optimiza la proximidad del cliente a la fuente. El modelo de aplicación se separa enun  diseño  de  dos  capas,  el  back-end  de  entrega  multi-nube  y  los  clientes  de  flujo.  El  backend  de  gradienteautorregulado minimiza la carga de tráfico creando un árbol de expansión mínimo a través de las nubes que se utilizapara  el  enrutamiento  de  cada  flujo.  El  algoritmo  propuesto  tiene  una  tasa  de  convergencia  muy  rápida  en  losdespliegues de nube a gran escala, y no resulta afectado por la rotación de recursos de la nube, así como proporcionauna mayor estabilidad de la transmisión en vivo.En este trabajo ofrecemos un análisis de calidad de los medios de comunicación y mejoras de los emisores deflujo en la nube en tiempo real, así como estrategias de asignación para mejorar el rendimiento de nivel de serviciode las plataformas de comunicación de Web en tiempo real. Los patrones de calidad de los medios están fuertementeinfluenciados por el rendimiento del procesamiento en la nube, y por lo tanto, al ajustar este aspecto, podemos controlarla calidad de los medios. En particular, demostramos empíricamente que a medida que los tamaños de sesión aumentan,la difusión simultánea supera la codificación de capa única. Además, introducimos un algoritmo de asignación de flujopara minimizar los picos de carga en los retransmisores de flujos en la nube y comparamos el comportamiento devarias políticas de asignación de flujos. Con la mínima información y el requisito de asignación de sesión de un únicoservidor, la política de asignación de carga mínima se comporta bastante mejor que otros algoritmos basados en unumbral rotativo o estático. / Distribuerad realtidshantering av mediadata syftar på klasser av starkt distribuerade tillämpningar som inte tolererar fördröjningar, och som utgör majoriteten av datatrafiken som genereras i världen idag. Audio/video-konferenser i realtid och överföring av innehåll "live" är av speciellt intresse för forskningen eftersom teknikprognoser förutser att videotrafiken kommer att kraftigt dominera över all annan datatrafik i den nära framtiden. "Live streaming" syftar på tillämpningar i vilka audio/video strömmar från en källa och behöver distribueras till en mängd av geografisk distribuerade destinationer medan överföringen bibehåller låg latens i leveransen av det strömmade datat (som ett exempel kan nämnas "live"-täckning av händelser). Konferensplattformar för realtidsdata är tillämpningsplattformar som implementerar realtidskommunikation av audio/video-data av typen "många-till-många". Båda dessa kategorier uppvisar hög känslighet för såväl nätverkets tillstånd (latens, jitter, paketförluster, bithastighet) och lastprofiler av ström bearbetning "back-end" (latens och jitter introducerat som Cloud-hantering av mediadatapaket). Denna avhandling adresserar förbättringar inom realtidshantering av mediainnehåll både med avseende på nätverksnivåns parametrar och optimeraringar för molninfrastrukturen. I detta sammanhang har vi undersökt huruvida nätverksresurserna kan kontrolleras på servicenivån i syfte att öka nätverkets effektivitet och prestanda, och även att kvantifiera påverkan av den delade nätverksresursen på servicekvaliteten. Delade nätverksresurser påverkar molntjänstens prestanda och dessa kan genom en optimering eller handel med nätverksresurser förbättra molntjänstens prestanda. Denna potentiella prestandadegradering beror på en oreglerad delad nätverksinfrastruktur (allokeringen av bandbredd är inte medveten om prestanda och mål för servicenivån). Genom att mediera nätverkets bandbredd genom prediktiv kontroll, möjliggör vi ett bättre utnyttjande av de tillgängliga nätverksresurserna och en lägre grad av avvikelser mot SLO, vilket leder till en ökad stabilitet med åtminstone en faktor 2. Accessnätverken (AN) (edge, kärnnätverk) hos ISP, bärare och lokala nätverk har ingen generell molninfrastruktur, medan s.k. "Internet Resource Providers" erbjuder resurser för molntjänster "on demand". Vi ser en möjlighet till ensande av resurserna inuti ett AN och utanför i syfte att erbjuda ett samlat molntjänsterbjudande genom s.k. "Cloud Federation" och erbjuder tjänstemobilitet för användarna för att optimera lokaliteten. Denna forskningansats erbjuder ett nytt hybrid nätverk med Federated Cloud arkitektur vilken ger en utvidgad nätverksinfrastruktur med en storskalig användning av molntjänster, som direkt inkorporerar denna i nätverksinfrastrukturen. Den nyskapande "Multi-Cloud"-arkitekturen möjliggör för tjänster att balansera lokalitet för användaren mot run-time-prestanda och därigenom optimera för latens mot optimal resursallokering för realtidstillämpningar. För att optimera latensen i "live streaming"-tillämpningar föreslås en nyskapande självstyrd "multi-Cloud-overlay"-algorithm baserad på gradienttopologi i vilken varje moln för en tillämpning inom "stream broadcasting" optimerar klientens närhet till källan. Tillämpningsmodellen separeras i en tvålagersdesign, "multi-cloud delivery back-end" och "stream clients". Denna självreglerande gradientbaserade "back-end" minimerar trafiklasten genom att skapa ett minimalt spännande träd genom molnen som används för routing av strömmarna. Den föreslagna algoritmen har en mycket snabb konvergenshastighet vid större moln, och påverkas inte av "churn" hos molnresursen liksom att den erbjuder ökad motståndskraft hos "live"-strömmen. I detta arbete erbjuder vi mediakvalitetsanalys och förstärkning av realtidsmolnets "forwarders", liksom även allokeringsstrategier för att förstärka servicenivåprestanda hos "Web Real-Time Communication"-plattformar. Mediakvalitetsmönster påverkas kraftigt av molnets bearbetsningsprestanda, och således kan vi genom att påverka denna aspekt kontrollera mediakvaliteten. Specifikt demonstrerar vi empiriskt att efterhand som sessionsstorlekarna ökar, så utklassar simulcast enlagersinkodning. Dessutom introducerar vi en strömallokeringsalgoritm för att minimera "load spikes" hos "Cloud stream forwarders" och jämför beteendet hos olika strömallokeringspolicys. Med enbart minimal information och allokeringsbehoven hos en enskild serversession beter sig den minimala lastbalansallokeringspolicyn tydligt bättre än andra "rotational"- eller "static threshold"-baserade algoritmer. / <p>QC 20170425</p>

Page generated in 0.0824 seconds