• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 7
  • 7
  • 2
  • 1
  • Tagged with
  • 53
  • 20
  • 15
  • 14
  • 14
  • 13
  • 13
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Kommunikation med Javascript-ramverk i ett kollaborativt ritverktyg / Communication using Javascript-frameworks in a collaborative drawingtool

Frommelin, Klara January 2022 (has links)
Teknik och digitalisering växer sig allt större i samhället och skolor får kämpa för att hänga med i utvecklingen. Som svar på detta behov har TOAST, ett kollaborativt online-verktyg för grafik och design, utvecklats för att väva in teknologi i ämnet Bild. I den här studien jämförs WebSocket och WebRTC för att se vilken teknik som presterar bäst för att skicka information om figurer mellan två klienter. Hypotesen för studien är baserat i vilken väg ett meddelande tar mellan klienterna, och därför antas WebRTC att visa på en bättre prestation med kortare tider för utritning och kommunikation av utritad figur. Resultatet av mätningarna stöder hypotesen och WebRTC genererade kortare utritningstider för samtliga figurer som finns tillgängliga i TOAST. För framtida arbeten så finns det många både stora och små aspekter att forska vidare på så som fler och mer komplexa figurer till en mer fullständig back-end. / <p>Det finns övrigt digitalt material (t.ex. film-, bild- eller ljudfiler) eller modeller/artefakter tillhörande examensarbetet som ska skickas till arkivet.</p>
32

Utveckling av en starkt autentiserad WebRTC-prototyp / Development of a strongly authenticated WebRTC-Prototype

Pettersson, Isak, Ros, Filip January 2017 (has links)
Denna forskning utförs hos Tieto som hanterar IT-systemet Lifecare åt hälso- och sjukvården i ett antal regioner och län. Vårt arbete omfattar att utveckla en prototyp av en webbaserad realtidskommunikationslösning med en implementerad stark autentisering. Prototypen utvecklas för att underlätta arbetet kring en samordnad individuell planering (SIP) genom möjligheten att kunna genomföra möten på distans. Eftersom hälso- och sjukvården hanterar en stor mängd känslig information är stark autentisering ett krav på lösningen. Ett annat viktigt krav på lösningen är att den blir plattformsoberoende. I utvecklingsarbetet användes därför WebRTC som utvecklingsteknik då detta ramverk är anpassat till webbaserade realtidskommunikationslösningar vilket ger möjlighet till en stark autentisering. Ramverket WebRTC gör prototypen plattformsoberoende, då kommunikationen sker direkt över webbläsaren utan att något program är installerat. Resultatet av arbetet blev en fungerande prototyp av en WebRTC som vi skapat. Prototypen skapades utifrån teorier kring autentisering, designprinciper och WebRTC. Även data från de sammanställda intervjuerna med anställda inom sjukvården samt fallet vi tilldelats hos Tieto ligger till grund för prototypen. / This bachelor thesis is carried out at Tieto, which manages the Lifecare IT system used in healthcare in a number of counties and regions. Our work involves developing a prototype of a web-based real-time communication solution with an implemented strong authentication. The prototype is developed to facilitate the work on a coordinated individual plan (SIP) through the ability to conduct remote meetings. Because healthcare handles a large amount of sensitive information, strong authentication is a requirement for the solution. Another important requirement for the solution is that it becomes platform-independent. Therefore, in our development work, WebRTC was used as development technology, as this framework is adapted to web-based real-time communication solutions, enabling strong authentication. The WebRTC framework makes the prototype platform-independent, as communication occurs directly over the browser without the need for installed applications. The result of the work becomes a working prototype of a WebRTC that we create. The prototype is created based on theories about authentication, design principles and WebRTC. Data from the combined interviews with healthcare professionals and the case we were assigned at Tieto has also been vital for the prototype.
33

DHT-based Collaborative Web Translation

Tu, Zongjie January 2016 (has links)
No description available.
34

Architecture événementielle pour les environnements virtuels collaboratifs sur le web : application à la manipulation et à la visualisation d'objets en 3D / Event-based architecture for web-based virtual collaborative environments : application to manipulation and visualisation of 3D objects

Desprat, Caroline 01 December 2017 (has links)
L’évolution technologique du web durant ces dernières années a favorisé l’arrivée d’environnements virtuels collaboratifs pour la modélisation 3D à grande échelle. Alors que la collaboration réunit dans un même espace partagé des utilisateurs distants géographiquement pour un objectif de collaboration commun, les ressources matérielles qu'ils apportent (calcul, stockage, 3D ...) avec leurs connaissances sont encore trop rarement utilisées et cela constitue un défi. Il s'agit en effet de proposer un système simple, performant et transparent pour les utilisateurs afin de permettre une collaboration efficace à la fois sur le volet computationnel mais aussi, bien entendu, sur l'aspect métier lié à la modélisation 3D sur le web. Pour rendre efficace le passage à l’échelle, de nombreux systèmes utilisent une architecture réseau dite "hybride", combinant client serveur et pair-à-pair. La réplication optimiste s'adapte bien aux propriétés de ces environnements répartis : la dynamicité des utilisateurs et leur nombre, le type de donnée traitées (3D) et leur taille. Cette thèse présente un modèle pour les systèmes d’édition collaborative en 3D sur le web. L'architecture cliente (3DEvent) permet de déporter les aspects métiers de la 3D au plus près de l’utilisateur sous la forme d’évènements. Cette architecture orientée événements repose sur le constat d’un fort besoin de traçabilité et d’historique sur les données 3D lors de l’assemblage d’un modèle. Cet aspect est porté intrinsèquement par le patron de conception event-sourcing. Ce modèle est complété par la définition d’un intergiciel en pair-à-pair. Sur ce dernier point, nous proposons d'utiliser la technologie WebRTC qui présente une API familière aux développeurs de services en infonuagique. Une évaluation portant sur deux études utilisateur concernant l’acceptance du modèle proposé a été menée dans le cadre de tâches d’assemblage de modèles 3D sur plusieurs groupes d’utilisateurs. / Web technologies evolutions during last decades fostered the development of collaborative virtual environments for 3D design at large scale. Despite the fact that collaborative environments gather in a same shared space geographically distant users in a common objective, the hardware ressources of their clients (calcul, storage, graphics ...) are often underused because of the challenge it represents. It is indeed a matter of offering an easy-to-use, efficient and transparent collaborative system to the user supporting both computationnal and 3D design visualisation and business logic needs in heterogeneous web environments. To scale well, numerous systems use a network architecture called "hybrid", combining both client-server and peer-to-peer. Optimistic replication is well adapted to distributed application such as 3D collaborative envionments : the dynamicity of users and their numbers, the 3D data type used and the large amount and size of it.This document presents a model for 3D web-based collaborative editing systems. This model integrates 3DEvent, an client-based architecture allowing us to bring 3D business logic closer to the user using events. Indeed, the need of traceability and history awareness is required during 3D design especially when several experts are involved during the process. This aspect is intrinsec to event-sourcing design pattern. This architecture is completed by a peer-to-peer middleware responsible for the synchronisation and the consistency of the system. To implement it, we propose to use the recent web standard API called WebRTC, close to cloud development services know by developers. To evaluate the model, two user studies were conducted on several group of users concerning its responsiveness and the acceptance by users in the frame of cooperative assembly tasks of 3D models.
35

Videoströmningsarkitektur för ett molnbaserat drönarsystem / Video streaming architecture for a cloud based drone system

Cedervall, Hugo, Steen-Holmberg, Martin, Süsskind, Caspian, Norström, Daniel, Ljung, Mattias, Almgren, Robert, Orädd, Helena January 2020 (has links)
Denna rapport behandlar det arbete som under våren 2020 utfördes av en grupp på sju civilingenjörsstudenter i data- och mjukvaruteknik vid Linköpings universitet som en del av kursen TDDD96 – Kandidatprojekt i programvaruutveckling. Projektet utfärdades på efterfrågan av företaget Airpelago, och gick ut på att utveckla en stabil grund för ett molnbaserat videoströmningssystem. Denna rapport beskriver den färdiga produkten, förklarar de beslut som togs, beskriver vilka problem som uppstått och hur dessa lösts, samt diskuterar det slutgiltiga arbetet. Rapporten innehåller även sju individuella bidragskrivna av gruppens enskilda medlemmar / <p>Presentationen genomfördes på distans</p>
36

Candidate generation for relocation of black box applications in mobile edge computing environments / Kandidat generering för omlokalisering av applikationer i mobile edge computing-miljöer

Walden, Love January 2022 (has links)
Applications today are generally deployed in public cloud environments such as Azure, AWS etc. Mobile edge computing (MEC) enables these applications to be relocated to edge nodes which are located in close proximity to the end user, thereby allowing the application to serve the user at lower latency. However, these edge nodes have limited capacity and hence a problem arises of when to relocate an application to an edge. This thesis project attempts to tackle the problem of detecting when an application’s quality of experience is degraded, and how to use this information in order to generate candidates for relocation to edge nodes. The assumption for this thesis project is there is no insight to the application itself, meaning the applications are treated as blackboxes. To detect quality of experience degradation we chose to capture network packets and inspect protocol-level information. We chose WebRTC and HTTP as communication protocols because they were the most common protocols used by the target environment. We developed two application prototypes. The first prototype was a rudimentary server based on HTTP and the second prototype was a video streaming application based on WebRTC. The prototypes were used to study the possibility of breaking down latency components and obtaining quality of service parameters. We then developed a recommendation engine to use this information in order to generate relocation candidates. The recommendation engine was evaluated by placing the WebRTC prototype under quality of experience affecting scenarios and measuring the time taken to generate a relocation candidate of the application. The result of this project show it is possible in some cases to break down latency components for HTTP based applications. However, for WebRTC based applications our approach was not sufficient enough to break down latency components. Instead, we had to rely on quality of service parameters to generate relocation candidates. Based on the outcomes of the project, we conclude detecting quality of experience degradation for blackbox applications have three generalizations. Firstly, the underlying transport and communication protocol has an impact on available approaches and obtainable information. Secondly, the implementation of the communication protocol also has an impact on obtainable information. Lastly, the underlying infrastructure can matter for the approaches used in this project. / Applikationer idag produktionssätts allmänhet i offentliga molntjänster som Azure, AWS etc. Mobile edge computing (MEC) gör att dessa applikationer kan flyttas till gränsnoder som är placerade i närheten av slutanvändaren, vilket gör att applikationen kan erbjuda användaren lägre latens. Dessa gränsnoder har emellertid begränsad kapacitet och därför uppstår ett problem om när en applikation ska flyttas till en gränsnod. Detta examensarbete försöker ta itu med problemet med att upptäcka när en applikations upplevelsekvalitet försämras, och hur man använder denna information för att generera kandidater för omlokalisering till gränsnoder. Antagandet för detta examensarbete är att det inte finns någon insikt i själva applikationen, vilket innebär att applikationer behandlas som svarta lådor. För att upptäcka försämring av upplevelsekvalitet valde vi att fånga nätverkspaket och inspektera information på protokollnivå. Vi valde WebRTC och HTTP som kommunikationsprotokoll eftersom de var de vanligaste protokollen som användes i målmiljön. Vi utvecklade två applikationsprototyper. Den första prototypen var en rudimentär server baserad på HTTPoch den andra prototypen var en videoströmningsapplikation baserad på WebRTC. Prototyperna användes för att studera möjligheten att bryta ned latenskomponenter och erhålla tjänstekvalitetsparametrar. Vi utvecklade sedan en rekommendationsmotor för att använda denna information till att generera omplaceringskandidater. Rekommendationsmotorn utvärderades genom att placera WebRTC-prototypen under scenarion som påverkar upplevelsekvaliten, och sedan mäta tiden det tog att generera en omlokaliseringskandidat av applikationen. Resultatet av detta projekt visar att det i vissa fall är möjligt att bryta ned latenskomponenter för HTTP-baserade applikationer. Dock för WebRTCbaserade applikationer var vårt tillvägagångssätt inte tillräckligt för att bryta ned latenskomponenter. Istället var vi tvungna att förlita oss på kvalitetsparametrar för tjänsten för att generera omlokaliseringskandidater. Baserat på resultaten av projektet drar vi slutsatsen att upptäcka kvalitetsförsämring av erfarenheter för blackbox-applikationer har tre generaliseringar. För det första har det underliggande transport- och kommunikationsprotokollet en inverkan på tillgängliga tillvägagångssätt och tillgänglig information. För det andra har implementeringen av kommunikationsprotokollet också en inverkan på tillgänglig information. Slutligen kan den underliggande infrastrukturen ha betydelse för de tillvägagångssätt som används i detta projekt.
37

Assessing Image Quality Impact of View Bypass in Cloud Rendering

Stephen A. Stamm (5930873) 15 May 2019
<p>The accessibility and flexibility of mobile devices make them an advantageous platform for gaming, but there are hardware limitations that impede the rendering of high-quality graphics. Rendering complex graphics on a mobile device typically results in a delayed image, also known as latency, and is a great discomfort for users of any real-time rendering experience. This study tests the image stream optimization View Bypass within a cloud gaming architecture, surpassing this imposing limitation by processing the high-quality game render on a remote computational server. A two sample for means test is performed to determine significance between two treatments: the control group without the View Bypass algorithm and the experimental group rendering with the View Bypass algorithm. A SSIM index score is calculated comparing the disparity between the remote server image output and the final mobile device image output after optimizations have been performed. This score indicates the overall image structural integrity difference between the two treatments and determines the quality and effectiveness of the tested algorithm.</p>
38

Posouzení informačního systému firmy a návrh změn / Information System Assessment and Proposal of ICT Modification

Barič, Filip January 2019 (has links)
This diploma thesis focuses on analysis, evaluation and improvement proposals for an information system used by a specific company from the insurance business. The company offers services to insurance companies, such as motor vehicle or property inspection and damage assessment. The first part describes the theory related to the main focus areas of this thesis. The second part contains an overview of the company, its analysis as well as evaluation of the information system used within the company. Finally, a set of proposals will be formulated, based on the outcomes of company and information system evaluation, aiming to simplify company processes and increase company’s productivity.
39

A Decentralized and Remote Controlled Webinar Approach, Utilizing Client-side Capabilities: To Increase Participant Limits and Reduce Operating Costs

Meissner, Roy, Junghanns, Kurt, Martin, Michael 09 November 2018 (has links)
We present a concept and implementation on increasing the efficiency of webinar software by a remote control approach using the technology WebRTC. This technology enables strong security and privacy, is crossdevice usable, uses open-source technology and enables a new level of interactiveness to webinars. We used SlideWiki, WebRTC, and browser speech to text engines to provide innovative accessibility features like multilingual presentations and live subtitles. Our solution was rated for real world usage aspects, tested within the SlideWiki project and we determined technological limits. Such measurements are currently not available and show that our approach outperforms open-source market competitors by efficiency and costs.
40

Resource, Data and Application Management for Cloud Federations and Multi-Clouds

Xhagjika, Vamis January 2017 (has links)
Distributed Real-Time Media Processing refers to classes of highly distributed, delay no-tolerant applications that account for the majority of the data traffic generated in the world today. Real-Time audio/video conferencing and live content streaming are of particular research interests as technology forecasts predict video traffic surpassing every other type of data traffic in the world in the near future. Live streaming refers to applications in which audio/video streams from a source need to be delivered to a set of geo-distributed destinations while maintaining low latency of stream delivery. Real-time conferencing platforms are application platforms that implement many-to-many audio/video real-time communications. Both of these categories exhibit high sensitivity to both network state (latency, jitter, packet loss, bit rate) as well as stream processing backend load profiles (latency and jitter introduced as Cloud processing of media packets). This thesis addresses enhancing real-time media processing both at the network level parameters as well as Cloud optimisations. We provide a novel, bandwidth management algorithm, for cloud services sharing the same network infrastructure, which provides a 2x improvement in system stability. Further examining network impact on cloud services, we provide a novel hybrid Cloud-Network distributed Cloud architecture to enable locality aware, application enhancements. This architecture led to a multi-cloud management overlay algorithm that maintains low management overhead on large scale cloud deployments. On the application level we provide a study of Media Quality parameters for a WebRTC enabled Media Cloud back-end, and provide patterns of quality metrics with respect to back-end stream load and network parameters. Additionally we empirically show that a "minimal load" algorithm for stream allocation, outperforms other Rotational, or Static Threshold based algorithms. / El procesamiento de medios en tiempo real distribuido se refiere a clases de aplicaciones altamente distribuidas,no tolerantes al retardo, que representan la mayoría del tráfico de datos generado en el mundo actual. Las conferenciasde audio y video en tiempo real y la transmisión de contenido en vivo tienen especial interés en investigación, ya quela prospectiva tecnológica estima que el tráfico de video supere a cualquier otro tipo de tráfico de datos en el futurocercano. La transmisión envivo se refiere a aplicaciones en las que flujos de audio/vídeo de una fuente se han de entregara un conjunto de destinos en lugares geográficos diferentes mientras se mantiene baja la latencia de entrega del flujo(como por ejemplo la cobertura de eventos en vivo). Las plataformas de conferencia en tiempo real son plataformasde  aplicación  que  implementan  comunicaciones  de  audio/video  en  tiempo  real  entre  muchos  participantes.  Ambascategorías presentan una alta sensibilidad tanto al estado de la red (latencia, jitter, pérdida de paquetes, velocidad debits) como a los perfiles de carga de la infraestructura de procesamiento de flujo (latencia y jitter introducidos duranteel procesamiento en la nube de paquetes de datos multimedia). Esta tesis trata de mejorar el procesamiento de datosmultimedia en tiempo real tanto en los parámetros de nivel de red como en las optimizaciones en la nube.En este contexto, investigamos si los recursos de la red se podían controlar a nivel de servicio para aumentar laeficiencia y el rendimiento de la red, así como cuantificar el impacto del recurso compartido de la red en la calidad delservicio. Los recursos de red compartidos afectan el rendimiento del servicio en la nube y, por lo tanto, optimizandoo intercambiando recursos de red pueden mejorar el rendimiento del servicio en la nube. Esta posible degradación delrendimiento se debe a la infraestructura de red compartida no regulada (la asignación de recursos de ancho de banda noes consciente de los objetivos del acuerdo de nivel de servicio (SLO) y de comportamiento). Gestionando el ancho debanda de la red a través de control predictivo, permitimos un mejor uso de los recursos de red disponibles y menoresviolaciones de SLO, logrando una mayor estabilidad del sistema por al menos un factor de 2.Las redes de acceso (AN) (extremo, red principal) de los ISP, transportistas y redes comunitarias no tienen unainfraestructura de nube de propósito general, mientras que los proveedores de recursos de Internet proporcionan bajodemanda recursos de la nube. Encontramos una oportunidad para la unificación de los recursos dentro de un AN y fueracon el fin de proporcionar una oferta de nube unificada a través de una federación de nubes y proporcionar movilidad delservicio hacia los usuarios para optimizar la localidad. Este trabajo de investigación proporciona una nueva arquitecturade red híbrida y nube federada que proporciona una infraestructura de red extendida con un despliegue en nube a granescala, incorporándolo directamente a la infraestructura de red. La nueva arquitectura multi-nube permite a los serviciosllegar a un compromiso entre localidad respecto al usuario o el rendimiento en tiempo de ejecución optimizando asípara latencia para conseguir la asignación óptima de recursos de aplicaciones en tiempo real. Para  optimizar  la  latencia  en  las  aplicaciones  de  transmisión  en  vivo  se  propuso  un  nuevo  algoritmo  desuperposición  de  multi-nube  autogestionado  basado  en  una  topología  de  gradiente  en  la  que  cada  nube  de  unaaplicación de transmisión de flujos optimiza la proximidad del cliente a la fuente. El modelo de aplicación se separa enun  diseño  de  dos  capas,  el  back-end  de  entrega  multi-nube  y  los  clientes  de  flujo.  El  backend  de  gradienteautorregulado minimiza la carga de tráfico creando un árbol de expansión mínimo a través de las nubes que se utilizapara  el  enrutamiento  de  cada  flujo.  El  algoritmo  propuesto  tiene  una  tasa  de  convergencia  muy  rápida  en  losdespliegues de nube a gran escala, y no resulta afectado por la rotación de recursos de la nube, así como proporcionauna mayor estabilidad de la transmisión en vivo.En este trabajo ofrecemos un análisis de calidad de los medios de comunicación y mejoras de los emisores deflujo en la nube en tiempo real, así como estrategias de asignación para mejorar el rendimiento de nivel de serviciode las plataformas de comunicación de Web en tiempo real. Los patrones de calidad de los medios están fuertementeinfluenciados por el rendimiento del procesamiento en la nube, y por lo tanto, al ajustar este aspecto, podemos controlarla calidad de los medios. En particular, demostramos empíricamente que a medida que los tamaños de sesión aumentan,la difusión simultánea supera la codificación de capa única. Además, introducimos un algoritmo de asignación de flujopara minimizar los picos de carga en los retransmisores de flujos en la nube y comparamos el comportamiento devarias políticas de asignación de flujos. Con la mínima información y el requisito de asignación de sesión de un únicoservidor, la política de asignación de carga mínima se comporta bastante mejor que otros algoritmos basados en unumbral rotativo o estático. / Distribuerad realtidshantering av mediadata syftar på klasser av starkt distribuerade tillämpningar som inte tolererar fördröjningar, och som utgör majoriteten av datatrafiken som genereras i världen idag. Audio/video-konferenser i realtid och överföring av innehåll "live" är av speciellt intresse för forskningen eftersom teknikprognoser förutser att videotrafiken kommer att kraftigt dominera över all annan datatrafik i den nära framtiden. "Live streaming" syftar på tillämpningar i vilka audio/video strömmar från en källa och behöver distribueras till en mängd av geografisk distribuerade destinationer medan överföringen bibehåller låg latens i leveransen av det strömmade datat (som ett exempel kan nämnas "live"-täckning av händelser). Konferensplattformar för realtidsdata är tillämpningsplattformar som implementerar realtidskommunikation av audio/video-data av typen "många-till-många". Båda dessa kategorier uppvisar hög känslighet för såväl nätverkets tillstånd (latens, jitter, paketförluster, bithastighet) och lastprofiler av ström bearbetning "back-end" (latens och jitter introducerat som Cloud-hantering av mediadatapaket). Denna avhandling adresserar förbättringar inom realtidshantering av mediainnehåll både med avseende på nätverksnivåns parametrar och optimeraringar för molninfrastrukturen. I detta sammanhang har vi undersökt huruvida nätverksresurserna kan kontrolleras på servicenivån i syfte att öka nätverkets effektivitet och prestanda, och även att kvantifiera påverkan av den delade nätverksresursen på servicekvaliteten. Delade nätverksresurser påverkar molntjänstens prestanda och dessa kan genom en optimering eller handel med nätverksresurser förbättra molntjänstens prestanda. Denna potentiella prestandadegradering beror på en oreglerad delad nätverksinfrastruktur (allokeringen av bandbredd är inte medveten om prestanda och mål för servicenivån). Genom att mediera nätverkets bandbredd genom prediktiv kontroll, möjliggör vi ett bättre utnyttjande av de tillgängliga nätverksresurserna och en lägre grad av avvikelser mot SLO, vilket leder till en ökad stabilitet med åtminstone en faktor 2. Accessnätverken (AN) (edge, kärnnätverk) hos ISP, bärare och lokala nätverk har ingen generell molninfrastruktur, medan s.k. "Internet Resource Providers" erbjuder resurser för molntjänster "on demand". Vi ser en möjlighet till ensande av resurserna inuti ett AN och utanför i syfte att erbjuda ett samlat molntjänsterbjudande genom s.k. "Cloud Federation" och erbjuder tjänstemobilitet för användarna för att optimera lokaliteten. Denna forskningansats erbjuder ett nytt hybrid nätverk med Federated Cloud arkitektur vilken ger en utvidgad nätverksinfrastruktur med en storskalig användning av molntjänster, som direkt inkorporerar denna i nätverksinfrastrukturen. Den nyskapande "Multi-Cloud"-arkitekturen möjliggör för tjänster att balansera lokalitet för användaren mot run-time-prestanda och därigenom optimera för latens mot optimal resursallokering för realtidstillämpningar. För att optimera latensen i "live streaming"-tillämpningar föreslås en nyskapande självstyrd "multi-Cloud-overlay"-algorithm baserad på gradienttopologi i vilken varje moln för en tillämpning inom "stream broadcasting" optimerar klientens närhet till källan. Tillämpningsmodellen separeras i en tvålagersdesign, "multi-cloud delivery back-end" och "stream clients". Denna självreglerande gradientbaserade "back-end" minimerar trafiklasten genom att skapa ett minimalt spännande träd genom molnen som används för routing av strömmarna. Den föreslagna algoritmen har en mycket snabb konvergenshastighet vid större moln, och påverkas inte av "churn" hos molnresursen liksom att den erbjuder ökad motståndskraft hos "live"-strömmen. I detta arbete erbjuder vi mediakvalitetsanalys och förstärkning av realtidsmolnets "forwarders", liksom även allokeringsstrategier för att förstärka servicenivåprestanda hos "Web Real-Time Communication"-plattformar. Mediakvalitetsmönster påverkas kraftigt av molnets bearbetsningsprestanda, och således kan vi genom att påverka denna aspekt kontrollera mediakvaliteten. Specifikt demonstrerar vi empiriskt att efterhand som sessionsstorlekarna ökar, så utklassar simulcast enlagersinkodning. Dessutom introducerar vi en strömallokeringsalgoritm för att minimera "load spikes" hos "Cloud stream forwarders" och jämför beteendet hos olika strömallokeringspolicys. Med enbart minimal information och allokeringsbehoven hos en enskild serversession beter sig den minimala lastbalansallokeringspolicyn tydligt bättre än andra "rotational"- eller "static threshold"-baserade algoritmer. / <p>QC 20170425</p>

Page generated in 0.024 seconds