• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et implémentation d’un système d’information de gestion de flux multimedia pour des architectures logicielles intégrant des appareils sans-fil mobiles / Information System for Multimedia Applications

Derdour, Makhlouf 12 February 2012 (has links)
Le développement d'applications pour l'informatique pervasive présente un certain nombre de défis pour l'ingénierie des logiciels. En particulier, l'adaptation des applications sensibles au contexte : adaptation à l’environnement (localisation, temps, condition, …), à la connectivité (débit, protocole, …), aux limitations de l'appareil (écran, format de média, …) et même à l’utilisateur (handicap physique, capacité, …). Dans ce contexte où le multimédia, la mobilité des utilisateurs et l'ubiquité des applications se généralisent, les fournisseurs de logiciel souhaitent offrir des applications adaptables (sensibles au contexte). Beaucoup d’efforts ont été consacrés à l’assemblage et au réassemblage de composants, ainsi qu’à l’adaptation fonctionnelle par remplacement ou reconfiguration des composants afin de satisfaire le nouveau besoin ou le nouveau contexte. La problématique que nous abordons dans cette thèse est celle de l’hétérogénéité comportementale ou sémantique des composants. L’objectif est de fournir des mécanismes permettant l’adaptation des flux de données multimédia dans des applications basées composants. Pour cela, l’architecture doit être capable de vérifier la possibilité d’assemblage des composants à partir de leurs manifestes (un manifeste doit contenir les informations techniques d’un composant). L’assemblage peut ne pas se faire pour deux raisons : incompatibilité fonctionnelle et/ou comportementale. Notre travail porte sur la deuxième raison, dans le cas où les interfaces d’un composant ne seront pas compatibles avec celles des composants voisins. Par exemple un composant fournit des images de type PNG, alors que l’autre n’accepte que des images JPEG. La mise en évidence de l’interopérabilité des composants dans un assemblage est une nécessité dans de telles approches. En effet, les architectures logicielles valident les aspects fonctionnels, ce qui n’est pas suffisant pour garantir un assemblage réaliste et remédier aux problèmes d’hétérogénéité des flux de données échangés. Nous proposons, pour mettre en évidence l’interopérabilité et permettre de trouver des solutions aux problèmes d’hétérogénéité, une approche basée modèle appelée MMSA (Meta-model for MultiMedia Software Architecture). Elle permet la description d’architectures logicielles exprimant un système logiciel comme une collection de composants qui manipulent différents types et formats de données et qui interagissent par l’intermédiaire de connecteurs d’adaptation. Nous définissons aussi un profil UML 2.0 pour exprimer et modéliser les nouveaux concepts et contraintes du méta modèle MMSA. La transition vers un profil UML est assurée par les mécanismes d'extension fournis par UML 2.0 afin d'améliorer la vérification et la cohérence des architectures décrites en MMSA. Nous proposons pour assurer la cohérence des applications vis à vis des changements du contexte, une plate-forme d’adaptation dynamique. Cette plate-forme surveille et contrôle l’exécution des applications multimédia afin de détecter les changements éventuels du contexte. En cas d’un changement, la plate-forme cherche les solutions possibles et prend la décision adéquate pour l’adaptation de l’application au nouveau contexte. Ensuite, la plate-forme cherche et choisit les services d’adaptation nécessaires afin de les intégrer dans des connecteurs d’adaptation et les réassembler avec les composants métiers de l’application. Afin d’examiner la projection de MMSA en UML 2.0, les contraintes OCL ont été évaluées dynamiquement sur un modèle de système de surveillance. Nous proposons aux architectes logiciels, un outil qui donne la possibilité de vérifier le modèle d’architecture à chaque modification afin d’assurer sa cohérence structurelle et sémantique. Les différents tests et validations effectués sur les modèles d’architecture garantissent parfaitement notre projection. / The development of applications for pervasive computing presents a number of challenges for software engineering. In particular, the adaptation of context-aware applications: adapting to the environment (location, time, condition, etc.), connectivity (bit-rate, protocol, etc.), the limitations of the device (screen size media ...) and even the user (physical handicaps, ability, etc.). The programmer is always faced with a complex combination of factors that occur throughout the application. In this context where the multimedia, the mobility of user and the ubiquitous application generalizes, providers want to offer adaptable software applications (context sensitive). Much effort has been devoted to assembly and reassembly of components, thus to the functional adaptation by replacement or reconfiguration of the components in order to satisfy the new need or the new context. The problem we tackle in this thesis is that of semantic and behavioral heterogeneity of components. The objective is to provide mechanisms for adapting multimedia data flows in applications based components, i.e. ensuring the assembly of heterogeneous components. For this, the architecture must be able to check the possibility of assembling components from the manifest (a manifest must contain the technical information of component). The assembly may not accept for two reasons: functional and/or behavioral incompatibility. Our work focuses on the second reason, in case the interfaces of component will not be compatible with the interfaces of adjacent components. For example, it provides images of PNG type, while the other accepts only JPEG images. The taken into account of components interoperability in an assembly is a necessity in such approaches. Indeed, software architectures validate the functional aspects, which is not sufficient to ensure a realistic assembly and to remedy the problems of heterogeneous of data flow exchanged. We propose to take into account the interoperability and to find solutions to problems of heterogeneity, an approach called model MMSA (Meta-Model for Multimedia Software Architecture). It allows the description of software architectures expressing a software system as a collection of components that handle various data types and formats and which interact through connectors to adaptation. We also define a UML 2.0 profile to express and model the new concepts and constraints of MMSA meta-model. The transition to a UML profile is provided by the extension mechanisms provided by UML 2.0 in order to improve the verification and consistency of architectures described in MMSA. We propose for ensure the coherence of applications aim at screw of changing context, a platform of dynamic adaptations. The dynamic adaptation is the process by which a software application is modified in order to take into account a change, be it level of the environment or the application itself, the platform monitors and controls the execution of multimedia applications to detect any change of context. In the event of a change, the platform seeks the possible solutions and takes the appropriate decision to adapt the application to the new context. Then, the platform seeks and selected the services of adaptation necessary in order to integrate them in connectors of adaptation and reassembled with the business components of application. In order to examine the projection of MMSA in UML 2.0, the OCL constraints were dynamically evaluated on a model of monitoring system. We have proposed to the software architects, a tool which gives the possibility of checking the model of architecture to each modification in order to ensure its structural and semantic coherence. The various tests and validations carried out on the models of architecture guarantee our projection perfectly. This visual model supports the creation and the management of models MMSA for software applications.
2

L4S in 5G networks / L4S i 5G-nätverk

Brunello, Davide January 2020 (has links)
Low Latency Low Loss Scalable Throughput (L4S) is a technology which aims to provide high throughput and low latency for the IP traffic, lowering also the probability of packet loss. To reach this goal, it relies on Explicit Con- gestion Notification (ECN), a mechanism to signal congestion in the network avoiding packets drop. The congestion signals are then managed at sender and receiver side thanks to scalable congestion control algorithms. Initially, in this work the challenges to implement L4S in a 5G network have been analyzed. Using a proprietary state-of-the-art network simulator, L4S have been imple- mented at the Packed Data Convergence Protocol layer in a 5G network. The 5G network scenario represents a context where the physical layer has a carrier frequency of 600 MHz, a transmission bandwidth of 9 MHz, and the proto- col stack follows the New Radio (NR) specifications. L4S has been adopted to support Augmented Reality (AR) video gaming traffic, using the IETF ex- perimental standard Self-Clocked Rate Adaptation for Multimedia (SCReAM) for congestion control. The results showed that when supported by L4S, the video gaming traffic experiences lower delay than without L4S support. The improvement on latency comes with an intrinsic trade-off between throughput and latency. In all the cases analyzed, L4S yields to average application layer throughput above the minimum requirements of high-rate latency-critical ap- plication, even at high system load. Furthermore, the packet loss rate has been significantly reduced thanks to the introduction of L4S, and if used in combi- nation with a Delay Based Scheduler (DBS), a packet loss rate very close to zero has been reached. / Low Latency Low Loss Scalable Throughput (L4S) är en teknik som syftar till att ge hög bittakt och låg fördröjning för IP-trafik, vilket också minskar sanno- likheten för paketförluster. För att nå detta mål förlitar det sig på Explicit Cong- estion Notification (ECN), en mekanism för att signalera "congestion", det vill säga köuppbyggnad i nätverket för att undvika att paketet kastas. Congestion- signalerna hanteras sedan vid avsändare och mottagarsida där skalbar anpass- ning justerar bittakten efter rådande omständigheter. I detta arbete har utma- ningarna att implementera L4S i ett 5G-nätverk analyserats. Sedan har L4S implementerats på PDCP lagret i ett 5G-nätverkssammanhang genom att an- vända en proprietär nätverkssimulator. För att utvärdera fördelarna med imple- menteringen har L4S-funktionerna använts för att stödja Augmented Reality (AR) videospelstrafik, med IETF-experimentella standard Self-Clocked Rate Adaptation for Multimedia (SCReAM) för bitrate-kontroll. Resultaten visade att med stöd av L4S upplever videospelstrafiken lägre latens än utan stöd av L4S. Förbättringen av latens kommer med nackdelen av en minskning av bit- takt som dikteras av den inneboende avvägningen mellan bittakt och latens. I vilket fall som helst är kapacitetsminskningen med L4S rimlig, eftersom goda kapacitetsprestanda har uppnåtts även vid hög systembelastning. Vidare har paketförlustfrekvensen reducerats avsevärt tack vare införandet av L4S, och om den används i kombination med en Delay baserad schemaläggare (DBS) har en paketförluster mycket nära noll uppnåtts.
3

Étude et implantation d'algorithmes de compression vidéo optimisés H.264/AVC dans un environnement conjoint matériel et logiciel / Study and Implementation of Algorithms for H.264/AVC Compression in a Hardware and Software Environment

Kthiri, Moez 04 April 2012 (has links)
La contribution de cette thèse concerne le développement et la conception d’un système multimédia embarqué basé sur l’approche de conception conjointe matérielle/logicielle (codesign). Il en résulte ainsi la constitution d’une bibliothèque de modules IP (Intellectual Property) pour les applications vidéo. Dans ce contexte, une plateforme matérielle de validation a été réalisée servant au préalable à l’évaluation de l’approche de conception en codesign pour l’étude d’algorithmes de traitement vidéo. Nous nous sommes ainsi intéressés en particulier à l’étude et à l’implantation de la norme de décompression vidéo H.264/AVC. Pour la validation fonctionnelle, l’ensemble du développement a été réalisé autour d’une carte Xilinx à base d’un circuit programmable FPGA Xilinx Virtex-5en mettant en œuvre le processeur hardcore PowerPC du circuit programmable dans l’environnement logiciel Linux pour l’embarqué. Le décodeur H.264/AVC ainsi développé comporte différents accélérateurs matériels pour la transformation inverse ainsi que le filtre anti-blocs. Nous avons pu tester les performances au regard du respect des contraintes temporelles en intégrant une extension temps réel à la plateforme de validation suivant différentes conditions de stress du système. L’extension temps réel Xenomai fournit ainsi une réponse adéquate aux problématiques de charge du système et de maîtrise des contraintes temporelles inhérentes à tout système de traitement vidéo tout en autorisant aussi l’utilisation d’applications classiques mises en œuvre dans l’environnement standard Linux embarqué. / The main contribution of this thesis concerns the development and the design of an embedded system for multimedia based on the codesign approach (HW/SW). Towards this end, a library off lexible IP cores (Intellectual Property) for video applications was created. In this context, a hardware platform was used for evaluation of the codesign-based approach in order to study video processingalgorithms. Thus, we particularly focused on the study and the implementation of H.264/AVC decoder. For functional validation, the entire development was carried out around a FPGA Virtex-5 Xilinx board embedding a hardcore PowerPC processor running embedded Linux operating system. The H.264/AVC developed decoder consists of hardware accelerators for the inverse transformation and the deblocking filter. We evaluated the performances in terms of respect of temporal constraints by integrating a real-time extension to the validation platform under different stress conditions. The Xenomai real-time extension has proven its high performance level of compliance with hard real-time constraints. This extension offers a real solution for real-time behavior without limiting the use of conventional applications implemented traditionally in a time sharing environment.

Page generated in 0.0721 seconds