• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 134
  • 60
  • 6
  • Tagged with
  • 688
  • 350
  • 135
  • 130
  • 119
  • 111
  • 106
  • 101
  • 92
  • 85
  • 85
  • 84
  • 76
  • 75
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Power allocation in overlaid DVB-LTE systems / Allocation de puissance pour des systèmes DVB et LTE en présence de recouvrement spectral

Bawab, Hiba 16 December 2015 (has links)
L'avènement de terminaux avancés permet l'accès à des services toujours plus gourmands en bande passante, avec notamment le déploiement de services de vidéo mobile sans couture offert par le mode diffusion mobile intégré standardisé par le 3GPP. Dans le même temps, la communauté << broadcast » s'est adaptée aux nouveaux usages de télévision mobile avec la norme DVB-NGH (Digital Video Broadcasting - Next Generation Handheld). Dans ce contexte, l'objectif de cette thèse est d'étudier la convergence spectrale entre les deux réseaux DVB et LTE en déployant une petite cellule LTE au sein d'une grande cellule DVB. Les deux technologies utilisent une forme d'onde OFDM (Orthogonal Frequency Division Multiplexing), en liaison descendante pour le LTE, ct possèdent donc quelques similarités tout en étant assez différentes par leurs caractéristiques. Dans ces travaux, nous nous intéressons aux performances atteignables lorsque les deux systèmes se recouvrent spectralement sans coopération. Le problème considéré étant analogue à un problème d’utilisateur secondaire opérant en mode recouvrement avec un utilisateur primaire, on commence par étudier le problème de la capacité ergodique du système secondaire, i.e. utilisateur LTE, sous contraintes de puissance moyenne générée par le secondaire sur le primaire, i.e LTE sur DVB, et de puissance crête au secondaire lorsque l'utilisateur primaire interfère sur le secondaire. Le problème est résolu analytiquement dans le cas général du canal croisé avec évanouissements de Rayleigh. Dans un deuxième temps nous étendons cette étude préliminaire au cas où la forme d'onde des deux systèmes primaire et secondaire est effectivement de type OFDM. En considérant d'abord un modèle simple de recouvrement total des sous-porteuses, nous délivrons la capacité ergodique globale ce qui nous permet d'évaluer l'influence des paramètres des systèmes, comme le nombre de sous-porteuses de chaque système ou les puissances interférentes, sur les capacités globales et individuelles. Nous nous intéressons ensuite à l'optimisation de la capacité globale où deux stratégies sont étudiées. D'une part, la capacité globale étant la somme de deux fonctions convexe et concave respectivement, la solution obtenue conduit au minimum de capacité globale mais mène à une situation d'équilibre entre les systèmes DVB et LTE. D'autre part, la maximisation de la capacité globale sous contrainte conduit à favoriser largement un système sur l'autre. Enfin, une étude fine de l'interférence causée par un système sur l'autre par recouvrement partiel est menée. L'effet de la variation du taux de recouvrement spectral entre les bandes du DVB et du LTE sur l'efficacité spectrale globale est étudié. On suppose ensuite que le récepteur possède une capacité de réjection de l'interférence permettant de déterminer le recouvrement optimal maximisant la capacité globale. Les différentes contributions de ces travaux ont permis d'avoir une approche théorique sur la modalité d'allocation de puissance des deux systèmes DVB et LTE co-existants et sur le taux de recouvrement approprié entre leurs spectres respectifs. Cette étude pourrait être ut le pour les opérateurs intéressés par un scénario de déploiement dense afin de choisir les configurations optimales des ressources dans une perspective de réutilisation agressive des fréquences. / Since the launch of the first numerical mobile telecommunications networks in the nineties, the quantity of the transmitted data over the networks is increasing year by year. Advanced user equipments enable to implement more and more bandwidth consuming services such as mobile T and multimedia internet, available in the integreted mobile broadcast mode recently standardized by the 3GPP group. In the meanwhile, the digital vide broadcasting - next generation handled (DVB-NGH) has been released in order to satisfy the increasing demand for mobile TV. These technologies compete for a more and more constrained spectral resource leading to question the possibility to deploy DVB and Long Term Evolution (LTE) service in a spectral overlay mode as it has been investigated by the Ml project funded by the National Research Agency. In this context, this thesis aims at studying the spectral convergence between DVB and LTE networks by deploying a small LTE cell in a large DVB cell. Both technologies present some similarities, i.e. both use orthogonal frequency division multiplexing (OFDM) waveform (in downlink for LTE), but technical characteristics remain rather different between those. In this work, we deal with achievable performance when DVB and LTE spectrally overlap without cooperation. The considered problem being analog to the Seconda1y User (SU) - Primary User (PU) coexistence in overlay scenario, the SU ergodic capacity under average power generated on PU and peak power at SU constaints is investigated. An analytic solution is proposed in X-Channel with Rayleigh fading. In a second time, SU and PU are considered to be LTE and DVB respectively with their particular OFDM signal characteristics. With a first model of overlapping subcarriers, LTE and DVB ergodic capacities and global capacity as well are derived in closed form allowing to study the influence of several system parameters on ergodic capacities. The global capacity is then optimized using a convex-concave procedure leading to the minimum on the global capacity but to balanced capacity on individual links. On a second hand, global capacity maximization leads to favor one system over the other. Last but not least, a careful study of the interference caused by one system over the other by partial overlay is led. The effect of spectral overlap ratio between DVB and LTE systems over the global spectral efficiency is investigated. Advanced interference rejection ability is then assumed at receivers and the optimal spectral overlap, i.e. maximizing the global capacity, is then derived in that case. The different contributions in this work give a theoretical approach on the power allocation modality of two coexisting DVB and LTE systems and on the appropriate spectral overlap ratio between their respective spectrums. This study can be useful for operators interested in dense network deployment scenarios to decide the operating point of allocated resources in a very aggressive frequency reuse pattern.
172

Addiction au jeu vidéo : Processus cognitifs émotionnels et comportementaux impliqués dans son émergence, son maintien et sa prise en charge / Video game addiction : cognitive, emotional, and behavioral processes involved in its emergence, its maintenance and its care

Taquet, Pierre 10 April 2014 (has links)
L’addiction aux jeux vidéo n’est pas, pour l’instant, un diagnostic pleinement reconnu. Pour aborder ce phénomène, nous questionnons le concept d’addiction sans substance. Reconnu comme une addiction comportementale dans le DSM-V, le jeu pathologique, concernant les jeux de hasard et d’argent, est le prototype des addictions sans substance. L’utilisation excessive des jeux vidéo a fait l’objet de multiples comparaisons avec le jeu pathologique. À l’avènement d’Internet, la recherche et la clinique se sont fortement focalisées sur l’utilisation excessive des jeux vidéo en ligne. Au regard de la littérature actuelle, nous avons choisi d’aborder l’addiction aux jeux vidéo selon la pluralité des jeux vidéo existants et des modes d’utilisation des jeux vidéo. Nos recherches se situent dans le champ de la psychologie cognitive et prennent leur source dans la clinique en lien avec les Thérapies Comportementales et Cognitives. La première étude permet de préciser les fonctionnements émotionnels, cognitifs et comportementaux des joueurs assidus de jeux vidéo. Nous décrivons un ensemble de phénomènes psychologiques qui sont en résonance avec la littérature actuelle sur l’addiction aux jeux vidéo. De plus, nous avons rapproché certaines cognitions des joueurs avec les croyances Anticipatoires, Soulageantes et Permissives décrites par Beck et al. (1993). Pour nous, des cognitions et des comportements spécifiques sous-tendent une attention soit orientée vers le jeu pour certains, soit orientée vers l’extérieur du jeu pour d’autres. Nous explorons différents moments de jeu : avant, pendant et après le jeu mais aussi au moment de gagner et au moment de perdre. Des comparaisons entre les moments de jeu révèlent une dynamique des émotions, cognitions et comportements en lien avec le jeu. La deuxième étude passe par l’opérationnalisation des variables psychologiques relevées dans la première étude et par la construction d’un nouvel outil de mesure de l’addiction aux jeux vidéo. Ce questionnaire nous a permis d’établir des groupes distincts de joueurs considérés comme excessifs et de joueurs non excessifs de jeux vidéo. Ainsi, nous avons comparé ces joueurs sur la base des émotions, cognitions et comportements propres à nos études. Des pistes thérapeutiques, en lien avec les TCC, sont discutées à partir de nos résultats. Une adaptation du modèle des addictions de Beck et al. (1993) est proposée. Deux études de cas permettent d’illustrer nos propos et d’aborder la clinique spécifique concernant l’addiction aux jeux vidéo. En plus des conclusions en lien avec nos travaux, nous abordons des pistes de recherche qui nous semblent présager de l’avenir des études sur cette thématique. Même s’il faut rester prudent, certaines données actuelles convergent vers le rapprochement entre l’addiction et l’utilisation excessive des jeux vidéo. Nos résultats s’ajoutent à cette argumentation. Avec la proposition du « trouble du jeu (vidéo) sur Internet » dans la section III du DMS-V, il est, d’autant plus, nécessaire de poursuivre les études. / Video game addiction is not yet a fully recognized diagnosis. To address this phenomenon, we question the concept of addiction without substance. Known as a behavioral addiction in DSM-V, pathological gambling is the prototype of addictions without substance. The excessive use of video games has been the subject of multiple comparisons with pathological gambling. With the advent of Internet, research and the clinical approach have highly focused on the excessive use of online games. In light of the current literature, we have chosen to address video game addiction according to the plurality of existing games and the different games modes. Our research lies in the scope of cognitive psychology and is rooted in the Cognitive Behavioral Therapy approach. The first study allows to specify the emotional, cognitive and behavioral functionings of assiduous video game players. We describe a set of psychological phenomena that are resonant with the current literature on video game addiction. In addition, some cognitions of players draw near to anticipatory, relief-oriented and permissive beliefs described by Beck et al. (1993). For us, specific cognitions and behaviors underlie an attention process which is directed towards the game for some and outwards of the game for others. We explore different game moments: before, during and after the game but also, at the moment of winning and losing. Comparisons between the game moments reveal a dynamic of emotions, cognitions and behaviors related to the game. The second study involves the operationalization of psychological variables identified in the first study and the construction of a new measure of video game addiction. This questionnaire allowed us to establish separate groups of players considered excessive and non-excessive video game players. Between these players, we performed statistical comparisons based on the emotions, cognitions and behaviors that are specific to our studies. From our results, therapeutic proposals related to CBT are discussed. An adaptation of addiction model of Beck et al. (1993) is proposed. Two case studies allow to illustrate these results and to address the specific clinical approach of the video game addiction. In addition to the conclusions related to our work, we discuss on new research avenues that seem to predict future studies on video game addiction. Even if we remain cautious, some current data converge towards the link between addiction and excessive use of video games. Our findings are added to this argumentation. With the proposal of "Internet gaming disorder" in Section III of the DMS-V, it is all the more necessary to continue studies.
173

Towards novel inter-prediction methods for image and video compression / Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos

Begaint, Jean 29 November 2018 (has links)
En raison de la grande disponibilité des dispositifs de capture vidéo et des nouvelles pratiques liées aux réseaux sociaux, ainsi qu’à l’émergence des services en ligne, les images et les vidéos constituent aujourd’hui une partie importante de données transmises sur internet. Les applications de streaming vidéo représentent ainsi plus de 70% de la bande passante totale de l’internet. Des milliards d’images sont déjà stockées dans le cloud et des millions y sont téléchargés chaque jour. Les besoins toujours croissants en streaming et stockage nécessitent donc une amélioration constante des outils de compression d’image et de vidéo. Cette thèse vise à explorer des nouvelles approches pour améliorer les méthodes actuelles de prédiction inter-images. De telles méthodes tirent parti des redondances entre images similaires, et ont été développées à l’origine dans le contexte de la vidéo compression. Dans une première partie, de nouveaux outils de prédiction inter globaux et locaux sont associés pour améliorer l’efficacité des schémas de compression de bases de données d’image. En associant une compensation géométrique et photométrique globale avec une prédiction linéaire locale, des améliorations significatives peuvent être obtenues. Une seconde approche est ensuite proposée qui introduit un schéma de prédiction inter par régions. La méthode proposée est en mesure d’améliorer les performances de codage par rapport aux solutions existantes en estimant et en compensant les distorsions géométriques et photométriques à une échelle semi locale. Cette approche est ensuite adaptée et validée dans le cadre de la compression vidéo. Des améliorations en réduction de débit sont obtenues, en particulier pour les séquences présentant des mouvements complexes réels tels que des zooms et des rotations. La dernière partie de la thèse se concentre sur l’étude des méthodes d’apprentissage en profondeur dans le cadre de la prédiction inter. Ces dernières années, les réseaux de neurones profonds ont obtenu des résultats impressionnants pour un grand nombre de tâches de vision par ordinateur. Les méthodes basées sur l’apprentissage en profondeur proposées à l’origine pour de l’interpolation d’images sont étudiées ici dans le contexte de la compression vidéo. Des améliorations en terme de performances de codage sont obtenues par rapport aux méthodes d’estimation et de compensation de mouvements traditionnelles. Ces résultats mettent en évidence le fort potentiel de ces architectures profondes dans le domaine de la compression vidéo. / Due to the large availability of video cameras and new social media practices, as well as the emergence of cloud services, images and videos constitute today a significant amount of the total data that is transmitted over the internet. Video streaming applications account for more than 70% of the world internet bandwidth. Whereas billions of images are already stored in the cloud and millions are uploaded every day. The ever growing streaming and storage requirements of these media require the constant improvements of image and video coding tools. This thesis aims at exploring novel approaches for improving current inter-prediction methods. Such methods leverage redundancies between similar frames, and were originally developed in the context of video compression. In a first approach, novel global and local inter-prediction tools are associated to improve the efficiency of image sets compression schemes based on video codecs. By leveraging a global geometric and photometric compensation with a locally linear prediction, significant improvements can be obtained. A second approach is then proposed which introduces a region-based inter-prediction scheme. The proposed method is able to improve the coding performances compared to existing solutions by estimating and compensating geometric and photometric distortions on a semi-local level. This approach is then adapted and validated in the context of video compression. Bit-rate improvements are obtained, especially for sequences displaying complex real-world motions such as zooms and rotations. The last part of the thesis focuses on deep learning approaches for inter-prediction. Deep neural networks have shown striking results for a large number of computer vision tasks over the last years. Deep learning based methods proposed for frame interpolation applications are studied here in the context of video compression. Coding performance improvements over traditional motion estimation and compensation methods highlight the potential of these deep architectures.
174

Complexity Control for Low-Power HEVC Encoding / Contrôle de la complexité pour l'encodage HEVC basse consommation d'énergie

Mercat, Alexandre 07 December 2018 (has links)
L'Internet des objets (loT) est devenu une réalité et ses applications pressenties vont fortement augmenter la demande de vidéo mobile. En conséquence, les systèmes montent en complexité algorithmique et le portage du codage vidéo sur plates-formes embarquées devient problématique. Les nouveaux contenus vidéo 4K et 360°, venant avec des résolutions spatiales (8K, 16K) et temporelles (120 images/seconde élevées compliquent encore le problème. Il est donc nécessaire de réduire l'empreinte des nouveaux codec tels que HEVC tout en préservant les performances en compression et en qualité d'image de ces codecs, La performance énergétique limitée des batteries des systèmes embarqués pousse à proposer de nouvelle méthodes pour ajuster et contrôler la complexité et l'énergie des codecs HEVC. Ce document propose un ensemble d'études dont l'objectif est d'ajuster et de contrôler la complexité et donc la consommation énergétique de l'encodeur HEVC. Deux méthodes de prédiction de découpe de CTU sont proposées : la première basée sur une approche statistique utilisant la variance de l'image et la seconde utilisant l'intelligence artificielle. À partir de cette prédiction, une méthode est proposée pour ajuster la complexité de l'encodage HEVC. Cette solution étend l'espace de recherche autour de la prédiction et alloue la complexité dans l'image afin de minimiser les dégradations en termes de compression et de qualité. Enfin un système de contrôle temps réel de la complexité d'encodage est proposé. Il démontre l'applicabilité de contributions de ce document en maintenant la complexité d'encodage proche d'une consigne. / The Internet of Things (loT) is now a reality. Forthcoming applications will boost mobile video demand to an unprecedented level. The induced increase in computational complexity is a challenge when executing in real-time new video coding standards on embedded platforms, limited in computing, memory, and energy. New 4K UHD and 360-degree video contents coming with high spatial (SK, 16K) and temporal (120fp resolutions further complicate the problem. In this context, codecs such as HEVC (High Efficiency Vide Coding) must be worked on to reduce their complexity while preserving the bitrate and image quality. Th bounded energy density of embedded system's batteries requires designers to propose new methods scaling and controlling the complexity and energy consumption of HEVC codecs. This document presents a set of studies aiming at scaling and controlling the complexity, and therefore the energy consumption, of HEVC Intra encoding. Two methods of quad-tree partitioning prediction in "one-shot are proposed: one based on variance-aware statistic approach and one based on Machine Learning using data-mining classifiers. From the obtained prediction, a generic tunable complexity scheme of HEVC encoding is introduced. It expands the search space around the original partitioning prediction and allocates complexit in a frame while minimizing performance loss in terms of bitrate and visual quality. Finally, a real-time contr system is created that dynamically manages the encoding process to keep the encoding complexity under specific tarjet. It demonstrates the a licability of the mayor contributions of this document.
175

Algorithms and optimization for quality of experience aware routing in wireless networks : from centralized to decentralized solutions / Algorithmes centralisés et distribués pour le routage basé sur la qualité d'expérience dans les réseaux sans-fil

Pham, Tran Anh Quang 27 January 2017 (has links)
Les WMNs comportent des nœuds qui sont capables de recevoir et de transmettre des données vers de multiples destinations dans le réseau. De ce fait, les WMNs sont capables de s'auto-organiser et auto-configurer dynamiquement [5]. Chaque nœud crée et maintient la connectivité avec ses voisins. La disponibilité du mode ad-hoc basée sur la norme IEEE 802.11 permet une mise en œuvre de WMNs à faible coût. Les WMNs présentent cependant deux inconvénients majeurs liés aux interférences d'une part et à la scalabilité d'autre part [6]. (D1) Le problème des interférences (D2) Le problème de scalabilité. Les solutions existantes au niveau de la couche PHY ou de la couche MAC peuvent apporter des solutions au problème des interférences mentionné ci-dessus (cf. D1) . D'un autre côté, le problème de scalabilité dans les WMNs peut être résolu par les solutions de routage efficaces [11]. En effet, les algorithmes de routage dans les WMNs sont chargés de calculer des routes pour transporter des données de multiples sauts jusqu' à atteindre les destinations. Comme illustré dans [11], les routes les plus courtes, qui sont les solutions par défaut des algorithmes de routage classiques, ont généralement plus d'interférences. En conséquences, il faut trouver des routes qui ont moins d'interférences. Pour un objectif de routage donné et des paramètres donnés, ces routes peuvent être optimales ou sub-optimales. Les objectifs de routage peuvent être par exemple de maximiser la bande passante entre utilisateurs, ou de minimiser les pertes de paquets, etc. Les paramètres dans les problèmes de routage comprennent des métriques orientées réseau et des métriques orientées utilisateur. Les métriques orientées réseau, également appelées les métriques de la qualité de service (QoS), sont dérivées à partir des paramètres réseau comme la bande passante, le délai, la gigue, etc. En revanche, les métriques orientées vers l'utilisateur, également appelées les métriques de qualité d'expérience (QoE), sont basées sur l'expérience de l'utilisateur, tels que les notes MOS (Mean Opinion Score) qui indiquent le niveau de satisfaction de l'utilisateur. La perception de l'utilisateur est un objectif majeur des services de streaming vidéo. La plupart des algorithmes de routage existants prennent des décisions de routage en fonction d'une seule ou d'une combinaison des métriques orientées réseau. Ainsi, les algorithmes de routage dans [12, 13, 14] déterminent les routes basées sur la bande passante et la charge du réseau. Cependant, les métriques orientées réseau ne sont pas nécessairement corrélée à l'expérience de l'utilisateur [15, 16, 17, 18]. En d'autres termes, les utilisateurs peuvent ne pas être satisfaits même avec les routes optimales qui sont basées sur les métriques orientés réseau. En conséquences, il est nécessaire de développer les algorithmes de routage qui tiennent compte de métriques orientées utilisateur. Cette thèse traite d'algorithmes de routage dans les WMNs avec comme objectif d'améliorer la qualité pour les applications de streaming vidéo. Les algorithmes de routage proposés prendront des décisions de routage basées sur la perception de l'utilisateur. Dans ce contexte, toutes les solutions doivent faire face aux deux challenges suivants : (M1) l'estimation en temps réel de la perception utilisateur et (M2) découverte des routes optimales ou sous-optimales. / WMNs comprise nodes that are able to receive and forward the data to other destinations in the networks. Consequently, WMNs are able to dynamically self-organize and self-configure [5]. Each node itself creates and maintains the connectivity with its neighbors. The availability of ad-hoc mode on popular IEEE 802.11 allows low-cost implementation of WMNs. Nevertheless, WMNs have two major drawbacks: interference and scalability as discussed in [6]. (D1) Interference : The independent behaviour and arbitrary deployment of nodes in WMNs can create an extremely high interference environment, which leads to degradation in the quality of wireless connections. For instance, the Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) mechanism of IEEE 802.11 (CSMA/CA) has long delays and low resource utilization in dense networks [7]. Recent advancements in physical (PHY) and medium control access (MAC) layers, such as multiple-input multiple-output (MIMO) and multiple channels MAC, can overcome this challenge. The deployment of some solutions are unable in practice because of specific requirements of hardware. Moreover, some implementations such as multiple channel MAC requires high synchronization, which is difficult in WMNs [8]. (D2) Scalability: Multi-hop communication are able to improve coverage and band-width availability in wireless networks [9]. However, it has scalability issues as discussed in [10, 11]. It means that the performance of networks deteriorates significantly when the size of networks grows. PHY layer may experience an extremely noisy medium, thus causing throughput degradation at MAC layer. Moreover, the noisy environment increases the packet loss rate, which impacts significantly to network and transport layers. The existing solutions at PHY or MAC layer can solve the interference problem mentioned in D1. Meanwhile, the scalability of WMNs could be tackled by routing solutions [11]. Routing algorithms are responsible for computing routes so as to convey data through multiple hops until reaching the destinations. As shown in [11], the shortest-path routes, which are the default solutions of conventional routing algorithms, usually have more interference. The solution, subsequently, is finding other routes that have less interference. These routes could be optimal or sub-optimal with given objectives and arguments. The arguments of routing problems comprise of network-oriented metrics and User-oriented metrics. Network-oriented metrics, also called as Quality of Service (QoS) metrics, are derived from the network directly such as bandwidth, delay, jitter, etc. Meanwhile, User-oriented metrics, also called as Quality of Experience (QoE) metrics, are based on users’ experience such as mean opinion score (MOS). They represent the level of satisfaction of a users. The good perception of users is the major objective of video streaming services. Most of existing routing algorithms give routing decisions based on single or combination of network-oriented metrics. For example, the routing algorithms in [12, 13, 14] determine routes based on the bandwidth and congestion. Nevertheless, network-oriented metrics may not be well-correlated to users’ experience [15, 16, 17, 18]. In other words, users may not be satisfied even with optimal network-oriented metric routes. As a result, it is necessary to develop routing algorithms that take user-oriented metrics into account. This thesis addresses the routing of video streaming over WMNs and proposes novel routing algorithms. These routing algorithms give routing decisions based on the perception of users. To do that, the proposed solution has to address two challenges as follows :(M1) estimate users’ perception in real-time and (M2) find optimal or sub-optimal routes efficiently.
176

La communication politique audiovisuelle à l'heure du numérique : le cas des vidéos politiques 2007-2012 / Audio-visual Political Communication in the Digital Age : the Case of Political Videos 2007-2012

Devars, Thierry 20 November 2014 (has links)
Cette recherche interroge les représentations médiatiques du politique, telles qu’elles se donnent à lire sur Internet à travers un objet de prédilection : la vidéo. À la croisée d’enjeux techniques, sémiotiques, discursifs, et de pratiques sociales historicisables, la problématique de notre thèse convoque ainsi le point de vue complexe et interdisciplinaire des SIC pour appréhender les transformations contemporaines de la communication politique audiovisuelle. Attentive au temps long de l’histoire des médias, notre approche des vidéos politiques pendant le quinquennat de Nicolas Sarkozy s’organise autour de trois grands axes analytiques. En premier lieu, nous montrons que les vidéos politiques favorisent l’émergence de nouvelles formes de visibilité et de publicité, qui redéfinissent les modes contemporains de reconnaissance médiatique du politique. Nous examinons ensuite les modalités selon lesquelles les vidéos agissent dans et sur le champ de la communication politique. Enfin, nous montrons que la lisibilité et la rhétoricité des vidéos politiques s’appuient sur les ressorts de la culture audiovisuelle. Au-Delà du règne de l’instantanéisme, ces trois temps de notre démonstration entendent mettre en perspective la place de l’image audiovisuelle dans le champ de la communication politique, / This research looks at the representation of the political sphere in the media as it appears on the Internet, through the lens of a favoured object – the video. At the junction of technical, semiotic and discursive questions, as well as historically traceable social practices, this thesis adopts the complex and interdisciplinary point of view of Communication and Information Sciences to grasp the contemporary transformations of audio-Visual political communication. Our study of political videos during Nicolas Sarkozy’s five-Year mandate takes into consideration the longer history of the media and is organized in three analytical points. First of all, we show that political videos favour the appearance of new forms of visibility and publicity, which redefine the contemporary forms of recognition of the political sphere in the media. We then look at the fashion in which political videos have an impact in and on the field of political communication. Finally, we demonstrate that the readability and rhetoricity of political videos is dependent on audiovicy (audio-Visual literacy). Aside from the reign of instantaneity, the three sections of our argument intend to shed light upon the role of audio-Visual culture in the field of political communication, without losing sight of the significant materiality of the videos or the wanderings of their mundane existence.
177

Les véhicules comme un mobile cloud : modélisation, optimisation et analyse des performances / Vehicles as a mobile cloud : modelling, optimization and performance analysis

Vigneri, Luigi 11 July 2017 (has links)
La prolifération des appareils portables mène à une croissance du trafic mobile qui provoque une surcharge du cœur du réseau cellulaire. Pour faire face à un tel problème, plusieurs travaux conseillent de stocker les contenus (fichiers et vidéos) dans les small cells. Dans cette thèse, nous proposons d'utiliser les véhicules comme des small cells mobiles et de cacher les contenus à bord, motivés par le fait que la plupart d'entre eux pourra facilement être équipée avec de la connectivité et du stockage. L'adoption d'un tel cloud mobile réduit les coûts d'installation et de maintenance et présente des contraintes énergétiques moins strictes que pour les small cells fixes. Dans notre modèle, un utilisateur demande des morceaux d'un contenu aux véhicules voisins et est redirigé vers le réseau cellulaire après une deadline ou lorsque son playout buffer est vide. L'objectif du travail est de suggérer à un opérateur comment répliquer de manière optimale les contenus afin de minimiser le trafic mobile dans le cœur du réseau. Les principales contributions sont : (i) Modélisation. Nous modélisons le scénario ci-dessus en tenant compte de la taille des contenus, de la mobilité et d'un certain nombre d'autres paramètres. (ii) Optimisation. Nous formulons des problèmes d'optimisation pour calculer les politiques d'allocation sous différents modèles et contraintes. (iii) Analyse des performances. Nous développons un simulateur MATLAB pour valider les résultats théoriques. Nous montrons que les politiques de mise en cache proposées dans cette thèse sont capables de réduire de plus que 50% la charge sur le cœur du réseau cellulaire. / The large diffusion of handheld devices is leading to an exponential growth of the mobile traffic demand which is already overloading the core network. To deal with such a problem, several works suggest to store content (files or videos) in small cells or user equipments. In this thesis, we push the idea of caching at the edge a step further, and we propose to use public or private transportation as mobile small cells and caches. In fact, vehicles are widespread in modern cities, and the majority of them could be readily equipped with network connectivity and storage. The adoption of such a mobile cloud, which does not suffer from energy constraints (compared to user equipments), reduces installation and maintenance costs (compared to small cells). In our work, a user can opportunistically download chunks of a requested content from nearby vehicles, and be redirected to the cellular network after a deadline (imposed by the operator) or when her playout buffer empties. The main goal of the work is to suggest to an operator how to optimally replicate content to minimize the load on the core network. The main contributions are: (i) Modelling. We model the above scenario considering heterogeneous content size, generic mobility and a number of other system parameters. (ii) Optimization. We formulate some optimization problems to calculate allocation policies under different models and constraints. (iii) Performance analysis. We build a MATLAB simulator to validate the theoretical findings through real trace-based simulations. We show that, even with low technology penetration, the proposed caching policies are able to offload more than 50 percent of the mobile traffic demand.
178

Description de contenu vidéo : mouvements et élasticité temporelle / Description of video content : motion and temporal elasticity

Blanc, Katy 17 December 2018 (has links)
La reconnaissance en vidéo atteint de meilleures performances ces dernières années, notamment grâce à l'amélioration des réseaux de neurones profonds sur les images. Pourtant l'explosion des taux de reconnaissance en images ne s'est pas directement répercuté sur les taux en reconnaissance vidéo. Cela est dû à cette dimension supplémentaire qu'est le temps et dont il est encore difficile d'extraire une description robuste. Les réseaux de neurones récurrents introduisent une temporalité mais ils ont une mémoire limitée dans le temps. Les méthodes de description vidéo de l'état de l'art gèrent généralement le temps comme une dimension spatiale supplémentaire et la combinaison de plusieurs méthodes de description vidéo apportent les meilleures performances actuelles. Or la dimension temporelle possède une élasticité propre, différente des dimensions spatiales. En effet, la dimension temporelle peut être déformée localement : une dilatation partielle provoquera un ralentissement visuel de la vidéo sans en changer la compréhension, à l'inverse d'une dilatation spatiale sur une image qui modifierait les proportions des objets. On peut donc espérer améliorer encore la classification de contenu vidéo par la conception d'une description invariante aux changements de vitesse. Cette thèse porte sur la problématique d'une description robuste de vidéo en considérant l'élasticité de la dimension temporelle sous trois angles différents. Dans un premier temps, nous avons décrit localement et explicitement les informations de mouvements. Des singularités sont détectées sur le flot optique, puis traquées et agrégées dans une chaîne pour décrire des portions de vidéos. Nous avons utilisé cette description sur du contenu sportif. Puis nous avons extrait des descriptions globales implicites grâce aux décompositions tensorielles. Les tenseurs permettent de considérer une vidéo comme un tableau de données multi-dimensionnelles. Les descriptions extraites sont évaluées dans une tache de classification. Pour finir, nous avons étudié les méthodes de normalisation de la dimension temporelle. Nous avons utilisé les méthodes de déformations temporelles dynamiques des séquences. Nous avons montré que cette normalisation aide à une meilleure classification. / Video recognition gain in performance during the last years, especially due to the improvement in the deep learning performances on images. However the jump in recognition rate on images does not directly impact the recognition rate on videos. This limitation is certainly due to this added dimension, the time, on which a robust description is still hard to extract. The recurrent neural networks introduce temporality but they have a limited memory. State of the art methods for video description usually handle time as a spatial dimension and the combination of video description methods reach the current best accuracies. However the temporal dimension has its own elasticity, different from the spatial dimensions. Indeed, the temporal dimension of a video can be locally deformed: a partial dilatation produces a visual slow down during the video, without changing the understanding, in contrast with a spatial dilatation on an image which will modify the proportions of the shown objects. We can thus expect to improve the video content classification by creating an invariant description to these speed changes. This thesis focus on the question of a robust video description considering the elasticity of the temporal dimension under three different angles. First, we have locally and explicitly described the motion content. Singularities are detected in the optical flow, then tracked along the time axis and organized in chain to describe video part. We have used this description on sport content. Then we have extracted global and implicit description thanks to tensor decompositions. Tensor enables to consider a video as a multi-dimensional data table. The extracted description are evaluated in a classification task. Finally, we have studied speed normalization method thanks to Dynamical Time Warping methods on series. We have showed that this normalization improve the classification rates.
179

Jeux édifiants, vertu et émotion : une éthique vidéoludique

Deslongchamps-Gagnon, Maxime 08 1900 (has links)
Ce que nous éprouvons en jouant à des jeux vidéo indique quelque chose à propos de nous et transforme notre personne. Déterminer la valeur éthique d’un jeu vidéo requiert en conséquence de porter une attention toute spéciale à son expérience émotionnelle. Dans cette thèse de doctorat, nous nous intéressons aux émotions que nous transmettent les jeux vidéo narratifs et aux vertus qu’elles mettent en pratique. Au cours de cet examen, nous offrons une description psychologique de l’activité vidéoludique, réfléchissons à la place du jeu vidéo dans nos vies et nous munissons d’outils conceptuels pour évaluer en détail les exemples suivants : Dishonored (Arkane Studios, 2012), Frostpunk (11 bit studios, 2018), Hellblade: Senua’s Sacrifice (Ninja Theory, 2017), Neo Cab (Chance Agency, 2019), Outlast (Red Barrels, 2013), Spec Ops: The Line (Yager, 2012) et Vampyr (DONTNOD, 2018). Notre travail est divisé en trois parties. La première présente une théorie de l’expérience émotionnelle du jeu vidéo. Nous défendons qu’une émotion survient à la rencontre d’une perception conceptuelle et d’une préoccupation, et que les jeux vidéo orchestrent leur expérience émotionnelle à l’intérieur d’une structure de progression. La seconde partie revisite les débats autour des jeux vidéo qui « engagent moralement » et de ceux qui incluent un contenu transgressif. Afin de tenir compte du rôle de l’émotion, nous introduisons une éthique de la vertu selon laquelle le jeu vidéo représente un terrain d’entraînement où se constituent nos dispositions émotionnelles. La troisième partie est consacrée à l’analyse de jeux vidéo potentiellement édifiants, qui communiquent des vertus. Nous explorons plus particulièrement la manière dont ces jeux mettent en relation le courage et la peur ainsi que la justice et la colère. / What we feel when playing video games indicates something about us and transforms our person. Determining the ethical value of a video game hence requires to pay special attention to its emotional experience. In this doctoral thesis, we are interested in emotions transmitted by narrative video games and in virtues they put into practice. During the course of this examination, we will reflect on the place of video games in our lives and will provide conceptual tools to evaluate in detail the following examples: Dishonored (Arkane Studios, 2012), Frostpunk (11 bit studios, 2018), Hellblade: Senua’s Sacrifice (Ninja Theory, 2017), Neo Cab (Chance Agency, 2019), Outlast (Red Barrels, 2013), Spec Ops: The Line (Yager, 2012) and Vampyr (DONTNOD, 2018). Our work is divided in three parts. The first one presents a theory of the emotional experience of video games. We defend that an emotion occurs at the encounter between a conceptual perception and a concern, and that video games orchestrate their emotional experience within a progression structure. The second part revisits the debate on “morally engaging” video games and on transgressive game content. In order to take into account the role of emotion, we introduce a virtue ethics according to which video games act as a training ground where our emotional dispositions are constituted. The third part is dedicated to the analysis of potentially edifying video games, which communicates virtues. We explore more particularly how courage and fear as well as justice and anger are connected in these games.
180

Diffusion et transcodage à grande échelle de flux vidéo en direct / Delivery and transcoding for large scale live streaming systems

Pires, Karine 31 March 2015 (has links)
Aujourd'hui, de nombreux appareils sont capables de capturer des vidéos en Full HD et d'utiliser une connexion réseau pour accéder à Internet. La popularisation des dispositifs et les efforts continus pour améliorer la qualité du réseau ont apporté un environnement propice à l'essor de la diffusion en direct. De par la grande quantité de contenu généré par les utilisateurs, la diffusion de flux en direct présente de nouveaux défis. Dans cette thèse, nous nous intéressons à la distribution et au transcodage des systèmes de diffusion en direct. Pour étudier les différent aspects des systèmes de diffusion en direct nous avons besoin de les caractériser et d'évaluer les solutions proposées avec des traces pertinentes. Par conséquent, notre première contribution est un ensemble de données et son analyse, contenant trois mois de traces de deux services de streaming en direct. Ensuite, nous avons exploré et développé des solutions pour la distribution du contenu produit par ces platesformes. L'un des défis est l'hétérogénéité de popularité des flux. Ceci implique généralement un surdimensionnement des services et par conséquent un gaspillage de ressources. Enfin, nous nous sommes focalisés sur les difficultés posées par le transcodage des flux en direct. Les opérations de transcodage sont coûteuses en ressources CPU et sont des étapes clés pour le Streaming à Débit Adaptatif (SDA). Nous montrons que le SDA est capable de réduire le coût en bande passante pour la distribution et d'augmenter la qualité d'expérience des téléspectateurs en échange d'un coût en ressources CPU. Pour comprendre le compromis entre les avantages et les coûts, nous formulons deux problèmes de gestion. / Today many devices are capable to capture full HD videos and to use its network connection to access Internet. The popularization of devices and continuous efforts to increase network quality has brought a proper environment for the rise of live streaming. Associated to the large scale of Users Generated Content (UGC), live streaming presents new challenges. In this thesis we target the delivery and transcoding of live streaming systems.First, to study the aspects we target of live streaming systems we need to characterize them and evaluate the proposed solutions with relevant traces. Therefore our first contribution is a data set, and its analysis, containing three months traces of two UGC live streaming services.Second, we explored and developed solutions for the delivery of the content produced by these platforms. One of the challenges is the heterogeneity among streams popularity, which generally implies over-provisioning and consequently resource waste. We show that there is a trade-off between the number of servers involved to broadcast the streams and the bandwidth usage among the servers. We also stress the importance to predict streams popularity in order to efficiently place them on the servers.Lastly, we target the difficulties concerning transcoding of live streams. The transcoding operations over streams are computing consuming and are key operations on adaptive bit rate streaming. We show that adaptive streaming is able to reduce the delivery bandwidth cost and to increase viewer quality of experience at the cost of computing resources. We formulate two management problems to address the trade-off between benefits and costs.

Page generated in 0.0288 seconds