Spelling suggestions: "subject:"video."" "subject:"vidas.""
181 |
Description de contenu vidéo : mouvements et élasticité temporelle / Description of video content : motion and temporal elasticityBlanc, Katy 17 December 2018 (has links)
La reconnaissance en vidéo atteint de meilleures performances ces dernières années, notamment grâce à l'amélioration des réseaux de neurones profonds sur les images. Pourtant l'explosion des taux de reconnaissance en images ne s'est pas directement répercuté sur les taux en reconnaissance vidéo. Cela est dû à cette dimension supplémentaire qu'est le temps et dont il est encore difficile d'extraire une description robuste. Les réseaux de neurones récurrents introduisent une temporalité mais ils ont une mémoire limitée dans le temps. Les méthodes de description vidéo de l'état de l'art gèrent généralement le temps comme une dimension spatiale supplémentaire et la combinaison de plusieurs méthodes de description vidéo apportent les meilleures performances actuelles. Or la dimension temporelle possède une élasticité propre, différente des dimensions spatiales. En effet, la dimension temporelle peut être déformée localement : une dilatation partielle provoquera un ralentissement visuel de la vidéo sans en changer la compréhension, à l'inverse d'une dilatation spatiale sur une image qui modifierait les proportions des objets. On peut donc espérer améliorer encore la classification de contenu vidéo par la conception d'une description invariante aux changements de vitesse. Cette thèse porte sur la problématique d'une description robuste de vidéo en considérant l'élasticité de la dimension temporelle sous trois angles différents. Dans un premier temps, nous avons décrit localement et explicitement les informations de mouvements. Des singularités sont détectées sur le flot optique, puis traquées et agrégées dans une chaîne pour décrire des portions de vidéos. Nous avons utilisé cette description sur du contenu sportif. Puis nous avons extrait des descriptions globales implicites grâce aux décompositions tensorielles. Les tenseurs permettent de considérer une vidéo comme un tableau de données multi-dimensionnelles. Les descriptions extraites sont évaluées dans une tache de classification. Pour finir, nous avons étudié les méthodes de normalisation de la dimension temporelle. Nous avons utilisé les méthodes de déformations temporelles dynamiques des séquences. Nous avons montré que cette normalisation aide à une meilleure classification. / Video recognition gain in performance during the last years, especially due to the improvement in the deep learning performances on images. However the jump in recognition rate on images does not directly impact the recognition rate on videos. This limitation is certainly due to this added dimension, the time, on which a robust description is still hard to extract. The recurrent neural networks introduce temporality but they have a limited memory. State of the art methods for video description usually handle time as a spatial dimension and the combination of video description methods reach the current best accuracies. However the temporal dimension has its own elasticity, different from the spatial dimensions. Indeed, the temporal dimension of a video can be locally deformed: a partial dilatation produces a visual slow down during the video, without changing the understanding, in contrast with a spatial dilatation on an image which will modify the proportions of the shown objects. We can thus expect to improve the video content classification by creating an invariant description to these speed changes. This thesis focus on the question of a robust video description considering the elasticity of the temporal dimension under three different angles. First, we have locally and explicitly described the motion content. Singularities are detected in the optical flow, then tracked along the time axis and organized in chain to describe video part. We have used this description on sport content. Then we have extracted global and implicit description thanks to tensor decompositions. Tensor enables to consider a video as a multi-dimensional data table. The extracted description are evaluated in a classification task. Finally, we have studied speed normalization method thanks to Dynamical Time Warping methods on series. We have showed that this normalization improve the classification rates.
|
182 |
Jeux édifiants, vertu et émotion : une éthique vidéoludiqueDeslongchamps-Gagnon, Maxime 08 1900 (has links)
Ce que nous éprouvons en jouant à des jeux vidéo indique quelque chose à propos de nous et transforme notre personne. Déterminer la valeur éthique d’un jeu vidéo requiert en conséquence de porter une attention toute spéciale à son expérience émotionnelle. Dans cette thèse de doctorat, nous nous intéressons aux émotions que nous transmettent les jeux vidéo narratifs et aux vertus qu’elles mettent en pratique. Au cours de cet examen, nous offrons une description psychologique de l’activité vidéoludique, réfléchissons à la place du jeu vidéo dans nos vies et nous munissons d’outils conceptuels pour évaluer en détail les exemples suivants : Dishonored (Arkane Studios, 2012), Frostpunk (11 bit studios, 2018), Hellblade: Senua’s Sacrifice (Ninja Theory, 2017), Neo Cab (Chance Agency, 2019), Outlast (Red Barrels, 2013), Spec Ops: The Line (Yager, 2012) et Vampyr (DONTNOD, 2018).
Notre travail est divisé en trois parties. La première présente une théorie de l’expérience émotionnelle du jeu vidéo. Nous défendons qu’une émotion survient à la rencontre d’une perception conceptuelle et d’une préoccupation, et que les jeux vidéo orchestrent leur expérience émotionnelle à l’intérieur d’une structure de progression. La seconde partie revisite les débats autour des jeux vidéo qui « engagent moralement » et de ceux qui incluent un contenu transgressif. Afin de tenir compte du rôle de l’émotion, nous introduisons une éthique de la vertu selon laquelle le jeu vidéo représente un terrain d’entraînement où se constituent nos dispositions émotionnelles. La troisième partie est consacrée à l’analyse de jeux vidéo potentiellement édifiants, qui communiquent des vertus. Nous explorons plus particulièrement la manière dont ces jeux mettent en relation le courage et la peur ainsi que la justice et la colère. / What we feel when playing video games indicates something about us and transforms our person. Determining the ethical value of a video game hence requires to pay special attention to its emotional experience. In this doctoral thesis, we are interested in emotions transmitted by narrative video games and in virtues they put into practice. During the course of this examination, we will reflect on the place of video games in our lives and will provide conceptual tools to evaluate in detail the following examples: Dishonored (Arkane Studios, 2012), Frostpunk (11 bit studios, 2018), Hellblade: Senua’s Sacrifice (Ninja Theory, 2017), Neo Cab (Chance Agency, 2019), Outlast (Red Barrels, 2013), Spec Ops: The Line (Yager, 2012) and Vampyr (DONTNOD, 2018).
Our work is divided in three parts. The first one presents a theory of the emotional experience of video games. We defend that an emotion occurs at the encounter between a conceptual perception and a concern, and that video games orchestrate their emotional experience within a progression structure. The second part revisits the debate on “morally engaging” video games and on transgressive game content. In order to take into account the role of emotion, we introduce a virtue ethics according to which video games act as a training ground where our emotional dispositions are constituted. The third part is dedicated to the analysis of potentially edifying video games, which communicates virtues. We explore more particularly how courage and fear as well as justice and anger are connected in these games.
|
183 |
Diffusion et transcodage à grande échelle de flux vidéo en direct / Delivery and transcoding for large scale live streaming systemsPires, Karine 31 March 2015 (has links)
Aujourd'hui, de nombreux appareils sont capables de capturer des vidéos en Full HD et d'utiliser une connexion réseau pour accéder à Internet. La popularisation des dispositifs et les efforts continus pour améliorer la qualité du réseau ont apporté un environnement propice à l'essor de la diffusion en direct. De par la grande quantité de contenu généré par les utilisateurs, la diffusion de flux en direct présente de nouveaux défis. Dans cette thèse, nous nous intéressons à la distribution et au transcodage des systèmes de diffusion en direct. Pour étudier les différent aspects des systèmes de diffusion en direct nous avons besoin de les caractériser et d'évaluer les solutions proposées avec des traces pertinentes. Par conséquent, notre première contribution est un ensemble de données et son analyse, contenant trois mois de traces de deux services de streaming en direct. Ensuite, nous avons exploré et développé des solutions pour la distribution du contenu produit par ces platesformes. L'un des défis est l'hétérogénéité de popularité des flux. Ceci implique généralement un surdimensionnement des services et par conséquent un gaspillage de ressources. Enfin, nous nous sommes focalisés sur les difficultés posées par le transcodage des flux en direct. Les opérations de transcodage sont coûteuses en ressources CPU et sont des étapes clés pour le Streaming à Débit Adaptatif (SDA). Nous montrons que le SDA est capable de réduire le coût en bande passante pour la distribution et d'augmenter la qualité d'expérience des téléspectateurs en échange d'un coût en ressources CPU. Pour comprendre le compromis entre les avantages et les coûts, nous formulons deux problèmes de gestion. / Today many devices are capable to capture full HD videos and to use its network connection to access Internet. The popularization of devices and continuous efforts to increase network quality has brought a proper environment for the rise of live streaming. Associated to the large scale of Users Generated Content (UGC), live streaming presents new challenges. In this thesis we target the delivery and transcoding of live streaming systems.First, to study the aspects we target of live streaming systems we need to characterize them and evaluate the proposed solutions with relevant traces. Therefore our first contribution is a data set, and its analysis, containing three months traces of two UGC live streaming services.Second, we explored and developed solutions for the delivery of the content produced by these platforms. One of the challenges is the heterogeneity among streams popularity, which generally implies over-provisioning and consequently resource waste. We show that there is a trade-off between the number of servers involved to broadcast the streams and the bandwidth usage among the servers. We also stress the importance to predict streams popularity in order to efficiently place them on the servers.Lastly, we target the difficulties concerning transcoding of live streams. The transcoding operations over streams are computing consuming and are key operations on adaptive bit rate streaming. We show that adaptive streaming is able to reduce the delivery bandwidth cost and to increase viewer quality of experience at the cost of computing resources. We formulate two management problems to address the trade-off between benefits and costs.
|
184 |
Détection de foule et analyse de comportement par analyse vidéo / Video crowd detection and behavior analysisFagette, Antoine 13 June 2014 (has links)
Cette thèse porte sur la similitude entre un fluide et une foule et sur l'adaptation de l’algorithme de Particle Video pour le suivi et l'analyse de foule, ce qui aboutit à la conception d'un système complet pour l'analyse de la foule. Cette thèse en étudie trois aspects : la détection de la foule, l'estimation de sa densité et le tracking des flux afin d'obtenir des caractéristiques de comportement.L’algorithme de détection de la foule est une méthode totalement non supervisée pour la détection et la localisation des foules denses dans des images non-contextualisées. Après avoir calculé des vecteurs de features multi-échelles, une classification binaire est effectuée afin d'identifier la foule et l'arrière-plan.L'algorithme d'estimation de densité s'attaque au problème de l'apprentissage de modèles de régression dans le cas de larges foules denses. L'apprentissage est alors impossible sur données réelles car la vérité terrain est indisponible. Notre méthode repose donc sur l'utilisation de données synthétiques pour la phase d'apprentissage et prouve que le modèle de régression obtenu est valable sur données réelles.Pour notre adaptation de l’algorithme de Particle Video nous considérons le nuage de particules comme statistiquement représentatif de la foule. De ce fait, chaque particule possède des propriétés physiques qui nous permettent d'évaluer la validité de son comportement en fonction de celui attendu d'un piéton et d’optimiser son mouvement guidé par le flot optique. Trois applications en découlent : détection des zones d’entrée-sortie de la foule, détection des occlusions dynamiques et mise en relation des zones d'entrée et de sortie selon les flux de piétons. / This thesis focuses on the similarity between a fluid and a crowd and on the adaptation of the particle video algorithm for crowd tracking and analysis. This interrogation ended up with the design of a complete system for crowd analysis out of which, this thesis has addressed three main problems: the detection of the crowd, the estimation of its density and the tracking of the flow in order to derive some behavior features.The contribution to crowd detection introduces a totally unsupervised method for the detection and location of dense crowds in images without context-awareness. After retrieving multi-scale texture-related feature vectors from the image, a binary classification is conducted to identify the crowd and the background.The density estimation algorithm is tackling the problem of learning regression models when it comes to large dense crowds. In such cases, the learning is impossible on real data as the ground truth is not available. Our method relies on the use of synthetic data for the learning phase and proves that the regression model obtained is valid for a use on real data.Our adaptation of the particle video algorithm leads us to consider the cloud of particles as statistically representative of the crowd. Therefore, each particle has physical properties that enable us to assess the validity of its behavior according to the one expected from a pedestrian, and to optimize its motion guided by the optical flow. This leads us to three applications: the detection of the entry and exit areas of the crowd in the image, the detection of dynamic occlusions and the possibility to link entry areas with exit ones, according to the flow of the pedestrians.
|
185 |
Ecriture sonore : entre déterminisme, émergence et interactivité / Sound composition : between determinism emergence and interactivityLe Prado, Cécile 12 December 2013 (has links)
L’auteur de cette thèse a réalisé, en tant que compositeur, un ensemble d’installations sonores. Ce travail part d’une composition déterministe et linéaire et mène progressivement à une œuvre ouverte. Durant les dernières années, ce travail a été influencé par les méthodes d’écritures utilisées dans la conception de jeux vidéo, aboutissant à des œuvres sonores spatiales et interactives. Dans le processus de conception de ces dernières, le compositeur va être amené à penser la conception sonore dans un espace virtuel ou réel en fonction des déplacements d’un auditeur. Une façon de mener cette démarche est de laisser l'auditeur interagir avec le système au travers de personnages non joueurs (PNJ). Un tel choix témoigne de l'évolution du rôle du compositeur depuis la construction d’une œuvre linéaire et déterministe vers celle d’une œuvre ouverte et non déterminisme. Pour une pièce donnée, le créateur laisse à l’interacteur un certain degré de liberté et au système un certain degré d'autonomie.Nous débutons ce travail par un état de l'art couvrant divers domaines, de l'art interactif aux agents intelligents.Le troisième chapitre est consacré à l'analyse des pièces interactives conçues par des musiciens, plasticiens, designers de jeux. De cette analyse, nous dégageons un ensemble de critères de classification et nous plaçons ces œuvres d'art dans un triangle Concepteur/Interacteur/Système (C.I.S.). La position d’une œuvre dans ce triangle détermine la latitude que laisse le concepteur aux deux autres protagonistes.Le quatrième chapitre pose la problématique de cette thèse. Nous sommes partis du fait qu’une méthode et à fortiori des outils informatiques sont souvent liés à un style d’écriture. L’histoire des outils d’écriture informatique, jusqu’aux moteurs de jeux vidéo, reflète des visions différentes de ce qu’est la notion d’interactivité dans un domaine et à une époque donnée. Nous proposons ici que le concepteur puisse prendre le point de vue d’un des deux autres protagonistes: l’interacteur ou les PNJ. Ceci aboutit à deux styles que nous appelons le style scripté d’une part et le style émergent d’autre part. Nous comparons ces styles d’un point de vue de l’écriture dans les jeux, de la notion de narrateur, de l’ouverture de l’œuvre et du style de programmation. Cette première comparaison formelle ne permet pas de tirer des conclusions convaincantes. Le cinquième chapitre est consacré à la conception et au développement d’une même installation, Le promeneur écoutant, selon les deux styles cités au chapitre précédent. La version scriptée a été réalisée dans le cadre du projet Terra Dynamica. Nous en proposons une seconde écriture en style émergent et comparons le résultat des deux approches. Nous parcourons l’ensemble des étapes de conception et de réalisation, de la spécification informelle à la programmation. Nous analysons du point de vue du concepteur ces deux styles. Nous montrons que le style émergent, séduisant à priori, aboutit à une complexité de création et de mise en œuvre très importante. Dans les deux cas, les lacunes et besoins en matière de méthodes et d’outils sont mis en évidence.Dans la conclusion, ce travail d’expérimentation est complété par une enquête donnant le point de vue de plusieurs concepteurs d’œuvres interactives sur notre problématique. Nous concluons par une synthèse de ce travail et une analyse de ses développements possibles tant sur le plan conceptuel de l’écriture que sur le développement d’outils auteurs. / The author of this thesis has worked as music composer on numerous sound walk art installations. During the last decade, this work has been influenced by the design methods used in video games, leading to interactive sound walk pieces. In the design process of such pieces, as compared with interactive music works, the composer must write her/his sound design in a real or a virtual space according to the listener’s promenade. A way to drive this walk is to let the listener interact with the System through Non Player Characters (NPC). Such an installation shows the evolution of the composer’s role from that of a deterministic creation to a non-deterministic one. For a given piece, the creator leaves to the interactor a certain amount of freedom and to the system, according its level of self-sufficiency, a certain amount of autonomy. According to these two parameters, each art piece can be positioned somewhere within a triangle D.I.S. which vertices are the Designer, the Interactor and the System. The main goal of this thesis is to analyze the goals and the needs of the designer of such interactive pieces, in terms of methodology and tools. We begin this work by a state of the art covering various fields, from interactive art to intelligent agents. The third chapter is devoted to the analysis of interactive pieces designed by musicians, plastic artists, game designers. From this analysis we propose a set of classification criteria and we place these art works in the DIS triangle. The fourth chapter raises the problematic of our research. We assume that the choice of a position in this triangle is directly related to a choice between two writing styles, the “scripting style” and the “emergent style”. In the scripting style, the designer takes the point of view of the interactor who becomes the narrator. In the emergent style, the designer takes the point of view of the NPC. The two styles are first compared according to the criteria presented in the previous chapter.For a deeper analysis of the two styles, we have designed, with the help of a development team, two versions of the same interactive sound installation The Listening Walker. The installation was created in Paris during the “Futur en Seine” Festival in June 2013 and shown as an art installation for ICEC 2013 in Sao paulo.The goal of this sound walk is to discover a virtual district of Paris around the Pantheon. This installation is designed as a video game with different levels of exploration. The player’s reward is the discovery of the city mainly via sound. Success depends on his listening behavior: NPC are moving around him, interpreting his moves, the direction he takes and the time spent listening particular sounds. Depending upon the listener’s attitude, each NPC has his own reaction such as running away, getting closer to the listener, ignoring him or helping him to discover secret areas. In the fifth chapter, we present the whole creation and development process of the two versions of the installation. It starts with the constraints and artistic choices. The informal specifications of the two versions are presented and the methods and programming methodologies used described. In both cases, the lack of efficient tools for non programmers is pointed out. This experiment shows also the great complexity of the emergent style compared to the scripting style: it is much more difficult to specify a world than to write a story, even an interactive one.In the conclusion, we corroborate our analysis with the point of view of creators working in different fields from interactive music to game design. Some possible extensions of this work are then presented.
|
186 |
Game Design Tools : Can They Improve Game Design Practice? / L'utilisation d'outils peut-elle améliorer la pratique du game design ?Neil, Katharine 18 December 2015 (has links)
Cette thèse constitue une recherche expérimentale pour évaluer la capacité des outils d’aide à la conception du « Game Design » de jeux vidéo. Elle cherche à dégager les éléments destinés à instrumenter et à améliorer le développement de ces outils.La production des jeux vidéos s’appuie sur de nombreux outils techniques allant des éditeurs graphiques et sonores jusqu’au moteurs de jeux. Mais, en amont, et à l’inverse des praticiens d’autres domaines du design, les concepteurs de jeux (Game designers) utilisent généralement peu d’outils dans leur travail quotidien. Bien que des modèles conceptuels et des outils logiciels aient été développés pour les assister, il manque une étude approfondie sur la pratique de ces outils. En prenant le point de vue d’un « Game Designer », notre étude se base sur une étude de terrain, menée par un participant–observateur, utilisant les outils sur 5 études de cas.Nous analysons dans un premier temps les pratiques du Game Design : les différentes activités impliquées et leur mise en œuvre dans le processus de conception. Nous nous intéressons plus particulièrement aux développe-ments et tendances actuelles.Le Chapitre 3 positionne le Game Design dans le contexte plus général des travaux en cours sur la critique et l’analyse du Design (Design Studies). Nous en concluons que le Game Design se situe plus comme dans le domaine de la conception artisanale (« craft-based ») et que l’utilisation d’outils serait une évolution vers une conception réflexive (« self-conscious »). Cette évolution constitue donc, à notre avis, une rupture par rapport aux pratiques actuelles.Le chapitre 4 retrace l’histoire du développement des outils de Game Design tant du point de vue de la recherche que de l’industrie. Ceci nous permet, au chapitre 5, de donner une définition plus précise et comparative des outils de Game Design.Le chapitre 6 formalise les questions de recherche de cette thèse et la nécessité d’une évaluation basée sur la pratique. Le point de vue méthodologique de notre travail est ensuite développé dans le chapitre 7.Nous présentons ensuite nos observations et analyses d’expériences réali-sées en utilisant une sélection d’outils reposant sur différentes approches. Parmi ces outils citons: « Articy:Draft », « Ludoscope » et « Progression Planning ». Nos critères d’évaluations sont tirés des publications sur le « Design Support » et le « Creativity Support Tool ».Au chapitre 12 nous décrivons et discutons les expériences effectuées avec un outil de design que nous avons développé dans le but d’évaluer et d’étendre l’approche « progression planning ». Nous explicitons les choix de conception de l’outil issus en partie du travail d’analyse mené dans cette thèse.La conclusion résume nos observations et introduit des principes d’amélioration des outils de « Game Design » et propose d’étendre nos travaux sur différents types d’outils et contextes d’utilisation non abordés ici. / This thesis contributes practice-led evaluation research to the question of whether game design tools can effectively support and expand game design practice. It offers insights that can be used to inform future game design tool development.Game designers, unlike most other design practitioners, typically do not use design tools in their work. While conceptual models and software tools have been developed to address this, we lack discussion and critique of how tools work in practice.Taking the point of view of a practitioner, this study of game design tools is based on longitudinal, practice-led evaluation research conducted as a par-ticipant-observer, applying game design tools to 5 contrasting game design case studies.Design tools support game design practice. In Chapter 2 I set out what that practice is today, reviewing the game design process and design activities, and giving particular attention to contemporary trends and directions.Chapter 3 situates game design within the broader context of Design Studies. After reviewing relevant ideas from this literature, I conclude that game design is best characterised as a crafts-based design discipline, and that adoption of design support would mean a shift towards “self-conscious” design. I argue that, within this context, the adoption of tools into current practice would represent a significant and disruptive change to current practice.Chapter 4 traces the history of development of game design tools within the game design and research communities. Chapter 5 goes on to offer a more precise definition of game design tools and presents a comparative review of the tools within this scope.In Chapter 6 I argue for the need bring practice-led evaluation research to this question. Here I set out my research goals and questions, before specifying the particular tools I practiced with for this study. Chapter 7 discusses methods used in relevant research fields and outlines the method used for this project.Chapter 8 introduces the game projects I used as case studies and describes how I worked with each. Chapters 9 and 10 present observations and anal-yses of my experiences using a selection of tools that vary in their approaches. These include (though not exclusively): Articy:Draft (Nevigo GMBH 2011), Machinations (Joris Dormans 2009), Ludoscope (Joris Dormans and Leijnen 2013), and “progression planning” (Butler et al. 2013). Evaluation themes and criteria are drawn from the Design Support and Creativity Support Tool literature. Chapter 11 refocuses attention on the practicalities, addressing the question of how game design tools integrate into the wider context of practice.In Chapter 12 I present and discuss my experiences with my own game de-sign tool, which I prototyped in order to evaluate and extend one of the tool approaches under study. I explain my tool design choices, some of which reflect the knowledge I have acquired through the course of this study.Chapter 13 summarises my conclusions in relation to how design tools might best support game designers, and offers ideas for further practice-led evaluation research related to this question.
|
187 |
Noise sources in robust uncompressed video watermarking / Les sources de bruit dans le tatouage robuste de vidéo non-compresséeDumitru, Corneliu Octavian 11 January 2010 (has links)
Cette thèse traite de ce verrou théorique pour des vidéos naturelles. Les contributions scientifiques développées ont permis : 1. De réfuter mathématiquement le modèle gaussien en général adopté dans la littérature pour représenter le bruit de canal ; 2. D’établir pour la première fois, le caractère stationnaire des processus aléatoires représentant le bruit de canal, la méthode développée étant indépendante du type de données, de leur traitement et de la procédure d’estimation ; 3. De proposer une méthodologie de modélisation du bruit de canal à partir d’un mélange de gaussiennes pour une transformée aussi bien en cosinus discrète qu’en ondelette discrète et pour un large ensemble d’attaques (filtrage, rotation, compression, StirMark, …). L’intérêt de cette approche est entre autres de permettre le calcul exact de la capacité du canal alors que la littérature ne fournissait que des bornes supérieure et inférieure. 4. Les contributions technologique concernent l’intégration et l’implémentions de ces modèles dans la méthode du tatouage IProtect brevetée Institut Télécom/ARTEMIS et SFR avec un gain en temps d’exécution d’un facteur 100 par rapport à l’état de l’art. / The thesis is focus on natural video and attack modelling for uncompressed video watermarking purposes. By reconsidering a statistical investigation combining four types of statistical tests, the thesis starts by identifying with accuracy the drawbacks and limitations of the popular Gaussian model in watermarking applications. Further on, an advanced statistical approach is developed in order to establish with mathematical rigour: 1. That a mathematical model for the original video content and/or attacks exists; 2. The model parameters. From the theoretical point of view, this means to prove for the first time the stationarity of the random processes representing the natural video and/or the watermarking attacks. These general results have been already validated under applicative and theoretical frameworks. On the one hand, when integrating the attack models into the IProtect watermarking method patented by Institut Télécom/ARTEMIS and SFR, a speed-up by a factor of 100 of the insertion procedure has been obtained. On the other hand, accurate models for natural video and attacks allowed the increasing of the precision in the computation of some basic information theory entities (entropies and capacity).
|
188 |
Techniques d'amélioration des performances de compression dans le cadre du codage vidéo distribué / Techniques for improving the performance of distributed video codingAbou El Ailah, Abdalbassir 14 December 2012 (has links)
Le codage vidéo distribué (DVC) est une technique récemment proposée dans le cadre du codage vidéo, et qui convient surtout à une nouvelle classe d'applications telles que la surveillance vidéo sans fil, les réseaux de capteurs multimédia, et les téléphones mobiles. En DVC, une information adjacente (SI) est estimée au décodeur en se basant sur les trames décodées disponibles, et utilisée pour le décodage et la reconstruction des autres trames. Dans cette thèse, nous proposons de nouvelles techniques qui permettent d'améliorer la qualité de la SI. Tout d'abord, le raffinement itératif de la SI est réalisé après le décodage de chaque sous-bande DCT. Ensuite, une nouvelle méthode de génération de la SI est proposée, qui utilise l'estimation des vecteurs de mouvement dans les deux sens et le raffinement Quad-tree. Ensuite, de nouvelles approches sont proposées afin de combiner les estimations globale et locale en utilisant les différences entre les blocs correspondants et la technique SVM. En plus, des algorithmes sont proposés pour améliorer la fusion au cours du décodage. En outre, les objets segmentés des trames de référence sont utilisés dans la fusion, en utilisant les courbes élastiques et la compensation de mouvement basée-objets. De nombreuses simulations ont été effectuées pour tester les performances des techniques proposés et qui montrent des gains importants par rapport au codeur classique DISCOVER. Par ailleurs, les performances de DVC obtenues en appliquant les algorithmes proposés surpassent celles de H.264/AVC Intra et H.264/AVC No motion pour les séquences testées. En plus, l'écart vis-à-vis de H.264/AVC Inter (IB...IB) est considérablement réduit. / Distributed Video Coding (DVC) is a recently proposed paradigm in video communication, which fits well emerging applications such as wireless video surveillance, multimedia sensor networks, wireless PC camera, and mobile cameras phones. These applications require a low complexity encoding, while possibly affording a high complexity decoding. In DVC, a Side Information (SI) is estimated at the decoder, using the available decoded frames, and used for the decoding and reconstruction of other frames. In this PhD thesis, we propose new techniques in order to improve the quality of the SI. First, successive refinement of the SI is performed after each decoded DCT band. Then, a new scheme for SI generation based on backward, forward motion estimations, and Quad-tree refinement is proposed. Furthermore, new methods for combining global and local motion estimations are proposed, to further improve the SI, using the differences between the corresponding blocks and Support Vector Machine (SVM). In addition, algorithms are proposed to refine the fusion during the decoding process. Furthermore, the foreground objects are used in the combination of the global and local motion estimations, using elastic curves and foreground objects motion compensation. Extensive experiments have been conducted showing that important gains are obtained by the proposed techniques compared to the classical DISCOVER codec. In addition, the performance of DVC applying the proposed algorithms outperforms now the performance of H.264/AVC Intra and H.264/AVC No motion for tested sequences. Besides that, the gap with H.264/AVC in an Inter IB…IB configuration is significantly reduced.
|
189 |
Collaborer et intéragir dans les bureaux : l'émergence matérielle, verbale et incarnée de l'organisation / Collaboration and interactions in office work : the material, verbal and embodied emergence of organisationsTuncer, Sylvaine 11 June 2014 (has links)
La thèse donne à voir et à comprendre en quoi consistent les organisations et l’expérience du travail dans les organisations à partir de l’analyse d’interactions verbales, corporelles et matérielles filmées dans des bureaux. Développant une approche praxéologique originale du côté de la recherche sur les organisations, nous contribuons en outre aux travaux sur les interactions en interrogeant la présence de l’institution dans des formats interactionnels, dans une démarche comparative que permet le corpus. L’exposition de notre ancrage théorique au croisement de ces courants nous conduit à une question épistémologique : est-il possible d’extraire des interactions en coprésence le Quoi du travail d’organisation, tel que l’ethnométhodologie a pu le formuler pour le travail professionnel ? Les résultats empiriques de l’enquête sont ensuite présentés dans cinq chapitres, chacun consacré à un phénomène ou moment de la vie dans les bureaux : les ouvertures des visites, les clôtures des visites, les appels téléphoniques pendant une interaction en coprésence, la mobilisation dans l’interaction du dispositif vidéo, et enfin les réajustements du cadre de participation. La comparaison des différents environnements de travail, des régularités au sein de chacun et entre eux, permet certaines découvertes. / The thesis endeavours to show and understand the very stuff of organisations and the experience of work in organisations, starting from the analysis of verbal, embodied and material interactions filmed in offices. Developing a praxeological, original approach within theories of organisation, we also aim to contribute to research on interactions by putting to question the relevance of institution within interactional patterns, through the comparative approach enabled by our corpus. A theoretical anchorage at the crossroads of these currents being set, we are lead to an epistemological question: is it possible to extract out of copresent interactions the What of organizing work, the way ethnomethodology did with studies of work? We present in the next five chapters our empirical results, each concerning one phenomenon or sequence of work in offices: opening a visit, closing a visit, answering an incoming phonecall during a copresent interaction, formulating the video cameras in interaction, and finally reajusting participation frame. Comparison of various work settings, of regularities between and within them, leads to some discoveries.
|
190 |
Light-field image and video compression for future immersive applications / Compression d'image et vidéo light-field pour les futures applications immersivesDricot, Antoine 01 March 2017 (has links)
L’évolution des technologies vidéo permet des expériences de plus en plus immersives. Cependant, les technologies 3D actuelles sont encore très limitées et offrent des situations de visualisation qui ne sont ni confortables ni naturelles. La prochaine génération de technologies vidéo immersives apparait donc comme un défi technique majeur, en particulier avec la prometteuse approche light-field (LF). Le light-field représente tous les rayons lumineux dans une scène. De nouveaux dispositifs d’acquisition apparaissent, tels que des ensembles de caméras ou des appareils photo plénoptiques (basés sur des micro-lentilles). Plusieurs sortes de systèmes d’affichage ciblent des applications immersives, comme les visiocasques ou les écrans light-field basés sur la projection, et des applications cibles prometteuses existent déjà (e.g. la vidéo 360°, la réalité virtuelle, etc.). Depuis plusieurs années, le light-field a stimulé l’intérêt de plusieurs entreprises et institutions, par exemple dans des groupes MPEG et JPEG. Les contenus light-feld ont des structures spécifiques et utilisent une quantité massive de données, ce qui représente un défi pour implémenter les futurs services. L'un des buts principaux de notre travail est d'abord de déterminer quelles technologies sont réalistes ou prometteuses. Cette étude est faite sous l'angle de la compression image et vidéo, car l'efficacité de la compression est un facteur clé pour mettre en place ces services light-field sur le marché. On propose ensuite des nouveaux schémas de codage pour augmenter les performances de compression et permettre une transmission efficace des contenus light-field sur les futurs réseaux. / Evolutions in video technologies tend to offer increasingly immersive experiences. However, currently available 3D technologies are still very limited and only provide uncomfortable and unnatural viewing situations to the users. The next generation of immersive video technologies appears therefore as a major technical challenge, particularly with the promising light-field (LF) approach. The light-field represents all the light rays (i.e. in all directions) in a scene. New devices for sampling/capturing the light-field of a scene are emerging fast such as camera arrays or plenoptic cameras based on lenticular arrays. Several kinds of display systems target immersive applications like Head Mounted Display and projection-based light-field display systems, and promising target applications already exist. For several years now this light-field representation has been drawing a lot of interest from many companies and institutions, for example in MPEG and JPEG groups. Light-field contents have specific structures, and use a massive amount of data, that represent a challenge to set up future services. One of the main goals of this work is first to assess which technologies and formats are realistic or promising. The study is done through the scope of image/video compression, as compression efficiency is a key factor for enabling these services on the consumer markets. Secondly, improvements and new coding schemes are proposed to increase compression performance in order to enable efficient light-field content transmission on future networks.
|
Page generated in 0.1274 seconds