• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Information visuelle multirésolution pour l'estimation de la vitesse du trafic routier

Godin, Olivier January 2013 (has links)
La hausse du taux d'occupation des routes rend nécessaire l'utilisation de dispositifs visant à surveiller et analyser la circulation des utilisateurs du réseau routier. Bien souvent, des réseaux de surveillance par caméras sont déjà en place sur les routes. L'information visuelle est donc déjà disponible, mais est peu utilisée pour l'analyse automatisée du trafic. L'objectif de ce travail est de mettre au point une méthode automatisée basée sur l'information visuelle multirésolution permettant d'évaluer la fluidité de la circulation à plusieurs niveaux de précision. En effet, si une analyse manuelle de l'information visuelle peut permettre de dégager certaines tendances sur l'état du trafic routier, une approche automatisée permettra d'évaluer plus précisément plusieurs données sur le mouvement des véhicules. En tout temps, le déplacement moyen dans la scène sera évalué, afin d'obtenir un indice de fluidité global. Tant que la circulation demeure fluide, il n'est pas nécessaire d'estimer la vitesse du trafic avec plus de précision. Toutefois, si cet indice descend sous un certain seuil, l'analyse sera raffinée pour fournir le déplacement moyen par direction, en utilisant une résolution deux fois supérieure à la précédente. Finalement, à partir des images à pleine résolution, il sera possible d'obtenir une mesure du déplacement de chaque véhicule.
2

Pré-analyse de la vidéo pour un codage adapté. Application au codage de la TVHD en flux H.264

Brouard, Olivier 20 July 2010 (has links) (PDF)
Les méthodes d'optimisation d'un codeur vidéo classique ne traitent l'information à réduire que d'un point de vue signal et sont donc « bas niveau ». Bien que des travaux intégrant des propriétés du SVH soient proposés pour l'évaluation de la qualité, ou améliorer les techniques de codage, ces méthodes sont peu retenues au niveau des standards. Les travaux de recherche se portent davantage sur l'enrichissement des nouvelles normes, tel que le standard H.264. Cependant, les méthodes « haut niveau » obtiennent des performances encourageantes. Nous proposons donc une méthode de pré-analyse de la vidéo, qui intègre un modèle de l'attention visuelle. Le but est d'analyser la vidéo en tenant compte des informations haut niveau, pour transmettre au codeur le jeu de paramètres optimal afin d'exploiter au mieux les outils de codage. Les études réalisées pour modéliser l'attention visuelle ont mis en évidence le caractère primordial du contraste de mouvement. Notre méthode de pré-analyse détecte d'abord les objets en mouvement (par rapport à celui de la caméra), puis calcule les cartes de saillance permettant de déterminer les zones visuellement importantes. Nous proposons deux applications de codage (qui peuvent être utilisées conjointement) en fonction des informations obtenues après la pré-analyse, ainsi que l'évaluation de leurs performances. La première propose de modifier adaptativement la structure du GOP en fonction du contenu spatiotemporel de la vidéo. La deuxième concerne une application de compression de la vidéo avec une qualité visuelle différenciée guidée par les cartes de saillance. Les performances sont analysées à partir de tests d'évaluation subjective de la qualité.
3

Analyse des comportements et expérience utilisateurs d'une plateforme de visioconférence pour l'enseignement des langues : Le cas de la phase 1.0 de VISU / User behaviour analysis and user experience in a videoconferencing platform : VISU, phase 1.0

Codreanu, Tatiana 30 June 2014 (has links)
Cette recherche a pour objet l’étude des comportements des utilisateurs d’une plateforme de visioconférence poste à poste. Les utilisateurs de la plateforme sont deux groupes de tuteurs et leurs étudiantes ; le groupe de tuteurs est constitué de tuteurs en formation (de futurs enseignants en formation universitaire professionnalisante) et d’enseignants de FLE utilisant les outils du web 2.0. Cette recherche a pour cadre l’enseignement du FLE à destination d’un groupe d'étudiantes américaines de l’université de Californie Berkeley donné de janvier à mars 2010 sur une plateforme d’apprentissage vidéographique synchrone. La plateforme VISU, a été développé suivant une démarche originale, la conception d’une plateforme destinée a l’enseignement/apprentissage des langues. La particularité de ce projet réside dans le fait qu’un équipe de chercheurs et de développeurs ont accompagné les tuteurs et les étudiantes lors de cette expérimentation afin d’améliorer l’utilisabilté de VISU d’une séance sur l’autre. À travers une analyse de deux tâches dans les configurations qui placent un tuteur devant deux étudiantes, deux tuteurs devant deux étudiantes et un tuteur devant une étudiante, et d’une micro-analyse portant sur la transmission des consignes, nous tentons d’observer le discours et la mimo-gestualité témoignant de leur expérience utilisateur au contact de la technologie utilisée. Nous étudions également l’utilisation qu’ils font des différents outils textuels de communication, des ressources présentes sur la plateforme, ainsi que celle de la caméra. Nous discutons les résultats qualitatifs en vue de mettre au jour leurs comportements d’utilisateurs d’une plateforme en cours de construction. La méthode s’appuie sur la triangulation des données. Aux échanges en ligne du corpus multimodal est appliquée une analyse de la mimo-gestualité, ainsi qu’analyse de discours et des interactions. Des entretiens, des questionnaires et les perceptions des étudiantes et des tuteurs viennent éclairer l’analyse de leur vécu et de leur ressenti. Ce travail de recherche tente donc à travers la description de la communication pédagogique synchrone de mieux comprendre les différentes pratiques, principalement discursives et mimo-gestuelles, des tuteurs et des étudiantes engagés dans une formation en ligne. / This research studies the behavior of users of a desktop videoconferencing platform VISU (designed to deliver online courses), through the multimodal pedagogical communication of two groups of teachers: trainee tutors and experienced teachers based in different locations who taught French as a Foreign Language to a group of students from UC Berkeley in 2010. A team of researchers and developers worked together with the tutors in this experiment to improve the usability of the platform, which was under construction during the course of the study. In understanding the experience of users while using the tool, due to the performance limitations of the tool under construction, a new method of analysing data was devised in which user behavior was studied through discourse analysis, mimogestuality and the usage of tools including chat and webcam. Specifically, we analysed the usage of different tools (text based tools) as well as the webcam’s effects on user behavior. Then, through a micro analysis of the pedagogical instruction, we identified the role of these different communication tools used by the tutors in conveying the meaning of the task to be carried out. Interviews, questionnaires and perceptions of students and tutors were gathered to inform the analysis of their experiences and their feelings. This research therefore attempts, through the description of the synchronous teaching communication, to better understand the different practices, mainly discursive and mimo-gestural, of tutors and students engaged in the multimodal learning. In addition, a key significance of this study is that it demonstrates the value of considering user experience (UX) in studies involving language learning through technology. At the same time, it also indicates the value of including discourse analysis and mimogestuality in user experience research involving interactive pedagogical tools.
4

Transformations polynomiales, applications à l'estimation de mouvements et la classification / Polynomial transformations, applications to motion estimation and classification

Moubtahij, Redouane El 11 June 2016 (has links)
Ces travaux de recherche concernent la modélisation de l'information dynamique fonctionnelle fournie par les champs de déplacements apparents à l'aide de base de polynômes orthogonaux. Leur objectif est de modéliser le mouvement et la texture extraites afin de l'exploiter dans les domaines de l'analyse et de la reconnaissance automatique d'images et de vidéos. Nous nous intéressons aussi bien aux mouvements humains qu'aux textures dynamiques. Les bases de polynômes orthogonales ont été étudiées. Cette approche est particulièrement intéressante car elle offre une décomposition en multi-résolution et aussi en multi-échelle. La première contribution de cette thèse est la définition d'une méthode spatiale de décomposition d'image : l'image est projetée et reconstruite partiellement avec un choix approprié du degré d'anisotropie associé à l'équation de décomposition basée sur des transformations polynomiales. Cette approche spatiale est étendue en trois dimensions afin d'extraire la texture dynamique dans des vidéos. Notre deuxième contribution consiste à utiliser les séquences d'images qui représentent les parties géométriques comme images initiales pour extraire les flots optiques couleurs. Deux descripteurs d'action, spatial et spatio-temporel, fondés sur la combinaison des informations du mouvement/texture sont alors extraits. Il est ainsi possible de définir un système permettant de reconnaître une action complexe (composée d'une suite de champs de déplacement et de textures polynomiales) dans une vidéo. / The research relies on modeling the dynamic functional information from the fields of apparent movement using basic orthogonal polynomials. The goal is to model the movement and texture extracted for automatic analysis and recognition of images and videos. We are interested both in human movements as dynamic textures. Orthogonal polynomials bases were studied. This approach is particularly interesting because it offers a multi-resolution and a multi-scale decomposition. The first contribution of this thesis is the definition of method of image spatial decomposition: the image is projected and partially rebuilt with an appropriate choice of the degree of anisotropy associated with the decomposition equation based on polynomial transformations. This spatial approach is extended into three dimensions to retrieve the dynamic texture in videos. Our second contribution is to use image sequences that represent the geometric parts as initial images to extract color optical flow. Two descriptors of action, spatial and space-time, based on the combination of information of motion / texture are extracted. It is thus possible to define a system to recognize a complex action (composed of a series of fields of motion and polynomial texture) in a video.
5

Analyse et enrichissement de flux compressés : application à la vidéo surveillance / Compressed streams analysis and enrichment : application to video surveillance

Leny, Marc 17 December 2010 (has links)
Le développement de réseaux de vidéosurveillance, civils ou militaires, pose des défis scientifiques et technologiques en termes d’analyse et de reconnaissance des contenus des flux compressés. Dans ce contexte, les contributions de cette thèse portent sur : - une méthode de segmentation automatique des objets mobiles (piétons, véhicules, animaux …) dans le domaine compressé, - la prise en compte des différents standards de compression les plus couramment utilisés en surveillance (MPEG-2, MPEG-4 Part 2 et MPEG-4 Part 10 / H.264 AVC), - une chaîne de traitement multi-flux optimisée depuis la segmentation des objets jusqu’à leur suivi et description. Le démonstrateur réalisé a permis d’évaluer les performances des approches méthodologiques développées dans le cadre d’un outil d’aide à l’investigation, identifiant les véhicules répondant à un signalement dans des bases de données de plusieurs dizaines d’heures. En outre, appliqué à des corpus représentatifs des différentes situations de vidéosurveillance (stations de métro, carrefours, surveillance de zones en milieu rural ou de frontières ...), le système a permis d’obtenir les résultats suivants : - analyse de 14 flux MPEG-2, 8 flux MPEG-4 Part 2 ou 3 flux AVC en temps réel sur un coeur à 2.66 GHZ (vidéo 720x576, 25 images par seconde), - taux de détection des véhicules de 100% sur la durée des séquences de surveillance de trafic, avec un taux de détection image par image proche des 95%, - segmentation de chaque objet sur 80 à 150% de sa surface (sous ou sur-segmentation liée au domaine compressé). Ces recherches ont fait l’objet du dépôt de 9 brevets liés à des nouveaux services et applications rendus opérationnels grâce aux approches mises en oeuvre. Citons entre autres des outils pour la protection inégale aux erreurs, la cryptographie visuelle, la vérification d’intégrité par tatouage ou l’enfouissement par stéganographie / The increasing deployment of civil and military videosurveillance networks brings both scientific and technological challenges regarding analysis and content recognition over compressed streams. In this context, the contributions of this thesis focus on: - an autonomous method to segment in the compressed domain mobile objects (pedestrians, vehicles, animals …), - the coverage of the various compression standards commonly used in surveillance (MPEG-2, MPEG-4 Part 2, MPEG-4 Part 10 / H.264 AVC), - an optimised multi-stream processing chain from the objects segmentation up to their tracking and description. The developed demonstrator made it possible to bench the performances of the methodological approaches chosen for a tool dedicated to help investigations. It identifies vehicles from a witness description in databases of tens of hours of video. Moreover, while dealing with corpus covering the different kind of content expected from surveillance (subway stations, crossroads, areas in countryside or border surveillance …), the system provided the following results: - simultaneous real time analysis of up to 14 MPEG-2 streams, 8 MPEG-4 Part 2 streams or 3 AVC streams on a single core (2.66 GHz; 720x576 video, 25 fps), - 100% vehicles detected over the length of traffic surveillance footages, with a image per image detection near 95%, - a segmentation spreading over 80 to 150% of the object area (under or over-segmentation linked with the compressed domain). These researches led to 9 patents linked with new services and applications that were made possible thanks to the suggested approaches. Among these lie tools for Unequal Error Protection, Visual Cryptography, Watermarking or Steganography

Page generated in 0.0844 seconds