• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 7
  • 2
  • Tagged with
  • 19
  • 19
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Système coopératif de perception et de communication pour la protection des usagers vulnérables / Cooperative perception and communication system for the protection of vulnerable road users

Merdrignac, Pierre 16 October 2015 (has links)
Les systèmes de transports intelligents coopératifs (C-ITS) offrent des opportunités pour améliorer la sécurité routière et particulièrement la sécurité des usagers vulnérables (VRU), e.g., piétons et cyclistes. La principale source d'accidents provient de l'incapacité des usagers, véhicules et VRUs, à détecter le danger avant qu'une collision soit inévitable. Nous introduisons un système de perception qui s'appuie sur les données des capteurs laser et caméra pour estimer l'état des VRUs entourant le véhicule. Une technique de classification multi-classes des obstacles routiers à partir de données laser a été développée en utilisant une méthode d'apprentissage statistique et une estimation bayésienne. Nous proposons une architecture de communication véhicules-piétons (V2P) qui prend en compte les faibles ressources énergétiques des smartphones transportés par les piétons. Notre solution s'appuie sur les standards définis dans l'architecture de communication véhiculaire ETSI ITS et propose une dissémination géographique pour la communication V2P. Un système coopératif perception/communication a le potentiel de gérer des scénarios de plus en plus complexes en combinant la capacité de la perception à estimer l'état dynamique des obstacles détectés et la capacité de la communication à échanger un contenu riche entre des usagers éloignés. Nous introduisons une fusion multi-hypothèses entre les informations de perception et de communication et une application pour smartphone destinée à protéger les VRUs des dangers de la route. Les solutions proposées au cours de la thèse sont évaluées sur des données réelles. Nous avons mené des expérimentations sur le campus d'INRIA démontrant les atouts d'un système coopératif de protection des usagers vulnérables. / Cooperative intelligent transportation systems (C-ITS) have the opportunity to enhance road safety, especially the safety of vulnerable road users (VRU), e.g., pedestrians and cyclists. Road accidents are mainly due to vehicles' and VRUs' inability to detect the danger before a collision cannot be avoided.We introduce a perception system based on laser and camera sensors to estimate the state of VRUs located around the vehicle. A multi-class classification of road obstacles based on laser data has been developed using statistical machine learning and Bayesian estimation.We propose an architecture for vehicles-to-pedestrians (V2P) communication which considers the weak energy resources of the devices carried by pedestrians such as smartphones. Our solution is relying on the standards defined by ETSI ITS architecture for vehicular communication and proposes geographical dissemination for V2P communication.A cooperative perception/communication system can deal with scenarios which are becoming more and more complex by combining the ability of perception to estimate the dynamic state of detected obstacles and the ability of communication to exchange a rich content between distant users. We introduce a multi-hypotheses fusion between perception and communication information and a smartphone application dedicated to protect VRUs from road danger.The solutions proposed during this thesis are evaluated on real data. We carried out real experiments on INRIA campus demonstrating the assets of a cooperative system for the protection of vulnerable road users.
12

Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradées

Othman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
13

Reconnaissance de séquences d'états par le Modèle des Croyances Transférables. Application à l'analyse de vidéos d'athlétisme.

Ramasso, Emmanuel 05 December 2007 (has links) (PDF)
Cette thèse porte sur la problématique de reconnaissance automatique de systèmes dynamiques. Une méthodologie basée sur des modèles de séquences d'états est employée : les états permettent de décrire le système à un instant particulier tandis que des transitions permettent au système d'évoluer au cours du temps. Dans le cadre de la thèse, deux nouvelles méthodes de représentation et de reconnaissance de séquences d'états basées sur le Modèle des Croyances Transférables, modèle non probabiliste de raisonnement incertain basé sur les fonctions de croyance, sont proposées. La première méthode est déterministe et inspirée des travaux en Intelligence Artificielle, la seconde est stochastique et basée sur une généralisation aux fonctions de croyance des modèles de Markov cachés initialement développés dans la théorie des probabilités. Ces algorithmes, dont le cadre formel est générique, ont été intégrés dans un système de reconnaissance de mouvements humains dans les vidéos d'athlétisme que nous avons mis en place en collaboration avec l'Université de Crète dans le cadre du Réseau d'Excellence Européen SIMILAR. Les méthodes de reconnaissance de séquences ont été évaluées sur une base de 74 vidéos et comparées aux modèles de Markov cachés probabilistes.
14

Social Network Analysis : Link prediction under the Belief Function Framework / Analyse des réseaux sociaux : Prédiction de liens dans le cadre des fonctions de croyance

Mallek, Sabrine 03 July 2018 (has links)
Les réseaux sociaux sont de très grands systèmes permettant de représenter les interactions sociales entre les individus. L'analyse des réseaux sociaux est une collection de méthodes spécialement conçues pour examiner les aspects relationnels des structures sociales. L'un des défis les plus importants dans l'analyse de réseaux sociaux est le problème de prédiction de liens. La prédiction de liens étudie l'existence potentielle de nouvelles associations parmi des entités sociales non connectées. La plupart des approches de prédiction de liens se concentrent sur une seule source d'information, c'est-à-dire sur les aspects topologiques du réseau (par exemple le voisinage des nœuds) en supposant que les données sociales sont entièrement fiables. Pourtant, ces données sont généralement bruitées, manquantes et sujettes à des erreurs d'observation causant des distorsions et des résultats probablement erronés. Ainsi, cette thèse propose de gérer le problème de prédiction de liens sous incertitude. D'abord, deux nouveaux modèles de graphes de réseaux sociaux uniplexes et multiplexes sont introduits pour traiter l'incertitude dans les données sociales. L'incertitude traitée apparaît au niveau des liens et est représentée et gérée à travers le cadre de la théorie des fonctions de croyance. Ensuite, nous présentons huit méthodes de prédiction de liens utilisant les fonctions de croyance fondées sur différentes sources d'information dans les réseaux sociaux uniplexes et multiplexes. Nos contributions s'appuient sur les informations disponibles sur le réseau social. Nous combinons des informations structurelles aux informations des cercles sociaux et aux attributs des nœuds, ainsi que l'apprentissage supervisé pour prédire les nouveaux liens. Des tests sont effectués pour valider la faisabilité et l'intérêt de nos approches à celles de la littérature. Les résultats obtenus sur les données du monde réel démontrent que nos propositions sont pertinentes et valables dans le contexte de prédiction de liens. / Social networks are large structures that depict social linkage between millions of actors. Social network analysis came out as a tool to study and monitor the patterning of such structures. One of the most important challenges in social network analysis is the link prediction problem. Link prediction investigates the potential existence of new associations among unlinked social entities. Most link prediction approaches focus on a single source of information, i.e. network topology (e.g. node neighborhood) assuming social data to be fully trustworthy. Yet, such data are usually noisy, missing and prone to observation errors causing distortions and likely inaccurate results. Thus, this thesis proposes to handle the link prediction problem under uncertainty. First, two new graph-based models for uniplex and multiplex social networks are introduced to address uncertainty in social data. The handled uncertainty appears at the links level and is represented and managed through the belief function theory framework. Next, we present eight link prediction methods using belief functions based on different sources of information in uniplex and multiplex social networks. Our proposals build upon the available information in data about the social network. We combine structural information to social circles information and node attributes along with supervised learning to predict new links. Tests are performed to validate the feasibility and the interest of our link prediction approaches compared to the ones from literature. Obtained results on social data from real-world demonstrate that our proposals are relevant and valid in the link prediction context.
15

Contribution de la texture pour l'analyse d'images à très haute résolution spatiale : application à la détection de changement en milieu périurbain

Lefebvre, Antoine 14 April 2011 (has links) (PDF)
Les données de télédétection acquises à Très Haute Résolution Spatiale (THRS) constituent une source d'information importante pour le suivi détaillé des changements d'occupation du sol sur de petites surfaces. Ces données sont particulièrement intéressantes pour les applications dans les milieux urbains et périurbains car elles permettent d'appréhender des changements brusques et irréguliers autant que des modifications subtiles et régulières. Toutefois, l'exploitation d'images à THRS nécessite des développements méthodologiques, les méthodes de détection de changement généralement utilisées pour traiter les images à basse et moyenne résolution n'étant pas adaptées : d'une part l'étendue et la résolution spectrale des capteurs à THRS sont souvent inférieures à celles des autres capteurs, la résolution spectrale des capteurs diminuant avec l'augmentation de leur résolution spatiale. D'autre part, la variabilité spectrale des pixels définissant les classes d'occupation du sol augmente en fonction de la résolution spatiale. Cette thèse présente ainsi une série d'outils méthodologiques qui permettent d'identifier et de caractériser automatiquement des changements affectant de petites surfaces à partir de données à THRS acquises à différentes dates et provenant de différentes sources. Contrairement à la majorité des méthodes utilisées en télédétection, l'originalité des outils présentés ne repose pas exclusivement ou essentiellement sur l'utilisation de l'information spectrale de l'image ; ils reposent surtout sur les propriétés de texture des objets géographiques observés. La texture est caractérisée à partir d'une analyse des coefficients issus d'une décomposition en ondelettes des images. Les outils développés comprennent : une méthode de correction de l'effet de vignettage des photographies aériennes anciennes ; une technique de segmentation d'images ; une méthode d'estimation de l'orientation dominante de motifs texturés ; une méthode de classification ; une méthode de détection de changements. L'ensemble de ces outils a été validé à partir d'exemples synthétiques, puis appliqué sur un secteur périurbain de l'agglomération rennaise afin de détecter les changements d'occupation et d'utilisation des sols à partir de photographies aériennes acquises en 1978 et 2001. Les taux de changement correctement détectés, qui varient de 78 % à 85 %, montrent l'intérêt d'exploiter la texture pour classer des images à THRS. Il est possible de détecter automatiquement différents types de changements et ainsi de distinguer des changements de pratiques culturales et des changements liés à l'artificialisation des sols. Les outils développés dans cette thèse sont génériques et s'appliquent à l'analyse de tout objet texturé. Ainsi nous avons exploité certains outils proposés pour détecter et caractériser des parcelles viticoles ou estimer des mouvements fluides en aéronautique
16

Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne / Multipath impact on the performances of satellite navigation systems : contribution to the enhancement of location accuracy towards bayesian modeling

Nahimana, Donnay Fleury 19 February 2009 (has links)
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites / Most of the GNSS-based transport applications are employed in dense urban areas. One of the reasons of bad position accuracy in urban area is the obstacle's presence (building and trees). Many solutions are developed to decrease the multipath impact on accuracy and availability of GNSS systems. Integration of supplementary sensors into the localisation system is one of the solutions used to supply a lack of GNSS data. Such systems offer good accuracy but increase complexity and cost, which becomes inappropriate to equip a large fleet of vehicles.This thesis proposes an algorithmic approach to enhance the position accuracy in urban environment. The study is based on GNSS signals only and knowledge of the close reception environment with a 3D model of the navigation area.The method impacts the signal filtering step of the process. The filtering process is based on Sequential Monte Carlo methods called particle filter. As the position error in urban area is related to the satellite reception state (blocked, direct or reflected), information of the receiver environment is taken into account. A pseudorange error model is also proposed to fit satellite reception conditions. In a first work, the reception state of each satellite is assumed to be known. A Markov chain is defined for a known trajectory of the vehicle and is used to determine the successive reception states of each signal. Then, the states are estimated using a Dirichlet distribution
17

MeLos: Analysis and Modelling of Speech Prosody and Speaking Style

Obin, Nicolas 23 June 2011 (has links) (PDF)
Cette thèse a pour objet la modélisation de la prosodie dans le cadre de la synthèse de la parole. Nous présenterons MeLos : un système complet d'analyse et de modélisation de la prosodie, "la musique de la parole". L'objectif de cette thèse est de modéliser la stratégie, les alternatives, et le style de parole d'un locuteur pour permettre une synthèse de parole naturelle, expressive, et variée. Nous présenterons un système unifié fondé sur des modèles de Markov cachés (HMMs) à observation discrète/continue pour modéliser les caractéristiques symbolique et acoustique de la prosodie : 1) Une chaîne de traitement linguistique de surface et profonde sera introduite pour enrichir la description des caractéristiques du texte. 2) Un modèle segmental associé à la fusion de Dempster-Shafer sera utilisé pour combiner les contraintes linguistique et métrique dans la production des pauses. 3) Un modèle de trajectoire basé sur la stylisation des contours prosodiques sera présenté pour permettre de modéliser simultanément les variations à court et long terme de la F0. Le système proposé est utilisé pour modéliser les stratégies et le style d'un locuteur, et est étendu à la modélisation du style de parole par des méthodes de modélisation en contexte partagé et de normalisation du locuteur.
18

Prise en compte de l'incertitude dans l'expertise des risques naturels en montagne par analyse multicritères et fusion d'information

Tacnet, Jean-Marc 26 November 2009 (has links) (PDF)
Les phénomènes naturels gravitaires rapides tels que les avalanches ou les crues torrentielles menacent les biens et les personnes en montagne mais restent mal connus. Dans un contexte de connaissance partielle des phénomènes, l'expertise contribue, par des approches pluridisciplinaires à la fois qualitatives et quantitatives, à identifier les phénomènes, analyser les risques et proposer des mesures structurelles et/ou non-structurelles pour la réduction des risques. Les jugements d'experts dépendent de la qualité des informations disponibles. En fin de compte, les scénarios de phénomènes et les décisions peuvent ainsi reposer sur des informations incertaines et contradictoires sans pouvoir vraiment identifier la part du vrai, de l'imprécis, du contradictoire ou simplement de l'inconnu dans les hypothèses ayant conduit au résultat. Ce travail analyse les relations entre l'information, ses imperfections et la décision. Il vise d'une part l'amélioration de la traçabilité, de l'explicitation et de la qualité des composants du processus d'expertise et, d'autre part, la fourniture et l'analyse des outils d'aide multicritères à la décision capables de considérer l'information imparfaite (incertaine, imprécise) provenant de sources de fiabilité variable et potentiellement conflictuelles. Dans un premier temps, l'analyse porte sur des méthodes empiriques d'aide multicritères à la décision d'évaluation des composantes du risque. Une méthodologie est proposée pour traduire des modèles existants sous forme hiérarchique puis transformer des modèles hiérarchiques quelconques dans d'autres modèles du même type tout en conservant les mêmes résultats globaux. Cette reconfiguration exhibe des vues différentes des préférences entre critères liées par exemple à l'importance et au rˆole de scénarios basés sur une aggravation de critères dans la décision. Dans un second temps, la méthodologie ER-MCDA associe la fusion d'information et l'aide multicritères à la décision. L'aide multicritères hiérarchique à la décision (AHP) permet de formuler conceptuellement le problème de décision et d'expliciter les préférences entre les critères. Les théories des ensembles flous et des possibilités sont utilisées pour transformer des critères quantitatifs et qualitatifs dans un cadre de discernement commun de décision associé à la théorie des fonctions de croyance via d'une part, la théorie de Dempster-Shafer (DST) et, d'autre part, la théorie de Dezert-Smarandache (DSmT). Finalement, l'aide multicritères à la décision peut être vue comme une alternative pour l'évaluation des composantes du risque. Elle permet non seulement d'améliorer la qualité globale de l'expertise et du processus de décision mais aussi de créer un nouvel espace d'interaction entre l'expertise et les décideurs publics. Au-delà d'un strict intérêt technique, ces méthodes sont des soutiens aussi inattendus que pertinents dans le cadre d'approches intégrées de la gestion du risque.
19

Analyse conjointe texte et image pour la caractérisation de films d'animation

Grégory, Païs 06 April 2010 (has links) (PDF)
Le développement rapide des nouvelles technologies de l'information a provoqué ces dernières années une augmentation considérable de la masse de données à disposition de l'utilisateur. Afin d'exploiter de manière rationnelle et efficace l'ensemble de ces données la solution passe par l'indexation de ces documents multimédia. C'est dans ce contexte que ce situe cette thèse et plus spécifiquement dans celui de l'indexation d'une base numérique de films d'animation, telle que celle mise en place par la CITIA (Cité de l'image en mouvement). L'objectif principal de cette thèse est de proposer une méthodologie permettant de prendre en compte des informations issues de l'analyse de l'image et celles issues des péri-textes (synopsis, critiques, analyses, etc.). Ces deux sources d'information sont de niveau sémantique très différent et leur utilisation conjointe permet une caractérisation riche et sémantique des séquences vidéo. L'extraction automatique de descripteurs images est abordée dans ces travaux à travers la caractérisation des couleurs et de l'activité du film. L'analyse automatique des synopsis permet quant à elle de caractériser la thématique du film et permet, grâce au scénario actanciel, la caractérisation de l'action de la séquence. Finalement ces informations sont utilisées conjointement pour retrouver et décrire localement les passages d'action et permettent d'obtenir l'atmosphère du film grâce à leur fusion floue.

Page generated in 0.0941 seconds