• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 34
  • 34
  • 17
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse automatique d'opinion : problématique de l'intensité et de la négation pour l'application à un corpus journalistique

Zhang, Lei 11 December 2012 (has links) (PDF)
La problématique de l'analyse d'opinion connaît un intérêt croissant depuis une quinzaine d'années. Cette problématique mène à de nombreux travaux ayant des objectifs allant de la constitution de ressources lexicales à l'identification des cibles d'une opinion. Le cadre applicatif de notre étude est l'analyse automatique d'articles de journaux pour la veille d'opinion. Ce cadre est ambitieux vis-à-vis de l'état de l'art puisque nous sommes amené à étudier un grand nombre de critères propres à l'analyse d'opinion. Nous proposons un modèle conceptuel permettant de caractériser une opinion par la polarité, l'intensité, la prototypicalité, la cible, la source, l'engagement de l'auteur, etc. En particulier, nous modélisons la négation et ses effets sur l'intensité et la polarité. En plus des cas classiques de négation, nous sommes en mesure de modéliser des effets de rhétoriques tels que l'euphémisme ou la litote, très présents dans le genre journalistique. À partir de ce modèle conceptuel, nous présentons un ensemble de choix techniques permettant de préciser les ressources et traitements nécessaires à l'automatisation. Nous mettons en œuvre deux applications (en chinois et en français) de la chaîne de traitements issue du modèle permettant de confirmer la validité du modèle conceptuel ainsi que l'efficacité des traitements automatiques.
32

Expérimentation de la cartographie conceptuelle comme dispositif de collecte de données en vue de l’évaluation des apprentissages

Morin, Maxim 08 1900 (has links)
No description available.
33

Analyse et enrichissement de flux compressés : application à la vidéo surveillance / Compressed streams analysis and enrichment : application to video surveillance

Leny, Marc 17 December 2010 (has links)
Le développement de réseaux de vidéosurveillance, civils ou militaires, pose des défis scientifiques et technologiques en termes d’analyse et de reconnaissance des contenus des flux compressés. Dans ce contexte, les contributions de cette thèse portent sur : - une méthode de segmentation automatique des objets mobiles (piétons, véhicules, animaux …) dans le domaine compressé, - la prise en compte des différents standards de compression les plus couramment utilisés en surveillance (MPEG-2, MPEG-4 Part 2 et MPEG-4 Part 10 / H.264 AVC), - une chaîne de traitement multi-flux optimisée depuis la segmentation des objets jusqu’à leur suivi et description. Le démonstrateur réalisé a permis d’évaluer les performances des approches méthodologiques développées dans le cadre d’un outil d’aide à l’investigation, identifiant les véhicules répondant à un signalement dans des bases de données de plusieurs dizaines d’heures. En outre, appliqué à des corpus représentatifs des différentes situations de vidéosurveillance (stations de métro, carrefours, surveillance de zones en milieu rural ou de frontières ...), le système a permis d’obtenir les résultats suivants : - analyse de 14 flux MPEG-2, 8 flux MPEG-4 Part 2 ou 3 flux AVC en temps réel sur un coeur à 2.66 GHZ (vidéo 720x576, 25 images par seconde), - taux de détection des véhicules de 100% sur la durée des séquences de surveillance de trafic, avec un taux de détection image par image proche des 95%, - segmentation de chaque objet sur 80 à 150% de sa surface (sous ou sur-segmentation liée au domaine compressé). Ces recherches ont fait l’objet du dépôt de 9 brevets liés à des nouveaux services et applications rendus opérationnels grâce aux approches mises en oeuvre. Citons entre autres des outils pour la protection inégale aux erreurs, la cryptographie visuelle, la vérification d’intégrité par tatouage ou l’enfouissement par stéganographie / The increasing deployment of civil and military videosurveillance networks brings both scientific and technological challenges regarding analysis and content recognition over compressed streams. In this context, the contributions of this thesis focus on: - an autonomous method to segment in the compressed domain mobile objects (pedestrians, vehicles, animals …), - the coverage of the various compression standards commonly used in surveillance (MPEG-2, MPEG-4 Part 2, MPEG-4 Part 10 / H.264 AVC), - an optimised multi-stream processing chain from the objects segmentation up to their tracking and description. The developed demonstrator made it possible to bench the performances of the methodological approaches chosen for a tool dedicated to help investigations. It identifies vehicles from a witness description in databases of tens of hours of video. Moreover, while dealing with corpus covering the different kind of content expected from surveillance (subway stations, crossroads, areas in countryside or border surveillance …), the system provided the following results: - simultaneous real time analysis of up to 14 MPEG-2 streams, 8 MPEG-4 Part 2 streams or 3 AVC streams on a single core (2.66 GHz; 720x576 video, 25 fps), - 100% vehicles detected over the length of traffic surveillance footages, with a image per image detection near 95%, - a segmentation spreading over 80 to 150% of the object area (under or over-segmentation linked with the compressed domain). These researches led to 9 patents linked with new services and applications that were made possible thanks to the suggested approaches. Among these lie tools for Unequal Error Protection, Visual Cryptography, Watermarking or Steganography
34

Aspects formels du dîwân de Jamîl Buṯayna / Formal Features in Dîwân Jamîl Buṯayna

Mouhieddine, Maria 26 November 2011 (has links)
Notre objectif étant de procéder à une analyse des aspects formels du dîwân de Jamîl Buṯayna (poète arabe et héros de roman mort aux environs de 701) nous avons commencé par donner du texte une édition intégralement vocalisée et métriquement cohérente à partir de quatre éditions publiées antérieurement. A partir de cette édition, une analyse syllabique intégrale du diwân a été possible grâce au logiciel Xalîl élaboré par Djamel Eddine Kouloughli ainsi qu’un lexique fréquentiel. Dans le deuxième tome, nous avons procédé, à partir de l’analyse syllabique, à une analyse métrique. Le principal résultat de cette analyse a été la mise en évidence d’une systématisation du respect des zones de stabilité qui était sujettes à variation dans la poésie arabe ancienne. L’autre aspect de l’analyse a consisté dans l’extraction des formules du dîwân ; nous avons suivi pour cela une méthode originale que nous avons appelée : prospection guidée métriquement. Cette méthode a permis non seulement de détecter un grand nombre de formules en usage jusqu’au XIIIe siècle, date à laquelle nous avons arrêté l’analyse, mais elle a également mis en évidence l’existence de nombreux vers ou fragments de poèmes que l’on retrouve particulièrement dans les diwân de Jamîl Buṯayna, Majnûn Laylâ, Kuṯayyir Azza, Nuṣayb b. Rabâḥ et Qays b. Ḏariḥ qui constituent un fond commun sans doute à la portée de tous à l’époque et qu’il est donc vain de parler à ce propos de plagiat ou d’antériorité. / Given our objective of analysing the formal aspects of the dîwân by Jamîl Buṯayna (Arabic poet and hero of the Romance of Jamîl and Buṯayna, who died in or around 701 AD), we began by establishing an entirely vocalized and metrically coherent edition of this work from four previously published editions. A complete syllabic analysis of this edition of the diwân was then undertaken using the Xalîl software elaborated by Djamel Eddine Kouloughli as well as a frequency of occurrence lexicon. In the second volume we used the syllabic analysis as the basis for an analysis of the metrics. The main result of this analysis consisted in revealing a systematization of the respect or the zones of stability which had been subject to variation in ancient Arabic poetry. The other aspect of the analysis consisted in the extraction of the formulas of the dîwân; we employed an original method which we baptized: metrically guided prospection. This method not only enabled the detection of a large number of formulas in use until the 13th century (the end of the period under analysis), but also revealed the existence of numerous verses or fragments of poems which are also to be found in the diwân of Jamîl Buṯayna, Majnûn Laylâ, Kuṯayyir Azza and Nuṣayb b. Rabâḥ, in particular. These verses and fragments constitute a common, shared resource which was undoubtedly available to all at that time thus invalidating any reference to plagiarism and anteriority.

Page generated in 0.0593 seconds