• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 51
  • 20
  • Tagged with
  • 171
  • 171
  • 171
  • 148
  • 140
  • 140
  • 130
  • 128
  • 124
  • 32
  • 25
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral

Pinault, Florian 24 November 2011 (has links) (PDF)
Les systèmes de dialogue homme machine actuellement utilisés dans l'industrie sont fortement limités par une forme de communication très rigide imposant à l'utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l'état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d'utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l'utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d'erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d'apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d'utiliser.Afin d'appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l'espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l'espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d'utiliser la distance d'édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l'adoption des POMDP pour le dialogue dans l'industrie.Dans le domaine du renseignement d'informations touristiques et de la réservation de chambres d'hôtel, les résultats sur des dialogues simulés montrent l'efficacité de l'approche par renforcement associée à un système de règles pour s'adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu'un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.
32

Adéquation algorithmes et architectures parallèles pour la reconstruction 3D en tomographie X

Laurent, Christophe 22 January 1996 (has links) (PDF)
Le but de cette thèse est d'étudier l'adéquation des approches parallèles à l'imagerie 3D, en prenant comme problème cible de la reconstruction d'images 3D en tomographie par rayons X. L'évolution technologique des systèmes d'acquisition, du premier scanner au Morphomètre, a généré de nouvelles problématiques au niveau des méthodes de reconstruction et au niveau des besoins informatiques. Une première partie est consacrée aux fondements de la tomographie assistée par ordinateur et à la présentation des machines parallèles. L'évolution des machines de calcul intensif, du Cray 1 au Cray T3D, permet de résoudre des problèmes de taille croissante. Dans la deuxième partie, nous définissons la méthodologie suivie pour paralléliser les algorithmes de reconstruction. Nous identifions les opérateurs de base (projection et rétroprojection) sur lesquel est porté l'effort de parallélisation. Nous définissons deux approches de parallélisation (locale et globale). Différentes versions optimisées de ces algorithmes parallèles sont présentées prenant en compte d'une part la minimisation des temps de communications (recouvrement calcul/communication, communication sur un arbre binaire) et d'autre part la régulation de charge (partitionnement adaptatif). Dans la troisième partie, à partir de ces opérateurs parallélisés, nous construisons trois méthodes de reconstruction parallèles : une méthode analytique (la méthode de Feldkamp) et deux méthodes algébriques (la méthode Art par blocs et méthode SIRT). Les algorithmes sont expérimentés sur différentes machines parallèles : Maspar, Réseau de stations Sun, Ferme de processeurs Alpha, Paragon d'Intel, IBM SP1 et Cray T3D. Pour assurer la portabilité sur les différentes machines, nous avons utilisé PVM. Nous évaluons nos performances et nous montrons nos résultats de reconstruction 3D à partir de données simulées. Puis, nous présentons des reconstructions 3D effectués sur le Cray T3D, à partir de données expérimentales du Morphomètre, prototype de scanner X 3D.
33

Analyse d'images par transformées en ondelettes. Application aux images sismiques

Bournay Bouchereau, Emmanuelle 26 March 1997 (has links) (PDF)
L'analyse de données sismiques pour l'étude du sous-sol est un travail long et difficile qui demande beaucoup de connaissances a priori au géophysicien qui l'effectue. L'outil informatique permet d'accélérer ce travail par une mise en valeur des zones d'intérêt, formées de continuités (horizons) et discontinuites (failles, domes de sel ...). L'analyse par ondelettes est particulièrement adaptée à l'étude des continuités et discontinuités et permet, à l'aide d'ondelettes directionnelles, de détecter des fractures, problème extrêmement difficile. Nous présentons dans ce travail un exposé succint de la théorie des ondelettes suivi des différents algorithmes de la transformée en ondelettes ainsi que les problèmes de représentation d'une telle transformée. Nous introduisons la notion d'ondelette directionnelle, sensible aux discontinuités dans une direction donnée et étudions quelques-unes de ses propriétés. Divers applications aux images sismiques sont exposées. Une méthode de filtrage basée sur l'algorithme à trous pour l'amélioration du pointe d'horizons est présentée. L'utilisation de la transformée en ondelettes directionnelles aboutit, entre autres, à la détection de failles. Ceci peut être améliorer par l'utilisation d'un filtrage préalable adapté et la représentation angle-espace-échelle.
34

Autour et alentours des motifs séquentiels

Teisseire, Maguelonne 05 December 2007 (has links) (PDF)
Parmi les techniques utilisées en fouille de données, la recherche de motifs séquentiels permet d'extraire des connaissances sur le comportement des données. Les principaux travaux de recherche autour des motifs s'intéressent à la définition d'algorithmes efficaces pour « passer à l'échelle » et manipuler un espace de recherche volumineux. Même si ces dernières années nous nous sommes également intéressés au facteur temps pour l'extraction de motifs, les travaux présentés dans ce mémoire se focalisent plus particulièrement sur de nouvelles extensions proposées aux motifs afin d'offrir des connaissances correspondant aux attentes du décideur. Tout d'abord nous proposons une représentation des données « classiques » (i.e. booléennes) en développant les définitions de motifs séquentiels que nous avons choisis comme format de description des comportements extraits. Nous répondons ensuite, au travers de l'approche ISE, à la question suivante : comment utiliser une connaissance extraite au préalable pour optimiser la phase d'extraction lorsque de nouvelles données arrivent ? Nous proposons également une représentation moins stricte des comportements et définissons les méthodes d'extraction associées (approche approximative) : SpeedyFuzzy, MiniFuzzy et TotallyFuzzy. Via une composante floue, nous montrons que de nouveaux motifs plus informatifs peuvent être extraits. Nous poursuivons l'utilisation de l'approche approximative pour prendre en compte des contraintes temporelles dans des motifs : GETC. Cette approche complète nos précédents travaux consistant à intégrer très tôt les contraintes dans le processus d'extraction et ainsi optimiser leur prise en compte : GTC.<br />Lorsque les données manipulées deviennent plus complexes, nous montrons que les motifs s'avèrent être également une représentation adaptée. Nous nous attachons à décrire certaines de nos propositions sur deux types de données complexes : (1) pour les documents textuels, nous proposons une approche de classification supervisée SPAC et (2) pour les données multidimensionnelles, nous présentons deux nouvelles techniques permettant de prendre en compte différentes dimensions d'analyse, M2SP, et la hiérarchie disponible sur les dimensions : HYPE.
35

Compression d'images par fractales basée sur la triangulation de Delaunay

Davoine, Franck 20 December 1995 (has links) (PDF)
Ce mémoire traite de la compression des images fixes par fractales, fondée sur la théorie des systèmes de fonctions itérées (IFS). Après quelques rappels sur les principales méthodes de codage entropique et de compression réversible et irréversible des images nous introduisons les notions nécessaires à la compréhension de la théorie des IFS. Nous détaillons ensuite les principaux algorithmes de compression des images naturelles selon l'approche fractale. Ces derniers consistent à approximer chacun des éléments d'une partition à l'aide d'une transformation locale contractante appliquée sur une autre partie de l'image. Ceci nous conduit à présenter les modèles de partitionnement utilisés pour coder les similarités locales des images. La partie suivante constitue la contribution majeure du travail. Nous présentons un algorithme de codage par fractales fondé sur la triangulation de Delaunay. La souplesse de ce modèle nous permet d'utiliser diverses triangulations adaptées au contenu de l'image à compresser. Nous proposons ensuite différentes solutions ayant pour but d'améliorer le schéma de codage-decodage. La premiere vise à réduire la complexité de la phase de codage en diminuant le nombre de comparaisons inter-blocs, par un algorithme de quantification vectorielle de l'espace de recherche. La seconde vise à réduire le nombre de blocs traités tout en améliorant les résultats visuels, pour des taux de compression élevés. Ceci est fait en introduisant des quadrilatères dans la triangulation de l'image. Nous concluons le mémoire en commentant différents résultats de décompression obtenus à partir des partitionnements étudiés, puis comparons ces résultats à ceux obtenus à partir de méthodes hybrides liant le codage par fractales à une décomposition multirésolution de l'image ou à la transformée en cosinus discrète.
36

Conception et prototypage d'un outil web de médiation et d'aide au dialogue tchaté écrit en langue seconde

Falaise, Achille 25 September 2009 (has links) (PDF)
Notre thème de recherche général concerne les aides informatisées au dialogue en langue seconde, oral et/ou écrit. Cette thèse se concentre sur la dénition et l'étude, au moyen de corpus et d'un prototype, de procédés d'aide au dialogue écrit (tchat) en langue seconde, dans un contexte de médiation faible. Nous présentons dans un premier temps ce qu'est le tchat "ordinaire" en langue première, ses divergences de surface et ses convergences profondes vis à vis des autres formes d'écrit. Nous montrons ensuite les limites des aides actuelles, à médiation forte, dans laquelle l'outil d'aide est interposé entre des locuteurs supposés totalement incapables de communiquer par un autre biais, de sorte qu'on ne traite jamais le cas pourtant fréquent où ils peuvent utiliser une langue intermédiaire. Nous adaptons au tchat le scénario du projet VerbMobil (1992-2000) et proposons une approche à médiation faible pour locuteurs partiellement bilingues, capable de tenir compte de leurs compétences et de leurs problèmes spéciques. Le prototype développé dans ce cadre, Koinè, permet d'étudier les contraintes informatiques, ergonomiques et linguistiques d'un tel système, de proposer des solutions, et de les expérimenter. Des aides au dialogue oral ont été prévues, mais, comme la reconnaissance vocale du tout venant au téléphone ou sur IP n'est pas encore assez avancée pour ce type d'utilisation, la version actuelle est centrée sur l'écrit. Koinè est un service Web, construit à l'aide de la bibliothèque logicielle Krater, qui accélère et simplifie le développement d'applications Web. Koinè agrège des fonctionnalités utiles pour surmonter les obstacles de la communication en langue non native, telle que tableau blanc, livre de phrases interactif personnalisable, pré- traduction par traduction automatique, mesures d'intelligibilité et de prototypicalité des énoncés, et possibilité de désambiguïsation interactive et participative.
37

Contribution des pyramides irrégulières en segmentation d'images multirésolution

Bertolino, Pascal 30 November 1995 (has links) (PDF)
Cette thèse traite des apports de la structure pyramidale irrégulière en segmentation multirésolution d'images en niveaux de gris. Une présentation des techniques de multirésolution (essentiellement pyramidales) pour le traitement des images et notamment pour la segmentation est faite dans un premier temps. Dans un second temps, le document décrit des techniques de segmentation d'image par approches 'région' puis par approches 'contour'. Une troisième partie traite de la modélisation de la pyramide par les graphes, puis détaillé précisement sa construction. Cette étude met en évidence certaines faiblesses de l'approche. Afin d'améliorer les résultats, nous proposons une coopération de processus unissant l'approche région de la structure pyramidale ˆ une approche contour représentée soit par un détecteur de maximums locaux, soit par un détecteur stochastique mis en oeuvre à cet effet. Par la suite, nous développons deux approches qui permettent d'obtenir des pyramides d'images segmentées multirésolution. La première permet, à l'aide des différents niveaux d'une pyramide irrégulière, de fournir rapidement un nombre important de segmentations dérivées, chacune à une résolution différente. La seconde, fondée sur la notion de décimation étendue, génère directement une pyramide d'images à différentes résolutions de détails. Enfin, quelques élements concernant l'étude des textures sont proposés. Des résultats expérimentaux sont fournis tout au long du document. Un comparatif des méthodes développées est effectuer. sur des images type.
38

De la vision artificielle à la réalité synthétique : système d'interaction avec un ordinateur utilisant l'analyse d'images vidéo

Dementhon, Daniel 04 October 1993 (has links) (PDF)
Nous decrivons un systeme qui permet d'interagir avec une scene virtuelle tridimensionnelle creee par un ordinateur. L'operateur tient dans la main un pointeur (une "souris") comportant une distribution spatiale de sources de lumiere. Une camera saisit
39

Évaluation de l'interprétation d'images

Hemery, Baptiste 02 December 2009 (has links) (PDF)
Les algorithmes de traitement d'images regroupent un ensemble de méthodes qui vont traiter l'image depuis son acquisition par un capteur jusqu'à l'extraction de l'information utile pour une application donnée. Parmi ceux-ci, les algorithmes d'interprétation ont pour but de détecter, localiser et reconnaître un ou plusieurs objets dans une image. Le problème traité dans cette thèse réside dans l'évaluation de résultats d'interprétation d'une image ou une vidéo lorsque l'on dispose de la vérité terrain associée. Les enjeux sont nombreux comme la comparaison d'algorithmes, l'évaluation d'un algorithme au cours de son développement ou son paramétrage optimal. Nous proposons dans cette thèse une formalisation des propriétés attendues d'une métrique de localisation. Nous réalisons une étude comparative rigoureuse des métriques de localisation de l'état de l'art au vu de ces propriétés. Nous réalisons un travail similaire sur les méthodes de reconnaissance utilisant une représentation locale des objets dans le but de quantifier une erreur de reconnaissance. Nous avons mis au point une méthode d'évaluation d'un résultat d'interprétation d'une image exploitant les leçons de ces études comparatives. L'avantage de la méthode proposée est de pouvoir évaluer un résultat d'interprétation d'une image en prenant en compte à la fois la qualité de la localisation, de la reconnaissance et de la détection d'objets d'intérêt dans l'image. Le comportement de cette méthode d'évaluation a été testé sur une large base de tests et s'avère intéressant. Plusieurs paramètres permettent de modifier le comportement de cette méthode suivant l'application visée.
40

Gestion des informations dans les premieres etapes de la vision par ordinateur

Salotti, Jean-Marc 25 January 1994 (has links) (PDF)
Dans le cadre de la vision par ordinateur, la facon d'aborder les problemes est delicate. En ce qui concerne la detection des premiers indices visuels, tels que les contours ou les regions, l'approche theorique est difficile, car le but n'est pas clairement defini. Notre approche consiste a avancer pas a pas vers une solution satisfaisante en nous preoccupant essentiellement de la gestion des informations pour traduire une expertise humaine. Nous proposons des principes simples pour une gestion efficace des informations, tels que l'accumulation des informations, leur complementarite, leur "objectivite" et leur "liberte" de mouvement. Ces principes mettent en avant les problemes de controle, d'adaptation au contexte local et l'organisation de l'algorithme. Une structure de controle incrementale nous semble particulierement efficace pour mettre en oeuvre nos principes et preparer une strategie heuristique. Ainsi, en "copiant" notre expertise, nous avons realise un nouveau detecteur de contours avec seuillage adaptatif dont les resultats nous paraissent meilleurs que ceux obtenus avec des detecteurs classiques sur de nombreuses images. Ce detecteur ne necessite l'utilisation d'aucun seuil et detecte a la fois les contours de type "marche" et les contours de type "trait". Nous proposons egalement un algorithme de cooperation entre un processus de croissance de region par agregation de pixels et notre detecteur de contours. Comparee a d'autres techniques de cooperation, notre structure de controle est beaucoup plus souple, la gestion des informations ayant ete etudiee pour obtenir au moment opportun, a l'endroit desire, les informations complementaires permettant un meilleur controle de la decision. Il reste toutefois a parfaire notre cooperation en exploitant plus d'informations, en particulier au niveau de la forme des regions generees. Notre conclusion est que la segmentation souffre peut-etre d'une modelisation trop restrictive. Pour progresser dans ce domaine, il faut sans doute aborder les problemes differemment.

Page generated in 0.0863 seconds