• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 584
  • 369
  • 136
  • 4
  • 3
  • Tagged with
  • 1147
  • 914
  • 624
  • 351
  • 350
  • 309
  • 300
  • 295
  • 260
  • 231
  • 218
  • 211
  • 211
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Suivi automatique d'objets 3D basé sur l'apparence dans des séquences d'images

Duculty, Florent 11 July 2003 (has links) (PDF)
Ce travail de thèse s'inscrit dans le domaine de la vision artificielle. Plus précisément, nous nous sommes intéressés au suivi temps réel vidéo d'objets 3D mobiles dans des séquences d'images. A l'orgine de ces travaux, se trouve un algorithme, développé au LASMEA, dédié au suivi de motifs planaires texturés. Nous nous sommes proposés d'adapter cette méthode de suivi 2D à l'estimation du mouvement apparent d'objets 3D. Pour cela, l'objet 3D est modélisé à l'aide d'une collection d'images de référence. Pour chacune de ces vues, la solution 2D citée précédemment permet de suivre les mouvements fronto parallèles (déplacements de l'objet parallèlement au plan image) qui ne modifient pas de façon majeure l'aspect apparent dans l'image. Le point délicat, solutionné dans le cadre de cette thèse, est la détection et la gestion du changement d'aspect du motif suivi dû à des rotations relatives (caméra/objet) en site et azimut. Sur le plan pratique, l'approche proposée a permis le développement d'un système expérimental de suivi d'un visage et la navigation automatique d'un bras robotique, muni d'une caméra embarquée, autour d'un objet 3D.
242

Asynchronisme dans les rétines artificielles

Gies, Valentin 12 December 2005 (has links) (PDF)
Le traitement d'image se divise usuellement en opérations de bas, moyen et haut niveau. Les opérateurs régionaux de moyen niveau sont un maillon essentiel de la chaîne de traitement de l'image. Dans une étude préliminaire, nous montrons leur importance dans le cadre d'une approche énergétique du traitement d'image et nous déterminons une forme générale sous laquelle ces opérateurs peuvent être implantés afin de pouvoir être utilisés de manière efficace. Après avoir montré la nécessité de l'asynchronisme pour implanter ces opérateurs régionaux, nous étudions les structures existant dans la littérature. Le coût matériel élevé de l'asynchronisme et de ces structures étant trop important pour une implantation dense dans des rétines artificielles, nous tenons à limiter au minimum possible les ressources utiles aux calculs régionaux asynchrones. Cela nous conduit à une nouvelle structure de calcul régional, les micropipelines associatifs, implantant partiellement le modèle des réseaux associatifs, en particulier la somme régionale. Cette structure est basée sur un élément de circuit asynchrone, le micropipeline convergent ayant un coût d'implantation matériel faible. Il utilise un mode alternatif de transmission asynchrone que nous appelons la transmission par jetons. Afin de réduire encore le coût des opérateurs régionaux définis précédemment, nous optimisons ensuite le réseau de connexion asynchrone. Dans la partie algorithmique, nous montrons que la possibilité d'utiliser des opérateurs régionaux de manière efficace conduit à élargir le cadre du traitement d'image. Nous illustrons cette extension dans le cadre de la segmentation d'images. Après une étude des méthodes de segmentation existantes, une méthode basée sur des mesures statistiques régionales permettant d'améliorer la segmentation à base de ligne de partage des eaux sera proposée. Enfin, nous introduisons une nouvelle méthode de segmentation, la segmentation sociétale basée sur une analogie avec la segmentation d'un territoire en villes et villages, utilisant de manière intensive les mesures régionales.
243

Voir, savoir, faire : une étude de cas en logique modale

Schwarzentruber, François 01 December 2010 (has links) (PDF)
Dans le domaine des jeux vidéos par exemple, surtout des jeux de rôles, les personnages virtuels perçoivent un environnement, en tirent des connaissances puis effectuent des actions selon leur besoin. De même en robotique, un robot perçoit son environnement à l'aide de capteurs/caméras, établit une base de connaissances et effectuent des mouvements etc. La description des comportements de ces agents virtuels et leurs raisonnements peut s'effectuer à l'aide d'un langage logique. Dans cette thèse, on se propose de modéliser les trois aspects ''voir'', ''savoir'' et ''faire'' et leurs interactions à l'aide de la logique modale. Dans une première partie, on modélise des agents dans un espace géométrique puis on définit une relation épistémique qui tient compte des positions et du regard des agents. Dans une seconde partie, on revisite la logique des actions ''STIT'' (see-to-it-that ou ''faire en sorte que'') qui permet de faire la différence entre les principes ''de re'' et ''de dicto'', contrairement à d'autres logiques modales des actions. Dans une troisième partie, on s'intéresse à modéliser quelques aspects de la théorie des jeux dans une variante de la logique ''STIT'' ainsi que des émotions contre-factuelles comme le regret. Tout au long de cette thèse, on s'efforcera de s'intéresser aux aspects logiques comme les complétudes des axiomatisations et la complexité du problème de satisfiabilité d'une formule logique. L'intégration des trois concepts ''voir'', ''savoir'' et ''faire'' dans une et une seule logique est évoquée en conclusion et reste une question ouverte.
244

Utilisation de croyances heuristiques pour la planification multi-agent dans le cadre des Dec-POMDP

Corona, Gabriel 11 April 2011 (has links) (PDF)
Nous nous intéressons dans cette thèse à la planification pour les problèmes de prise de décision décentralisée séquentielle dans l'incertain. Dans le cadre centralisé, l'utilisation des formalismes MDP et POMDP a permis d'élaborer des techniques de planification efficaces. Le cadre Dec-POMDP permet de formaliser les problèmes décentralisés. Ce type de problèmes appartient à une autre classe de complexité que les problèmes centralisés. Pour cette raison, jusqu'à récemment, seuls de très petits problèmes pouvaient être résolus et uniquement pour des horizons très faibles. Des algorithmes heuristiques ont récemment été proposés pour traiter des problèmes de taille plus conséquente mais n'ont pas de preuve théorique de qualité de solution. Nous montrons comment une information heuristique sur le problème à résoudre représentée par une distribution de probabilité sur les croyances centralisées permet de guider la recherche approchée de politique. Cette information heuristique permet de formuler chaque étape de la planification comme un problème d'optimisation combinatoire. Cette formulation conduit à des politiques de meilleure qualité que les approches existantes.
245

Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes

Ros, Raymond 21 December 2009 (has links) (PDF)
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
246

Développement de méthodes pour la prédiction de la production éolienne régionale

Siebert, Nils 06 March 2008 (has links) (PDF)
L'intégration à grande échelle de l'énergie éolienne dans les réseaux électriques peut poser des problèmes aux opérateurs de ces réseaux car, contrairement aux moyens de production conventionnels, la production éolienne est variable et non contrôlable. Pour réduire l'impact de certains de ces problèmes, les gestionnaires de réseaux expriment le besoin de prévisions à court terme (de 48 à 120 heures) de la production agrégée des parcs éoliens situés dans une région définie.<br />Le but de la thèse est de développer un cadre d'analyse et des outils permettant de faciliter la mise en place de modèles de prévision de la production éolienne régionale.<br />La thèse présente tout d'abord un cadre d'analyse permettant de caractériser la production éolienne régionale. Par ce biais, les propriétés saillantes de la production régionale, qui doivent être prises en compte lors de la conception d'un modèle de prévision régionale, sont identifiées.<br />Le problème de la prévision régionale est ensuite abordé comme un problème d'apprentissage statistique. Nous définissons trois approches de modélisation générique permettant la combinaison de sous-modèles. L'influence de ces approches sur la précision des prévisions est étudiée ainsi que celle du choix des sous-modèles. Pour permettre la comparaison de sous-modèles, nous introduisons un modèle de prévision éolienne dont la performance est comparable aux modèles de l'état de l'art.<br />Finalement, nous examinons l'impact sur la précision de prévision qu'a le choix des variables explicatives et nous proposons des règles générales de sélection dans le cadre de la prévision éolienne régionale. Pour faciliter le processus de modélisation, des méthodes de sélection automatique sont étudiées. Deux méthodes (une méthode filtre et une méthode wrapper) qui exploitent les caractéristiques propres au problème sont proposées. Nous montrons que ces méthodes sont plus performantes qu'une méthode générique de l'état de l'art.
247

Interfaçage visuel stéréoscopique : diminution de la fatigue visuelle et caractérisation de la perception des formes

Leroy, Laure 15 December 2009 (has links) (PDF)
Les dispositifs d'immersion stéréoscopique sont très répandus et tendent à l'être de plus en plus (travail en immersion, film projeté en vision stéréoscopique, écrans auto-stéréoscopiques...). Dans certains cas, les immersions peuvent être longues et la fatigue visuelle s'installe. Nous donnons une méthode pour diminuer la fatigue visuelle liée à la vision stéréoscopique. Certaines applications demandent également une perception des formes très performante. Nous déterminons donc les paramètres améliorant cette perception et nous les quantifions. Ce mémoire de thèse est composé de deux parties : l'une consacrée à la perception des formes en immersion, l'autre traite de la diminution de la fatigue visuelle en vision stéréoscopique. Dans la première partie, nous commençons par expliquer comment nous percevons les formes en visions naturelle et artificielle. Ensuite nous exposons un protocole de test pour connaître quels paramètres peuvent influencer cette perception en immersion. Nous nous interrogeons notamment sur l'amélioration que peut apporter le fait de traquer le point de vue de l'utilisateur en vision monoscopique, ortho-stéréoscopique ou non-ortho-stéréoscopique. Nous évaluons également l'influence de la vision ortho-stéréoscopique et non-ortho-stéréoscopique sur la perception des formes Nous quantifions les différences entre tous ces modes de projections et déterminons quels paramètres sont les plus importants à respecter pour une bonne perception des formes. Dans la seconde partie, nous exposons les causes possibles de fatigue visuelle en vision stéréoscopique. Nous nous concentrons ensuite sur une de ces causes : les hautes fréquences spatiales liées à de grandes disparités. Nous avons développé plusieurs algorithmes traitant en temps réel les images stéréo pour supprimer les hautes fréquences gênantes (transformée en ondelette, box filter et programmation sur carte graphique d'une moyenne glissante) avant d'expliquer le choix de l'algorithme. Nous exposons ensuite notre protocole de test pour montrer que notre traitement diminue de façon objective et subjective la fatigue visuelle en vision ortho-stéréoscopique. Nous quantifions ensuite les améliorations apportées par notre algorithme sur cette fatigue.
248

Contribution to the Study and Implementation of Intelligent Modular Self-organizing Systems

Budnyk, Ivan 08 December 2009 (has links) (PDF)
Les problèmes de la classification ont reçu une attention considérable dans des différents champs d'ingénierie comme traitement des images biomédicales, identification a partir de la voix, reconnaissance d'empreinte digitale etc. Les techniques d'intelligence artificielles, incluant les réseaux de neurones artificiels, permettent de traiter des problèmes de ce type. En particulier, les problèmes rencontrés nécessitent la manipulation de bases de données de tailles très importantes. Des structures de traitement adaptatives et exploitant des ensembles de classificateurs sont utilisées. Dans cette thèse, nous décrivons principalement le développement et des améliorations apportées à un outil de classification désigné par le terme Tree-like Divide to Simplify ou T-DTS. Nos efforts se sont portés sur l'un des modules de cet outil, le module d'estimation de complexité. L'architecture de l'outil T-DTS est très flexible et nécessite le choix d'un nombre important de paramètres. Afin de simplifier l'exploitation de T-DTS, nous avons conçu et développé une procédure automatique d'optimisation d'un de ces plus importants paramètres, le seuil de décision associé à la mesure de complexité. La contribution principale de cette thèse concerne le développement de modules pouvant s'implanté sur une architecture de calcul matérielle parallèle. Ce ceci permet de se rapproché d'une implantation purement matérielle de l'outil T-DTS
249

Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle

Andriamasinoro, Fenintsoa 28 August 2003 (has links) (PDF)
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
250

Une méthode d'analyse discriminante pour des concepts imprécis

Loutchmia, Dominique 25 September 1998 (has links) (PDF)
Les travaux de cette thèse se situent dans le cadre de la discrimination conceptuelle. Notre objectif est de caractériser des classes d'objets imprécis et structurés, à partir de concepts imprécis. Le modèle de représentation des données utilise un formalisme objet pour décrire les relations de dépendance entre les attributs et modélise l'imprécision à l'aide de termes linguistiques organisés en structure de treillis. Dans un premier temps, nous avons défini des fonctions de reconnaissances floues permettant de mesurer l'appartenance graduelle d'une observation à un concept. Ces fonctions sont construites à partir de métriques qui prennent en compte les différents aspects du modèle. Ensuite, à partir des notions de complétude et de consistance, nous avons élaboré des critères évaluant la qualité de discrimination d'un concept au contour imprécis. L'utilisation de quantificateurs et modificateurs linguistiques permet de préciser cette qualité de discrimination en tenant compte des erreurs de classement. Enfin, nous avons développé des méthodes d'acquisition de concepts imprécis à partir d'exemples et de contre-exemples. Ces méthodes déterminent un recouvrement des exemples à partir de descriptions reconnaissant au plus, un nombre fixe de contre-exemples. Nos méthodes de discrimination s'appuient, pour déterminer efficacement des concepts, sur les opérateurs de généralisation et sur la structure de treillis des descriptions discriminantes. Afin d'améliorer la qualité et la fiabilité des résultats, une procédure de sélection des attributs les plus discriminants a été proposée. Implantées dans un système d'apprentissage, ces différentes méthodes sont appliquées à plusieurs expérimentations.

Page generated in 0.0881 seconds