• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 17
  • 16
  • Tagged with
  • 54
  • 54
  • 50
  • 47
  • 38
  • 36
  • 34
  • 33
  • 32
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Détection de Collision pour Environnements Large Échelle : Modèle Unifié et Adaptatif pour Architectures Multi-coeur et Multi-GPU

Avril, Quentin 16 September 2011 (has links) (PDF)
Les environnements de réalité virtuelle devenant de plus en plus complexes et de très grandes dimensions, un niveau d'interaction temps-réel devient impossible à garantir. En effet, de par leur complexité, due à une géométrie détaillée et aux propriétés physiques spécifiques, ces environnements large échelle engendrent un goulet d'étranglement calculatoire critique sur les algorithmes de simulation physique. Nous avons focalisé nos travaux sur la première étape de ces algorithmes qui concerne la détection de collision, car les problématiques font partie intégrante de ce goulet d'étranglement et leur complexité peut parfois se révéler quadratique dans certaines situations. Le profond bouleversement que subissent les architectures machines depuis quelques années ouvre une nouvelle voie pour réduire le goulet d'étranglement. La multiplication du nombre de cœurs offre ainsi la possibilité d'exécuter ces algorithmes en parallèle sur un même processeur. Dans le même temps, les cartes graphiques sont passées d'un statut de simple périphérique d'affichage graphique à celui de supercalculateur. Elles jouissent désormais d'une attention toute particulière de la part de la communauté traitant de la simulation physique. Afin de passer au large échelle et d'être générique sur la machine d'exécution, nous avons proposé des modèles unifiés et adaptatifs de correspondance entre les algorithmes de détection de collision et les architectures machines de type multi-coeur et multi-GPU. Nous avons ainsi défini des solutions innovantes et performantes permettant de réduire significativement le temps de calcul au sein d'environnements large échelle tout en assurant la pérennité des résultats. Nos modèles couvrent l'intégralité du pipeline de détection de collision en se focalisant aussi bien sur des algorithmes de bas ou de haut niveau. Nos modèles multi-coeur, GPU et multi-GPU allient différentes techniques de subdivision spatiale à des algorithmes basés topologie ainsi que des techniques d'équilibrage de charge basées sur le vol de données. Notre solution hybride permet d'accroitre l'espace et le temps de calcul ainsi que le passage au large échelle. L'association de ces nouveaux algorithmes nous a permis de concevoir deux modèles d'adaptation algorithmique dynamique basés, ou non, sur des scénarios de pré-calcul hors-ligne. Enfin, il nous est apparu indispensable d'ajouter au pipeline de détection de collision une nouvelle dimension révélant la prise en compte des architectures pour une exécution optimale. Grâce à ce formalisme, nous avons proposé un nouveau pipeline de détection de collision offrant une granularité de parallélisme sur processeurs multi-coeur. Il permet une exécution simultanée des différentes étapes du pipeline ainsi qu'un parallélisme interne à chacune de ces étapes.
42

Le projet CordiFormes : une plate-forme pour la construction de modeleurs déclaratifs

Emmanuel, Desmontils 14 January 1998 (has links) (PDF)
Les travaux en modélisation déclarative sont assez nombreux. Il est désormais nécessaire de mettre en place des méthodes générales basées sur celles déjà étudiées et de proposer des outils pour le développement de modeleurs déclaratifs. Nous proposons un nouveau formalisme basé sur les ensembles flous. Ce formalisme apparaît d'une part comme une synthèse et une unification des travaux existants et d'autre part apporte des éléments nouveaux comme la logique floue, la gestion linguistique de la négation. Nous étudions particulièrement le type de propriété le plus simple : la propriété élémentaire. A partir d'une propriété de base, d'un opérateur flou et d'un modificateur, nous mettons en place une méthode pour déterminer la sémantique d'une propriété élémentaire. Nous proposons aussi un traitement original de sa négation. Plutôt que d'utiliser la négation logique habituelle, nous nous intéressons à une gestion se basant sur des notions linguistiques. Enfin, nous présentons des solutions de traitement pour les autres propriétés. Cependant, ces solutions ne sont pas encore vraiment satisfaisantes. La plupart des projets en modélisation déclarative mettent en oeuvre des techniques similaires. A partir de ces travaux et du formalisme flou, nous développons le projet CordiFormes, une plate-forme de programmation visant à faciliter la mise en oeuvre de futurs modeleurs déclaratifs. Ses caractéristiques sont la simplicité, la souplesse de programmation, l'efficacité, l'extensibilité, la réutilisabilité et le prototypage rapide du modeleur. CordiFormes propose des outils sur trois niveaux : le noyau comportant toutes les structures et algorithmes de base, la couche interface proposant dialogues et composants d'interface et, enfin, la couche application pour produire rapidement un premier modeleur. Trois applications permettent de valider le formalisme et les outils de la plate-forme.
43

Modèles pour la Création Interactive et Intuitive d'Objets Tridimensionnels

Barthe, Loïc 08 July 2011 (has links) (PDF)
Ce manuscrit présente principalement un ensemble de travaux de recherche, ainsi que les tâches administratives ou liées à la vie de la recherche, que j'ai effectuées. Il se termine par ma liste de publications. Les travaux présentés s'étalent sur ces neuf dernières années. Ils portent sur la modélisation géométrique de formes complexes et sont ceux pour lesquels ma participation a été la plus active, voire dont j'ai été l'instigateur. De nos jours, l'image prend de plus en plus d'importance. Parmi tous les facteurs à l'origine de ce phénomène, nous pouvons noter la prolifération des supports d'affichage (écrans, téléphones portables, tablettes PC, ordinateurs ultra-portables, etc). La demande en création de contenu visuel est croissante et une façon de répondre à cette demande efficacement et à moindre coût passe par la génération de contenu virtuel tridimensionnel. La génération de contenu virtuel s'appuie sur la modélisation géométrique d'objets complexes. Cette phase de création des objets tridimensionnels est encore longue et laborieuse et n'est accessible qu'aux professionnels ou aux passionnés. Ceci est dû, en partie, à la difficulté de définir des modèles de représentation de surfaces qui sont à la fois rapides à visualiser, robustes et accessibles quand on édite la surface (déformation, changement de topologie, etc), simples à implanter, numériquement stables, et permettant une interaction intuitive avec l'utilisateur. En fait, il n'existe pas vraiment de solution satisfaisante au développement rapide de logiciels de modélisation performants et faciles à prendre en main par un utilisateur non-expert; même s'ils sont contextualisés. Nous nous intéresserons, dans un premier temps, à l'un des modèles de représentation de surfaces les plus populaires et reconnus pour sa flexibilité et son efficacité dans des applications de modélisation d'objets de formes libres : les surfaces de subdivision. Nous verrons les travaux que j'ai effectués sur ces modèles et nous discuterons de leurs avantages et leurs inconvénients dans notre contexte. Ceci nous amènera à la présentation de travaux sur la modélisation par esquisses, une technique de modélisation basée sur le tracé de contours, reconnue pour son accessibilité d'un point de vue utilisateur. Ces travaux mettront en évidence l'intérêt que l'on peut avoir à développer les modèles volumiques (surfaces implicites) et nous verrons quels travaux ont été menés récemment sur ces modèles pour améliorer leur contrôle et leur efficacité en situation de modélisation. Nous finirons en mettant en perspective le potentiel des modèles volumiques en présentant des projets de recherche qui ont ou vont commencer.
44

Modélisation des expressions faciales émotionnelles et de leurs dynamiques pour l'animation réaliste et interactive de personnages virtuels.

Stoiber, Nicolas 10 December 2010 (has links) (PDF)
Dans les mondes virtuels, une des tâches les plus complexes est l'intégration de personnages virtuels réalistes et le visage est souvent considéré comme l'élément le plus important car il concentre les canaux de communications humains les plus essentiels. La création de personnages virtuels convaincants passe ainsi par une meilleure compréhension et une meilleure reproduction de l'expressivité faciale naturelle. Dans ces travaux, nous nous concentrons sur les expressions faciales émotionnelles, qui selon nous représente le plus intéressant aspect de la communication non-verbale. Nous proposons une approche qui apprend les caractéristiques des expressions faciales directement sur des visages humains, et utilise cette connaissance pour générer des animations faciales réalistes pour des visages virtuels. Nos contributions sont les suivantes: - Une méthode capable d'extraire de données brutes un espace simple et pertinent pour la représentation des expressions faciales émotionnelles. Cet espace de représentation peut ensuite être utilisé pour la manipulation intuitive des expressions sur les visages de n'importe quel personnage virtuel. - Un système d'animation, basé sur une collection de modèles de mouvement, qui pilote l'aspect dynamique de l'expressivité faciale. Les modèles de mouvement apprennent la signature dynamique des expressions naturelles à partir de données, et reproduisent cette signature lors de la synthèse de nouvelles animations. Le système global d'animation issu des ces travaux est capable de générer des animations faciales réalistes et adaptatives pour des applications temps-réel telles que les jeux vidéos ou les agents conversationnels. En plus de ses performances, le système peut être associé aux notions plus abstraites d'émotions humaines. Ceci rend le processus d'animation faciale plus intuitif, en particulier pour les utilisateurs non-experts et les applications d''affective computing' qui travaillent généralement à un niveau sémantique.
45

Représentation des maillages multirésolutions : application aux volumes de subdivision

Untereiner, Lionel 08 November 2013 (has links) (PDF)
Les maillages volumiques sont très répandus en informatique graphique, en visualisation scientifique et en calcul numérique. Des opérations de subdivision, de simplification ou de remaillage sont parfois utilisées afin d'accélérer les traitements sur ces maillages. Afin de maîtriser la complexité de l'objet et des traitements numériques qui lui sont appliqués, une solution consiste alors à le représenter à différentes échelles. Les modèles existants sont conçus pour des approches spécifiques rendant leur utilisation limitée aux applications pour lesquelles ils ont été pensés. Nos travaux de recherche présentent un nouveau modèle pour la représentation de maillages multirésolutions en dimension quelconque basé sur le formalisme des cartes combinatoires. Nous avons d'abord appliqué notre modèle aux volumes de subdivision multirésolutions. Dans ce cadre, nous présentons plusieurs algorithmes de raffinement d'un maillage grossier initial. Ces algorithmes supportent des hiérarchies obtenues par subdivision régulière et adaptative. Nous proposons ensuite deux représentations, opposés en terme de coût spatial et temporel, pour ce modèle.
46

Utilisation des relations spatiales pour l'analyse et l'édition de mouvement

Le Naour, Thibaut 09 December 2013 (has links) (PDF)
L'animation de personnages virtuels guidée par des données fait l'objet de nombreuses études dans le domaine de l'informatique graphique. Dans ce contexte, le mouvement est classiquement défini par une suite de squelettes au cours du temps, chacun étant décrit par un vecteur de positions et de rotations. Le maillage 3D est ensuite guidé par les squelettes au moyen d'un couplage défini explicitement. L'enchaînement des différentes étapes de ce processus est difficile à mettre en oeuvre, et conduit à des approximations et des erreurs de modélisation, à la fois au niveau de l'animation du squelette et de la déformation du maillage. Dans ce manuscrit nous proposons d'étudier d'autres représentations du mouvement par le biais d'un ensemble de relations spatiales. Cette approche nous permet de tenir compte implicitement de contraintes de distance entre les points de la structure articulée, du maillage et de l'environnement, et d'exprimer en particulier la notion de contact. Deux axes d'étude sont principalement abordés~: le premier considère le mouvement dans l'espace métrique, et le second caractérise chaque posture par son information différentielle dans l'espace Laplacien. Dans un premier temps, nous proposons de représenter les squelettes associés aux postures du mouvement par un ensemble de distances. Caractériser une telle structure dans l'espace métrique se ramène à un formalisme mathématique connu sous le nom de problème de la géométrie des distances. Ainsi, nous nous inspirons des différentes techniques existantes et les appliquons au contrôle du mouvement. L'objectif est de produire de nouveaux mouvements à partir de processus d'édition ou d'inversion cinématique. Nous montrons que cette représentation permet un contrôle simple et intuitif de l'animation d'un personnage. Elle possède également plusieurs propriétés exploitables dans le cadre de l'analyse du mouvement. Ce dernier point est illustré par une application originale de recherche de mouvements dans des grandes bases de données. Dans un second temps, nous définissons le mouvement par un ensemble de graphes dont les sommets sont caractérisés par une information différentielle. A travers cette représentation, nous proposons une nouvelle méthode d'édition du mouvement couplant des contraintes de distance avec l'opérateur Laplacien discret. Cet opérateur permet de préserver les relations spatiales lors de l'édition du mouvement alors que les contraintes de distance préservent certaines propriétés inhérentes au squelette. Ce concept donne lieu à plusieurs applications dédiées à la reconstruction et l'édition de mouvement : (i) l'édition interactive d'animation de squelette, où nous proposons d'éditer tout type de mouvement avec de fortes déformations tout en préservant l'information spatio-temporelle ; (ii) la reconstruction de trajectoires de marqueurs~: en faisant l'hypothèse qu'il existe un lien entre la trajectoire d'un marqueur et celles de ses voisins, nous proposons de reconstruire les trajectoires incomplètes ; (iii) l'animation de maillage où nous proposons un nouveau processus d'animation directement guidé par les trajectoires des marqueurs.
47

Séquences de maillages : classification et méthodes de segmentation

Arcila, Romain 25 November 2011 (has links) (PDF)
Les séquences de maillages sont de plus en plus utilisées. Cette augmentation des besoins entraîne un développement des méthodes de génération de séquences de maillages. Ces méthodes de générations peuvent produire des séquences de maillages de natures différentes. Le nombre d'applications utilisant ces séquences s'est également accru, avec par exemple la compression et le transfert de pose. Ces applications nécessitent souvent de calculer une partition de la séquence. Dans cette thèse, nous nous intéressons plus particulièrement à la segmentation en composantes rigides de séquences de maillages. Dans un premier temps, nous formalisons la notion de séquence de maillages et proposons donc une classification permettant de désigner quelles sont les propriétés attachées à un type de séquence, et ainsi de décrire précisément quel type de séquence est nécessaire pour une application donnée. Dans un second temps, nous formalisons la notion de segmentation de séquence de maillages, et présentons également l'état de l'art des méthodes de segmentation sur les séquences de maillages. Ensuite, nous proposons une première méthode de type globale pour les séquences stables de maillages, fondée sur la fusion de régions. Par la suite, nous présentons deux autres méthodes, reposant sur la classification spectrale. La première, produit un ensemble de segmentations globales, tandis que la seconde génère une segmentation globale ou une segmentation temporellement variable. Nous mettons également en place un système d'évaluation quantitative des segmentations. Enfin, nous présentons les différentes perspectives liées à la segmentation.
48

Modélisation 4D à partir de plusieurs caméras

Letouzey, Antoine 30 July 2012 (has links) (PDF)
Les systèmes multi-caméras permettent de nos jours d'obtenir à la fois des flux d'images couleur mais aussi des flux de modèles 3D. Ils permettent ainsi l'étude de scènes complexes à la fois de par les éléments qui la composent mais aussi de par les mouvements et les déformations que subissent ces éléments au fil du temps. Une des principales limitations de ces données est le manque de cohérence temporelle entre les observations obtenues à deux instants de temps successifs. Les travaux présentés dans cette thèse proposent des pistes pour retrouver cette cohérence temporelle. Dans un premier temps nous nous sommes penchés sur le problème de l'estimation de champs de déplacement denses à la surface des objets de la scène. L'approche que nous proposons permet de combiner efficacement des informations photométriques provenant des caméras avec des informations géométriques. Cette méthode a été étendue, par la suite, au cas de systèmes multi-caméras hybrides composés de capteurs couleurs et de profondeur (tel que le capteur kinect). Dans un second temps nous proposons une méthode nouvelle permettant l'apprentissage de la vraie topologie d'une scène dynamique au fil d'une séquence de données 4D (3D + temps). Ces travaux permettent de construire au fur et à mesure des observations un modèle de référence de plus en plus complet de la scène observée.
49

Algorithmes et analyses perceptuelles pour la navigation interactive basé image

Chaurasia, Gaurav 18 February 2014 (has links) (PDF)
Nous présentons une approche de rendu à base d'images qui permet, à partir de photos, de naviguer librement et générer des points de vue quelconques dans des scènes urbaines. Les approches précédentes se basent sur un modèle géométrique complet et précis de la scène. La qualité des résultats produits par ces méthodes se dégrade lorsque la géométrie est approximative. Dans cette thèse, nous proposons une approximation basée sur l'image pour compenser le manque de précision de la géométrie. Dans une première approche, nous utilisons une déformation discontinue des photos guidée par des cartes de profondeur quasi-denses, ce qui produit de meilleurs résultats que le plaquage de texture utilisé par les méthodes précédentes, en particulier lorsque la géométrie est imprécise. Cette approche nécessite quelques indications utilisateur pour identifier les bordures d'occlusion dans les photos. Nous proposons ensuite une méthode entièrement automatique basée sur la même idée de déformation d'image. Cette méthode permet de traiter des scènes plus complexes avec un plus grand nombre de photos. Nous évitons l'intervention utilisateur en sur-segmentant les images d'entrées pour former des superpixels. Nous déformons chaque superpixel indépendamment en utilisant l'information de profondeur clairsemée. Nous proposons également un algorithme de synthèse de profondeur approximative pour traiter les zones de l'image où la géométrie n'est pas disponible. Nous comparons nos résultats à de nombreuses approches récentes et montrons que notre méthode permet une navigation virtuelle libre. Nous avons aussi étudié les défauts du rendu à base d'images d'un point de vue perceptif. Dans une première études controlées, nous avons évalué la perception des distorsions de perspective produites lorsqu'une seule image est projetée sur une géométrie planaire. Les données obtenues lors de cette étude nous ont permis de développer un modèle quantitatif permettant de prédire les distorsions perçues en fonction des paramètres de capture et de visualisation. Dans une autre étude nous comparons les défauts visuels produits par des transitions d'images douces ou abruptes. Nous avons déduit de cette étude des conseils pour choisir le meilleur compromis entre les deux types de transition. Ces deux études ont motivé des choix de conception de nos algorithmes de rendu à base d'images. Enfin, nous démontrons l'utilisation de notre approche pour la thérapie cognitive, ce qui représente la première application de réalité virtuelle à base d'images. Notre méthode permet de réduire considérablement le coût de modélisation 3D d'une scène de réalité virtuelle tout en produisant des visites virtuelles très réalistes.
50

Codage de carte de profondeur par déformation de courbes élastiques / Coding of depth maps by elastic deformations of curves

Calemme, Marco 20 September 2016 (has links)
Dans le format multiple-view video plus depth, les cartes de profondeur peuvent être représentées comme des images en niveaux de gris et la séquence temporelle correspondante peut être considérée comme une séquence vidéo standard en niveaux de gris. Cependant les cartes de profondeur ont des propriétés différentes des images naturelles: ils présentent de grandes surfaces lisses séparées par des arêtes vives. On peut dire que l'information la plus importante réside dans les contours de l'objet, en conséquence une approche intéressante consiste à effectuer un codage sans perte de la carte de contour, éventuellement suivie d'un codage lossy des valeurs de profondeur par-objet. Dans ce contexte, nous proposons une nouvelle technique pour le codage sans perte des contours de l'objet, basée sur la déformation élastique des courbes. Une évolution continue des déformations élastiques peut être modélisée entre deux courbes de référence, et une version du contour déformée élastiquement peut être envoyée au décodeur avec un coût de codage très faible et utilisé comme information latérale pour améliorer le codage sans perte du contour réel. Après que les principales discontinuités ont été capturées par la description du contour, la profondeur à l'intérieur de chaque région est assez lisse. Nous avons proposé et testé deux techniques différentes pour le codage du champ de profondeur à l'intérieur de chaque région. La première technique utilise la version adaptative à la forme de la transformation en ondelette, suivie par la version adaptative à la forme de SPIHT. La seconde technique effectue une prédiction du champ de profondeur à partir de sa version sous-échantillonnée et l'ensemble des contours codés. Il est généralement reconnu qu'un rendu de haute qualité au récepteur pour un nouveau point de vue est possible qu’avec la préservation de l'information de contour, car des distorsions sur les bords lors de l'étape de codage entraînerait une dégradation évidente sur la vue synthétisée et sur la perception 3D. Nous avons étudié cette affirmation en effectuant un test d'évaluation de la qualité perçue en comparant, pour le codage des cartes de profondeur, une technique basée sur la compression d'objects et une techniques de codage vidéo hybride à blocs. / In multiple-view video plus depth, depth maps can be represented by means of grayscale images and the corresponding temporal sequence can be thought as a standard grayscale video sequence. However depth maps have different properties from natural images: they present large areas of smooth surfaces separated by sharp edges. Arguably the most important information lies in object contours, as a consequence an interesting approach consists in performing a lossless coding of the contour map, possibly followed by a lossy coding of per-object depth values. In this context, we propose a new technique for the lossless coding of object contours, based on the elastic deformation of curves. A continuous evolution of elastic deformations between two reference contour curves can be modelled, and an elastically deformed version of the reference contours can be sent to the decoder with an extremely small coding cost and used as side information to improve the lossless coding of the actual contour. After the main discontinuities have been captured by the contour description, the depth field inside each region is rather smooth. We proposed and tested two different techniques for the coding of the depth field inside each region. The first technique performs the shape-adaptive wavelet transform followed by the shape-adaptive version of SPIHT. The second technique performs a prediction of the depth field from its subsampled version and the set of coded contours. It is generally recognized that a high quality view rendering at the receiver side is possible only by preserving the contour information, since distortions on edges during the encoding step would cause a sensible degradation on the synthesized view and on the 3D perception. We investigated this claim by conducting a subjective quality assessment test to compare an object-based technique and a hybrid block-based techniques for the coding of depth maps.

Page generated in 0.0626 seconds