• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 45
  • 12
  • 1
  • Tagged with
  • 148
  • 81
  • 67
  • 59
  • 38
  • 34
  • 33
  • 30
  • 29
  • 28
  • 26
  • 25
  • 23
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Retour Multimodal et Techniques d'Interaction pour des Environnements Virtuels Basés Physique et Larges

Cirio, Gabriel 02 December 2011 (has links) (PDF)
La Réalité Virtuelle permet de simuler et d'interagir avec des Environnements Virtuels (EV) à travers différentes modalités sensorielles. Cependant, l'interaction avec des EV basés physique et complexes, comme des environnements non rigides ou larges, présente plusieurs défis en termes d'interaction et de retours sensoriels. Dans la première partie de cette thèse, nous abordons la manipulation de milieux non rigides avec du retour haptique et multimodal. Nous présentons tout d'abord une nouvelle approche pour l'interaction haptique à 6 degrés de liberté avec des fluides. Cette approche permet la génération de retours de force lors de l'interaction avec des fluides visqueux par le biais d'objets rigides de forme arbitraire. Nous étendons ensuite cette approche pour inclure l'interaction haptique avec des objets déformables, menant donc à une interaction haptique unifiée avec les différents états de la matière. Une expérience perceptuelle nous a permis de montrer que les utilisateurs peuvent identifier de façon efficace les différents états en n'utilisant que la modalité haptique. Ensuite, nous présentons un nouveau modèle vibrotactile pour le rendu de fluides, tirant parti de connaissances dans la synthèse de son de fluides. A travers cette approche, nous rendons possible l'interaction avec des fluides tout en générant des retours multimodaux, utilisant les canaux sensoriels vibrotactile, kinesthésique, acoustique et visuel. Dans la seconde partie de cette thèse, nous abordons la navigation basée sur la marche dans des EV larges. Comme les EV sont souvent plus larges que l'espace de travail réel, nous présentons une nouvelle technique de navigation qui permet à l'utilisateur de connaître de façon immersive les limites de son espace de travail en translation. En utilisant un contrôle hybride en position/vitesse, cette technique fournit une métaphore simple et intuitive pour une navigation libre de collisions et de ruptures d'immersion. Comme certains espaces de travail présentent aussi des limites en rotation dues à des écrans manquants, comme dans le cas d'un CAVE, nous proposons ensuite trois nouvelles métaphores de navigation abordant ce problème supplémentaire. L'évaluation de ces techniques de navigation a permis de montrer qu'elles remplissent efficacement leurs objectifs tout en étant très appréciées par les utilisateurs.
112

Modèles de caméras et algorithmes pour la création de contenu video 3D / Camera Models and algorithms for 3D video content creation

Pujades Rocamora, Sergi 14 October 2015 (has links)
Des optiques à longue focale ont été souvent utilisées dans le cinéma 2D et la télévision, soit dans le but de se rapprocher de la scène, soit dans le but de produire un effet esthétique grâce à la déformation de la perspective. Toutefois, dans le cinéma ou la télévision 3D, l'utilisation de longues focales crée le plus souvent un "effet carton” ou de la divergence oculaire.Pour résoudre ce problème, les méthodes de l'état de l'art utilisent des techniques de transformation de la disparité, qui sont une généralisation de l'interpolation de points de vue.Elles génèrent de nouvelles paires stéréoscopiques à partir des deux séquences d'images originales. Nous proposons d'utiliser plus de deux caméras pour résoudre les problèmes non résolus par les méthodes de transformation de la disparité.Dans la première partie de la thèse, nous passons en revue les causes de la fatigue visuelle et de l'inconfort visuel lors de la visualisation d'un film stéréoscopique. Nous modélisons alors la perception de la profondeur de la vision stéréoscopique d'une scène filmée en 3D avec deux caméras, et projetée dans une salle de cinéma ou sur un téléviseur 3D. Nous caractérisons mathématiquement cette distorsion 3D, et formulons les contraintes mathématiques associées aux causes de la fatigue visuelle et de l'inconfort. Nous illustrons ces distorsions 3D avec un nouveau logiciel interactif, la “salle de projection virtuelle".Afin de générer les images stéréoscopiques souhaitées, nous proposons d'utiliser le rendu basé image. Ces techniques comportent généralement deux étapes. Tout d'abord, les images d'entrée sont transformées vers la vue cible, puis les images transformées sont mélangées. Les transformations sont généralement calculés à l'aide d'une géométrie intermédiaire (implicite ou explicite). Le mélange d'images a été largement étudié dans la littérature et quelques heuristiques permettent d'obtenir de très bonnes performances.Cependant, la combinaison des heuristiques proposées n'est pas simple et nécessite du réglage manuel de nombreux paramètres.Dans cette thèse, nous proposons une nouvelle approche bayésienne au problème de synthèse de nouveaux points de vue, basé sur un modèle génératif.Le modèle génératif proposé tient compte de l'incertitude sur la transformation d'image. Le formalisme bayésien nous permet de déduire l'énergie du modèle génératif et de calculer les images désirées correspondant au maximum a posteriori. La méthode dépasse en termes de qualité les techniques de l'état de l'art du rendu basé image sur des jeux de données complexes. D'autre part, les équations de l'énergie fournissent une formalisation des heuristiques largement utilisés dans les techniques de rendu basé image.Le modèle génératif proposé aborde également le problème de la super-résolution, permettant de rendre des images à une résolution plus élevée que les images de départ.Dans la dernière partie de cette thèse, nous appliquons la nouvelle technique de rendu au cas du zoom stéréoscopique et nous montrons ses performances. / Optics with long focal length have been extensively used for shooting 2D cinema and television, either to virtually get closer to the scene or to produce an aesthetical effect through the deformation of the perspective. However, in 3D cinema or television, the use of long focal length either creates a “cardboard effect” or causes visual divergence. To overcome this problem, state-of-the-art methods use disparity mapping techniques, which is a generalization of view interpolation, and generate new stereoscopic pairs from the two image sequences. We propose to use more than two cameras to solve for the remaining issues in disparity mapping methods.In the first part of the thesis, we review the causes of visual fatigue and visual discomfort when viewing a stereoscopic film. We then model the depth perception from stereopsis of a 3D scene shot with two cameras, and projected in a movie theater or on a 3DTV. We mathematically characterize this 3D distortion, and derive the mathematical constraints associated with the causes of visual fatigue and discomfort. We illustrate these 3D distortions with a new interactive software, “The Virtual Projection Room”.In order to generate the desired stereoscopic images, we propose to use image-based rendering. Those techniques usually proceed in two stages. First, the input images are warped into the target view, and then the warped images are blended together. The warps are usually computed with the help of a geometric proxy (either implicit or explicit). Image blending has been extensively addressed in the literature and a few heuristics have proven to achieve very good performance. Yet the combination of the heuristics is not straightforward, and requires manual adjustment of many parameters.In this thesis, we propose a new Bayesian approach to the problem of novel view synthesis, based on a generative model taking into account the uncertainty of the image warps in the image formation model. The Bayesian formalism allows us to deduce the energy of the generative model and to compute the desired images as the Maximum a Posteriori estimate. The method outperforms state-of-the-art image-based rendering techniques on challenging datasets. Moreover, the energy equations provide a formalization of the heuristics widely used in image-based rendering techniques. Besides, the proposed generative model also addresses the problem of super-resolution, allowing to render images at a higher resolution than the initial ones.In the last part of this thesis, we apply the new rendering technique to the case of the stereoscopic zoom and show its performance.
113

Light field remote vision / Algorithmes de traitement et de visualisation pour la vision plénoptique à grande distance

Nieto, Grégoire 03 October 2017 (has links)
Les champs de lumière ont attisé la curiosité durant ces dernières décennies. Capturés par une caméra plénoptique ou un ensemble de caméras, ils échantillonnent la fonction plénoptique qui informe sur la radiance de n'importe quel rayon lumineux traversant la scène observée. Les champs lumineux offrent de nombreuses applications en vision par ordinateur comme en infographie, de la reconstruction 3D à la segmentation, en passant par la synthèse de vue, l'inpainting ou encore le matting par exemple.Dans ce travail nous nous attelons au problème de reconstruction du champ de lumière dans le but de synthétiser une image, comme si elle avait été prise par une caméra plus proche du sujet de la scène que l'appareil de capture plénoptique. Notre approche consiste à formuler la reconstruction du champ lumineux comme un problème de rendu basé image (IBR). La plupart des algorithmes de rendu basé image s'appuient dans un premier temps sur une reconstruction 3D approximative de la scène, appelée proxy géométrique, afin d'établir des correspondances entre les points image des vues sources et ceux de la vue cible. Une nouvelle vue est générée par l'utilisation conjointe des images sources et du proxy géométrique, bien souvent par la projection des images sources sur le point de vue cible et leur fusion en intensité.Un simple mélange des couleurs des images sources ne garantit pas la cohérence de l'image synthétisée. Nous proposons donc une méthode de rendu direct multi-échelles basée sur les pyramides de laplaciens afin de fusionner les images sources à toutes les fréquences, prévenant ainsi l'apparition d'artefacts de rendu.Mais l'imperfection du proxy géométrique est aussi la cause d'artefacts de rendu, qui se traduisent par du bruit en haute fréquence dans l'image synthétisée. Nous introduisons une nouvelle méthode de rendu variationnelle avec des contraintes sur les gradients de l'image cible dans le but de mieux conditionner le système d'équation linéaire à résoudre et supprimer les artefacts de rendu dus au proxy.Certaines scènes posent de grandes difficultés de reconstruction du fait du caractère non-lambertien éventuel de certaines surfaces~; d'autre part même un bon proxy ne suffit pas, lorsque des réflexions, transparences et spécularités remettent en cause les règles de la parallaxe. Nous proposons méthode originale basée sur l'approximation locale de l'espace plénoptique à partir d'un échantillonnage épars afin de synthétiser n'importe quel point de vue sans avoir recours à la reconstruction explicite d'un proxy géométrique. Nous évaluons notre méthode à la fois qualitativement et quantitativement sur des scènes non-triviales contenant des matériaux non-lambertiens.Enfin nous ouvrons une discussion sur le problème du placement optimal de caméras contraintes pour le rendu basé image, et sur l'utilisation de nos algorithmes pour la vision d'objets dissimulés derrière des camouflages.Les différents algorithmes proposés sont illustrés par des résultats sur des jeux de données plénoptiques structurés (de type grilles de caméras) ou non-structurés. / Light fields have gathered much interest during the past few years. Captured from a plenoptic camera or a camera array, they sample the plenoptic function that provides rich information about the radiance of any ray passing through the observed scene. They offer a pletora of computer vision and graphics applications: 3D reconstruction, segmentation, novel view synthesis, inpainting or matting for instance.Reconstructing the light field consists in recovering the missing rays given the captured samples. In this work we cope with the problem of reconstructing the light field in order to synthesize an image, as if it was taken by a camera closer to the scene than the input plenoptic device or set of cameras. Our approach is to formulate the light field reconstruction challenge as an image-based rendering (IBR) problem. Most of IBR algorithms first estimate the geometry of the scene, known as a geometric proxy, to make correspondences between the input views and the target view. A new image is generated by the joint use of both the input images and the geometric proxy, often projecting the input images on the target point of view and blending them in intensity.A naive color blending of the input images do not guaranty the coherence of the synthesized image. Therefore we propose a direct multi-scale approach based on Laplacian rendering to blend the source images at all the frequencies, thus preventing rendering artifacts.However, the imperfection of the geometric proxy is also a main cause of rendering artifacts, that are displayed as a high-frequency noise in the synthesized image. We introduce a novel variational rendering method with gradient constraints on the target image for a better-conditioned linear system to solve, removing the high-frequency noise due to the geometric proxy.Some scene reconstructions are very challenging because of the presence of non-Lambertian materials; moreover, even a perfect geometric proxy is not sufficient when reflections, transparencies and specularities question the rules of parallax. We propose an original method based on the local approximation of the sparse light field in the plenoptic space to generate a new viewpoint without the need for any explicit geometric proxy reconstruction. We evaluate our method both quantitatively and qualitatively on non-trivial scenes that contain non-Lambertian surfaces.Lastly we discuss the question of the optimal placement of constrained cameras for IBR, and the use of our algorithms to recover objects that are hidden behind a camouflage.The proposed algorithms are illustrated by results on both structured (camera arrays) and unstructured plenoptic datasets.
114

Dispositif de rendu distant multimédia et sémantique pour terminaux légers collaboratifs / Semantic multimedia remote viewer for collaborative mobile thin clients

Joveski, Bojan 18 December 2012 (has links)
Développer un système de rendu distant pour terminaux légers et mobiles traitant d'objets multimédias et de leur sémantique consiste à (1) offrir une véritable expérience multimédia collaborative au niveau du terminal, (2) assurer la compatibilité avec les contraintes liées au réseau (bande passante, erreurs et latence variables en temps) et au terminal (ressources de calcul et de mémoire réduites) et (3) s'affranchir des types de terminaux et des spécificités des communautés.Cette thèse traite de ces enjeux et se positionne en rupture avec l'état de l'art en développant une architecture support fondée sur la gestion sémantique du contenu multimédia. Le principe consiste à convertir en temps réel le contenu graphique généré par l'application en un graphe de scène multimédia et à le gérer en fonction de la sémantique de ses composantes.L'optimisation de la bande passante est assurée par la compression adaptative du graphe de scène et par la compression sans perte des messages de collaboration. Les deux méthodes développées sont caractérisées respectivement par la création d'un unique graphe de scène intrinsèquement adaptable au réseau/terminal et par la mise à jour dynamique du dictionnaire de codage en fonction des messages générés par les utilisateurs. Elles sont brevetées.Les fonctionnalités collaboratives interviennent directement au niveau du contenu grâce à l'enrichissement du graphe de scène par un nouveau type de nœud, dont la normalisation ISO est en cours.Le démonstrateur logiciel sous-jacent, dénommé MASC (Multimedia Adaptive Semantic Collaboration), permet de comparer objectivement cette nouvelle architecture aux solutions actuellement déployées par des acteurs majeurs du domaine (VNC RBF ou Microsoft RDP). Deux types d'application ont été considérés : l'édition du texte et la navigation sur Internet. Les évaluations quantitatives montrent: (1) un impact limité des artéfacts visuels de conversion (PSNR compris entre 30 et 42 dB et SSIM supérieur à 0,9999), (2) consommation de la bande passante downlink (resp. uplink) réduite d'un facteur de 2 à 60 (resp. de 3 à 10), (3) latence dans la transmission des événements générés par l'utilisateur réduite d'un facteur de 4 à 6, (4) consommation des ressources de calcul côté client réduite d'un facteur 1,5 par rapport à VNC RFB. / Defining a multimedia remote viewer for mobile thin clients comes across with threefold scientific/technical constraints: (1) providing at the client side heterogeneous multimedia content and the support for ultimate collaboration functionalities, (2) ensuring a stable quality of services despite constrained resources available for the network and the terminal, and (3) featuring terminal independency and benefiting from community support.The present thesis addresses these challenges by developing a collaborative, semantic multimedia remote viewer. The underlying architecture features novel components for scene-graph creation and management, as well as for collaborative user events handling.The adaptive compression of the multimedia scene graph and the lossless compression of the collaborative messages are optimized through two devoted algorithms. The former creates a unique scene-graph, intrinsically adaptable to the network/terminal conditions. The latter dynamically generates and updates the encoding table according to the messages generated by the collaborative users. Both algorithms are patented.The direct collaborative functionality is ensured at the content level by enriching the scene graph with a new type of node where currently becomes a part of the ISO standards.The experimental setup considers the Linux X windows system and BiFS/LASeR multimedia scene technologies on the server and client sides, respectively. The implemented solution was objectively benchmarked against currently deployed solutions (VNC RFB and Microsoft RDP), by considering text-editing and www-browsing applications. The quantitative assessments demonstrate: (1) limited depreciation of the visual quality, e.g. PSNR values between 30 and 42dB or SSIM values larger than 0.9999; (2) downlink bandwidth gain factors ranging from 2 to 60; (3) efficient real-time user event management expressed by network roundtrip-time reduction by factors of 4 to 6 and by up-link bandwidth gain factors from 3 to 10; (4) feasible CPU activity, larger than in the Microsoft RDP case but reduced by a factor of 1.5 with respect to the VNC RFB.
115

Algorithmes et analyses perceptuelles pour la navigation interactive basée image / Algorithms and perceptual analysis for interactive free viewpoint image-based navigation

Chaurasia, Gaurav 18 February 2014 (has links)
Nous présentons une approche de rendu à base d'images (IBR) qui permet, à partir de photos, de naviguer librement et générer des points de vue quelconques dans des scènes urbaines. Les approches précédentes dépendent des modèles 3D et donnent lieu à des rendus de qualité réduite avec beaucoup d'artefacts. Dans cette thèse, nous proposons une approximation basée sur l'image pour compenser le manque de précision de la géométrie 3D. Nous utilisons un warp d'image guidé par des cartes de profondeur quasi-denses qui donnent lieu à beaucoup moins d'artefacts. En se basant sur cette approche, nous avons développé une méthode entièrement automatique permettant de traiter les scènes complexes. Nous sur-segmentons les images d’entrées en superpixels qui limitent les occlusions sur les bords des objets. Nous introduisons la synthèse de profondeur pour créer une approximation de cette profondeur mal reconstruite dans certaines régions et calculons les warps sur les superpixels pour synthétiser le résultat final. Nous comparons nos résultats à de nombreuses approches récentes. Nous avons analysé les artefacts de l'IBR d'un point de vue perceptif en comparant les artefacts générés par le mélange de plusieurs images avec ceux des transitions temporelles brusques et avons élaboré une méthodologie pour la sélection d'un compromis idéal entre les deux. Nous avons également analysé les distorsions perspectives et avons développé un modèle quantitatif qui permet de prédire les distorsions en fonction des paramètres de capture et de visualisation. Comme application, nous avons mis en œuvre un système de réalité virtuelle qui utilise l'IBR à la place de l'infographie traditionnelle. / We present image-based rendering (IBR) approaches that allow free viewpoint walkthroughs of urban scenes using just a few photographs as input. Previous approaches depend upon 3D models which give artifacts as the quality of 3D model degrades. In this thesis, we propose image-based approximations to compensate for the lack of accurate 3D geometry. In the first project, we use discontinuous shape-preserving image warp guided by quasi-dense depth maps which gives far fewer rendering artifacts than previous approaches. We build upon this approach in the second project by developing a completely automated solution that is capable of handling more complex scenes. We oversegment input images into superpixels that capture all occlusion boundaries. We introduce depth synthesis to create approximate depth in very poorly reconstructed regions and compute shape-preserving warps on superpixels to synthesize the final result. We also compare our results to many recent approaches. We analyze IBR artifacts from a perceptual point of view. In the first study, we compare artifacts caused by blending multiple images with abrupt temporal transitions and develop guidelines for selecting the ideal tradeoff. We use vision science in another study to investigate perspective distortions and develop a quantitative model that predicts distortions as a function of capture and viewing parameters. We use guidelines from these experiments to motivate the design of our own IBR systems. We demonstrate the very first virtual reality system that uses IBR instead of traditional computer graphics. This drastically reduces the cost of modeling 3D scenes while producing highly realistic walkthroughs.
116

Placement automatique de sondes d’irradiance

Polard-Perron, Joël 05 1900 (has links)
Nous proposons une méthode pour placer automatiquement des sondes dans une scène par minimisation d’une fonction d’erreur. Nous guidons les sondes vers les sites d’échantillonnage optimaux en appliquant la descente de gradient à une fonction d’erreur qui représente la similarité entre la structure en construction et un ensemble de référence. En utilisant la pondération inverse à la distance comme fonction interpolante, nous avons construit avec fiabilité des ensembles de sondes dans trois scènes. En comparant nos résultats avec ceux produits par un ensemble de sondes de référence placées sur une grille régulière, nous atteignons théoriquement notre objectif dans une des trois scènes, où nous obtenons des valeurs d’erreur inférieures à la référence avec beaucoup moins de sondes. Nous avons eu des succès partiels dans les autres scènes, selon le nombre d’échantillons utilisés. / Diffuse global illumination within a 3D scene can be approximated in real time using irradiance probes. Probe placement typically relies on significant human input, and final quality of the approximation is often left to the subjectivity of a lighting artist. As demand for realism in rendering increases, the need to enhance the quality of such approximations is greater. We propose a method to automatically place probes in a scene by minimizing an error function. We guide probes to optimal sampling locations by applying gradient descent to an error function that represents similarity between our interpolated results and reference irradiance values. Using weighted nearest neighbour interpolation, we were able to reliably construct probe sets with minimal input in three scenes. Comparing our results to those produced by a set of probes placed on a 3D grid, we were theoretically successful in one scene, in which we could obtain lower error values with fewer probes. We obtained partial success in the other scenes, depending on the number of samples used.
117

Contribution à l'analyse des redevances pour service rendu perçues par les communes et leurs intercommunalités / Contribution to the analysis of charging fees implemented by cities and intercommunalities

Eisinger, Thomas 16 June 2015 (has links)
La tarification des services publics mis en œuvre par les communes et leurs intercommunalités s’est développée ces dernières années et devrait encore se développer, sous l’effet d’évolutions touchant la matière tarifaire elle-même mais aussi la matière fiscale. Les atouts que présente la redevance se sont considérablement renforcés. Son périmètre théorique n’a cessé de s’élargir, avec d’une part l’essor des services publics locaux rendus et d’autre part l’essor de ce qui peut être économiquement, politiquement et juridiquement tarifé. Par ailleurs, les handicaps peu objectifs ayant longtemps grippé la mobilisation du levier tarifaire sont pour l’essentiel en voie d’être levés. Le nouvel essor de la redevance se fonde aussi sur ses relations avec les deux principaux avatars de l’imposition locale : l’« impôt général », affecté au financement des services publics, et l’« impôt spécial », affecté au financement d’un service public. Comparée à l’impôt général, la redevance fait aujourd’hui preuve d’une plus grande marge de manœuvre mais surtout d’une meilleure prise en compte des capacités contributives. Par ailleurs, la redevance semble bénéficier de l’engouement actuel des décideurs nationaux et locaux pour l’impôt spécial, principale réponse apportée à la critique de l’impôt et au délitement incident du consentement des citoyens. Parce qu’elle en partage la philosophie, à savoir la mise en contribution des usagers potentiels ou effectifs d’un service public, la redevance semble bénéficier d’un réel effet d’entraînement. Si l’essor de la taxation pourrait à long terme être problématique pour la tarification, il en est bien un formidable catalyseur à court terme / Public service pricing grids implemented by the cities and intercommunalities will continue to soar as tax and tariff systems are changing.As far as charging fees are concerned, both utility and current, their merits according to the local deciders are greater than ever. Its scope broadened along with the development of local public services and the evolution of what may be economically, politically and legally charged. Meanwhile, what arbitrary resistances might have slowed down the implementation of pricing grids are starting to fade away.The regained interest in charging fees is also based on complex interactions with both pillars of the local tax system: the “general tax”, financing all the public services, and the “special tax”, financing a specific public service.Compared to the “general tax”, the charging system allows for more leeway and takes better into account contributory capacities.Due to the global defiance of the public towards the legitimacy of the tax system (almost to the point of challenging the consent principle behind it), both national and local deciders tend to lean for more use of “special tax”. The charging fee system is therefore more likely to be accepted as the core ideology behind it is the same: the contribution of citizens who are to benefit (even potentially) from a specific public service. If in the short term the rise of special taxes is a catalyzer for the rise of charging fees, in the long term it could nevertheless become a potential hazard
118

Discrete shape analysis for global illumination / Analyse de formes pour l'illumination globale

Noel, Laurent 15 December 2015 (has links)
Les images de synthèse sont présentes à travers un grand nombre d'applications tel que les jeux vidéo, le cinéma, l'architecture, la publicité, l'art, la réalité virtuelle, la visualisation scientifique, l'ingénierie en éclairage, etc. En conséquence, la demande en photoréalisme et techniques de rendu rapide ne cesse d'augmenter. Le rendu réaliste d'une scène virtuelle nécessite l'estimation de son illumination globale grâce à une simulation du transport de lumière, un processus coûteux en temps de calcul dont la vitesse de convergence diminue généralement lorsque la complexité de la scène augmente. En particulier, une forte illumination indirecte combinée à de nombreuses occlusions constitue une caractéristique globale de la scène que les techniques existantes ont du mal à gérer. Cette thèse s'intéresse à ce problème à travers l'application de techniques d'analyse de formes pour le rendu 3D.Notre principal outil est un squelette curviligne du vide de la scène, représenté par un graphe contenant des informations sur la topologie et la géométrie de la scène. Ce squelette nous permet de proposer de nouvelles méthodes pour améliorer des techniques de rendu temps réel et non temps réel. Concernant le rendu temps réel, nous utilisons les informations géométriques du squelette afin d'approximer le rendu des ombres projetés par un grand nombre de points virtuels de lumière représentant l'illumination indirecte de la scène 3D.Pour ce qui est du rendu non temps réel, nos travaux se concentrent sur des algorithmes basés sur l'échantillonnage de chemins, constituant actuellement le principal paradigme en rendu physiquement plausible. Notre squelette mène au développement de nouvelles stratégies d'échantillonnage de chemins, guidés par des caractéristiques topologiques et géométriques. Nous adressons également ce problème à l'aide d'un second outil d'analyse de formes: la fonction d'ouverture du vide de la scène, décrivant l'épaisseur locale du vide en chacun de ses points. Nos contributions offrent une amélioration des méthodes existantes and indiquent clairement que l'analyse de formes offre de nombreuses opportunités pour le développement de nouvelles techniques de rendu 3D / Nowadays, computer generated images can be found everywhere, through a wide range of applications such as video games, cinema, architecture, publicity, artistic design, virtual reality, scientific visualization, lighting engineering, etc. Consequently, the need for visual realism and fast rendering is increasingly growing. Realistic rendering involves the estimation of global illumination through light transport simulation, a time consuming process for which the convergence rate generally decreases as the complexity of the input virtual 3D scene increases. In particular, occlusions and strong indirect illumination are global features of the scene that are difficult to handle efficiently with existing techniques. This thesis addresses this problem through the application of discrete shape analysis to rendering. Our main tool is a curvilinear skeleton of the empty space of the scene, a sparse graph containing important geometric and topological information about the structure of the scene. By taking advantage of this skeleton, we propose new methods to improve both real-time and off-line rendering methods. Concerning real-time rendering, we exploit geometric information carried by the skeleton for the approximation of shadows casted by a large set of virtual point lights representing the indirect illumination of the 3D scene. Regarding off-line rendering, our works focus on algorithms based on path sampling, that constitute the main paradigm of state-of-the-art methods addressing physically based rendering. Our skeleton leads to new efficient path sampling strategies guided by topological and geometric features. Addressing the same problem, we also propose a sampling strategy based on a second tool from discrete shape analysis: the opening function of the empty space of the scene, describing the local thickness of that space at each point. Our contributions demonstrate improvements over existing approaches and clearly indicate that discrete shape analysis offers many opportunities for the development of new rendering techniques
119

La présence en réalité virtuelle, une approche centrée utilisateur / Presence in virtual relaity, a user centred approach

Bouvier, Patrice 04 December 2009 (has links)
Nous présentons une refondation théorique de la réalité virtuelle. Celle-ci est marquée par la conviction profonde de définir la réalité virtuelle comme une expérience médiatisée capable de susciter un sentiment de présence. Ce dernier est défini comme le sentiment authentique d’exister dans un monde autre que le monde physique où le corps se trouve. Nous proposons un éclairage nouveau et global sur le sentiment de présence. Cet éclairage consiste en une approche unifiée de la présence prenant en compte des considérations technologiques, psychologiques et écologiques. Nous avons élaboré un modèle qui identifie les processus menant au sentiment de présence. Selon notre modèle, deux phases inconscientes de jugement conditionnent l’émergence de la présence. Le premier jugement concerne la crédibilité de l’environnement, celle-ci dépend de la satisfaction des attentes intellectuelles et perceptives de l’utilisateur. Le deuxième jugement vise la crédibilité de l’expérience. Nous considérons que ce jugement est positif si un maximum des affordances perçues dans l’environnement est assumé, c’est-à-dire réalisable par l’intermédiaire des schémas d’interaction proposés à l’utilisateur. Nous avons mené une phase d’expérimentations pour valider la pertinence et la cohérence de notre modèle. Notre modèle a de multiples implications. Nous considérons par exemple qu’il peut constituer une grille d’analyse intéressante pour les jeux vidéo. De plus, il incite les concepteurs d’applications en réalité virtuelle à penser en terme d’affordances. Ce dernier point implique donc de faire entrer l’utilisateur très tôt dans la boucle de conception de l’application. Notre vision globale de la réalité virtuelle et de la présence a été mise en pratique notamment lors de la conception de dispositifs de réalité virtuelle transportables et à bas coûts. Sur la base de ce cadre théorique nous présentons un framework de conception d’applications en réalité virtuelle. Puisque l’objectif est la crédibilité et non le réalisme, nous nous intéressons à la réalité perçue de l’environnement et non pas à sa réalité physique. C’est pourquoi, le point de départ de notre framework consiste en un socle de connaissances sur la cognition humaine. Cette base de connaissances sert de vivier d’idées pour les quatre piliers sur lesquels peut s’appuyer le concepteur d’applications en réalité virtuelle. Ces piliers sont l’immersion, l’interaction, les émotions et un quatrième regroupant la boucle sensori-motrice et la multimodalité. Concernant le pilier immersion nous proposons un nouvel algorithme pour le calcul de la réverbération sonore dans un environnement complexe et dynamique. Notre méthode repose sur l’algorithme existant du lancer de frustum mais propose deux optimisations. La première exploite le socle de connaissances sur la cognition humaine pour déterminer une sphère d’acuité sonore. Celle-ci nous sert de cadre pour lancer les frusta depuis l’auditeur et non depuis les sources sonores. Cette deuxième optimisation réduit le nombre de calculs / We present a new theoretical context for virtual reality: virtual reality is defined as a mediated experience which is able to generate a feeling of presence. The latter is delimited as the genuine feeling to exist in a different world than the physical world where the body is located. We propose a new and comprehensive light on the feeling of presence through a unified approach of presence with technological, psychological and ecological considerations. We have developed a model which explains the processes leading to presence. According to our model, two unconscious stages of judgment govern the emergence of presence. The first judgment refers to the credibility of the virtual environment. The latter depends on the satisfaction of intellectual and perceptual user’s expectation. The second judgment deals with the credibility of the experience and is positive if most affordances perceived in the virtual environment are taken up, that means achievable with the interaction schemes offered to the user. We have conducted a study to assess the relevance and the consistency of our model. This model has some interesting repercussions like to be an analytical grid for video games. Moreover, it suggests to virtual reality developers that they should think in terms of affordances. This last idea involves to take into consideration the user very early in the design loop of the virtual reality experience. Our whole conception of virtual reality and presence has been put in practice during the design of low-cost ans easily transportable virtual reality systems. Based on this theoretical content we introduce a virtual reality application framework. Since the objective is the credibility, and not the realism of the environment and of the experience, we take an interest in the perceptual reality and not in its physical reality. This is why the starting point of our framework is a knowledge base on human cognition. The latter act as an idea pool for the four inter-related technical and psychological pillars upon which virtual reality developers can lean on. These pillars are immersion, interaction, emotions and a fourth one including the sensori-motor loop and the multimodality. Concerning the immersion pillar we introduce a new algorithm to compute sound reverberation in complex and dynamic virtual environment. Our method relies on the existing algorithm called frustum tracing but we provide two optimizations. The first one makes the most of the knowledge base on human cognition in order to work out a sphere of sound acuity. This information acts as a template in order to shoot the frusta from the listener and not from sound sources. This second optimization reduces the number of computations
120

Modélisation par bruit procédural et rendu de détails volumiques de surfaces dans les scènes virtuelles / Procedural noise modeling and rendering of volumetric details over surfaces in virtual scenes

Pavie, Nicolas 03 November 2016 (has links)
L’augmentation de la puissance graphique des ordinateurs grands publics entraîne avec elle une demande croissante de qualité et de complexité des scènes virtuelles. La gestion de cette complexité est particulièrement difficile pour les objets naturels tels les arbres et les champs d’herbe ou encore pour les animaux, pour lesquels de très nombreux petits objets très similaires viennent décorer les surfaces. La diversité de ces détails de surfaces, nécessaire à un rendu réaliste dans le cas des objets naturels, se traduit par une augmentation du temps de modélisation, du coût en stockage et de la complexité d’évaluation. Nous nous sommes intéressés aux différentes représentations et méthodes de génération à la volée pouvant être utilisées pour la création et le rendu temps réel de ces détails sur de vastes surfaces. Nous avons concentré notre étude sur le cas particulier des champs d’herbe et des fourrures : De nombreux brins quasi-similaires, distribués aléatoirement sur la surface, forment une apparence visuelle très proche d’un motif de bruit incluant des éléments de structure. Nous présentons dans un premier temps un bruit procédural axé sur la modélisation spatiale interactive d’éléments quasi-similaires et de leur distribution. L’utilisation de fonctions gaussiennes elliptiques comme primitive de modélisation, et la distribution non-uniforme contrôlée des éléments créés, permet de produire des motifs aléatoires ou quasi-réguliers incluant des caractéristiques structurelles. Une méthode d’analyse par décomposition en ellipses permet de préconfigurer ce bruit pour une reproduction rapide d’un motif donné. Nous présentons ensuite une extension de ce bruit pour la modélisation procédurale d’une surcouche volumique composée de détails de surfaces tels que des brins ou des objets volumiques plus complexes. Pour conserver une modélisation interactive du motif, une première méthode de rendu d’ordre image et une seconde méthode d’ordre objet sont proposées pour une évaluation optimisée du bruit par une carte graphique. Ces deux méthodes permettent une visualisation interactive et visuellement convaincante du résultat. / The growing power of graphics processing units (GPU) in mainstream computers creates a need for a higher quality and complexity of virtual scenes. Managing this complexity for natural objects such as trees or grass fields or even animals is painstaking, due to the large amount of small objects decorating their surface. The diversity of such details, mandatory for realistic rendering of natural objects, translates in a longer authoring time, a higher memory requirement and a more complex evaluation. We review in this thesis the related works on data representations and on-the-fly generation methods used for the creation and real-time rendering of details over large surfaces. We focus our study on the particular case of grass fields and fur : the fuzzy visual appearance of those surfaces is obtained by the distribution of many self-similar blades or strands, creating a pattern closely related to a noise with structural features. We first present a procedural noise that aims at spatial modeling of self-similar elements and their distribution. The elliptical Gaussian function used as a modeling primitive and the controlled non-uniform distribution of elements allows for various type of patterns to be modeled, from stochastic to near-regular one, while including structural features. The by-example analysis process based on an ellipse fitting method allows a fast configuration of the noise for patterns reproduction. We further introduce an extension of this noise model for the authoring of procedural shell textures of strand-based or more complex volumetric details. For interactive authoring of such volumetric pattern, an image-order and an object-order rendering methods are proposed, both methods being optimized for an implementation on the GPU. Our rendering methods allow for interactive visualization of a visually-convincing result.

Page generated in 0.0221 seconds