• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 7
  • 4
  • Tagged with
  • 64
  • 64
  • 53
  • 47
  • 22
  • 19
  • 15
  • 15
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Synthèse d’images réalistes en milieux fortement spéculaires

Bouchard, Guillaume 23 May 2014 (has links)
La synthèse d'images est un outil utilisé dans de nombreuses industries, comme celle de l'art, des jeux vidéos, du cinéma ou de l'ingénierie. Tout particulièrement, les simulations lumineuses de qualité au réalisme avancé sont un outil de prototypage puissant et l'étude d'un modèle virtuel permet de prendre des décisions pertinentes dans le processus de conception d'un produit. Cependant, la simulation est un processus coûteux pouvant nécessiter de nombreuses heures de calcul en fonction de la complexité des scènes. Dans cette thèse, nous nous intéressons à la complexité liée à la présence de matériaux spéculaires – les miroirs et les surfaces transparentes. Dans un contexte d'intégration numérique de Monte-Carlo, ces matériaux sont source de variance et ainsi augmentent les temps de calcul nécessaires à obtenir une image de qualité impliquant des phénomènes complexes comme les caustiques liées à la focalisation de la lumière, et les reflets. Après avoir mis en évidence les problématiques et contraintes caractéristiques des matériaux spéculaires, nous proposons un relâchement de ces contraintes au prix de l'introduction de biais – d'erreur – dans le calcul final. Nous proposons une heuristique permettant de pondérer une simulation non biaisée, mais peu effi- cace, et une simulation biaisée et plus efficace afin d'obtenir le meilleur compromis possible. Nos travaux étudient l'introduction de biais par régularisation, proposent des algorithmes efficaces de pondération et une méthode de visualisation interactive sur GPU. Pour finir, nos travaux ont permis l'amélioration du logiciel LuxRender, profitant ainsi à une grande communauté d'industriels et d'artistes / Image synthesis using computers is a tool used in many industries, from art, video games, cinema to engineering. Especially, efficient light simulations with advanced realism are an efficient tool for prototyping when the study of a virtual mock-up leads to more efficient industrial choices during the conception process. However, image rendering is a costly process which usually needs many hours of computation depending on the complexity of the involved scenes. In this thesis, we focus on the complexity inherited from the usage of specular materials, such as mirrors and transparent surfaces. In a Monte Carlo process, these materials are an important source of variance, or noise, and increase the rendering time needed to obtain an image representing complex phenomena such as caustics and reflexions. We first show the constraints involved by specular materials and propose to relax them, using regularization. We introduce a weighting heuristic allowing efficient trade-off between the biased regularization and the rendering efficiency. We study the evolution of the bias introduced by regularization, we propose efficient global illuminations algorithms and GPU implementations. Finally, our work was used inside LuxRender, a community developed rendering engine. This allows our work to be spread among and used by a large community of industrials and artists
22

Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles/Representation and computation of the visibility information for the interactive exploration of tridimensional scenes

Haumont, Denis 29 May 2006 (has links)
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines. Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type. La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul. La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation. Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.
23

Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation / Multispectral imaging assesment of sources and materials for photosimulation

Boulenguez, Pierre 04 January 2010 (has links)
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de « photosimulation ». Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la « photométrie en champ proche », ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument – géométrique, radiométrique, et photométrique – sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB / Pas de résumé en anglais
24

Nouvelles représentations pour une synthèse d'images plus dirigée vers l'utilisateur

Granier, Xavier 19 October 2009 (has links) (PDF)
Dans ce document, nous explorons les différentes étapes habituellement requises pour la synthèse d'image. Le principal but de cette exploration est de prendre en compte autant que possible l'utilisateur. La création d'images 3D nécessite en premier lieu la définition d'une collection de modèles 3D et de leur position relative. Pour cet objectif, nous explorons les techniques de modélisation 3D par esquisses pour des maillages 3D, en étendant l'utilisation de courbe de la définition de la silhouette à celle du profil de la forme, et en exposant toutes les différentes étapes du processus de reconstruction ainsi que la représentation interne. Nous explorons aussi l'utilisation de tels outils lorsque l'utilisateur se trouve face à de grands écrans. Une fois la géométrie d'un objet définie, un utilisateur doit définir son apparence résultant de l'interaction de la lumière avec ses propriétés de réflexion et sa géométrie. Nous introduisons un nouveau modèle de BRBF et ses outils de modélisation pour étendre les effets lumineux possibles. Puisque la forme de l'objet influence la perception de son éclairement, nous introduisons aussi un descripteur de forme pour extraire des informations continues de convexité et de courbure. Cette analyse en temps-réel est utilisée pour re-introduire ces information dans différents styles de rendu. Finallement, nous introduisons une nouvelle représentation pour l'éclairement qui offre un grand potentiel en terme d'édition pour l'éclairage global. Cette représentation est basée sur une grille régulière de vecteurs d'irradiance qui encode l'éclairement incident. La combinaison d'une approche volumique et vectorielle rend cette méthode bien adaptée pour tous les algorithmes qui doivent faire face à la complexité géométrique des scènes 3D.
25

Etude en vue de la multirésolution de l'apparence

Hadim, Julien 11 May 2009 (has links) (PDF)
Les fonctions de texture directionnelle (« Bidirectional Texture Function » ou BTF) ont rencontré un certain succès ces dernières années dans le contexte de la synthèse d'images en temps-réel grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données et de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace de celles-ci. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel BTFInspect afin de déterminer parmi les différents phénomènes visuels mesurés dans les BTFs, ceux qui influencent majoritairement la cohérence des données par pixel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées « Flat Bidirectional Texture Function » Flat-BTFs, qui améliore la cohérence des données d'une BTF et synthétiques afin de valider sa mise en œuvre. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous validons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification adaptée et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données.
26

Modèles d'habillage de surface pour la synthèse d'images.

Lefebvre, Sylvain 13 April 2005 (has links) (PDF)
La complexité visuelle des objets ne réside pas uniquement dans leurs formes, mais également dans l'apparence de leurs surfaces. Les détails de surface ne sont pas nécessaires à la compréhension des<br />formes. Ils sont cependant primordiaux pour enrichir l'aspect visuel des images produites, et répondre aux besoins croissants de réalisme des applications graphiques modernes (jeux vidéos, effets spéciaux,<br />simulateurs).<br />En synthèse d'image, les modèles d'habillage de surface, tels que le placage de texture, sont utilisés conjointement à la représentation des formes pour enrichir l'aspect des objets. Ils permettent de représenter les variations des propriétés du matériau le long de la surface, et ainsi de créer de nombreux détails, allant de fins motifs colorés à des aspects rugueux ou abimés.<br />Cependant, la demande croissante de l'industrie, en terme de richesse, de qualité et de finesse de détails, implique une utilisation des ressources toujours plus grande : quantité de données à stocker, temps et difficulté de création pour les artistes, temps de calcul des images. Les modèles d'habillage de surface actuels, en particulier le placage de texture, ne permettent plus de répondre efficacement à toutes les situations.<br />Nous proposons dans cette thèse de nouveaux modèles d'habillage, qui permettent d'atteindre de très hautes résolutions de détails sur les surfaces, avec peu de mémoire, un temps de création réduit et avec des performances interactives : nous les avons conçus pour les processeurs graphiques programmables récents. Nos approches sont multiples : combinaison semi-automatique de motifs sur la surface, gestion de texture dépendante du point de vue, méthodes basées sur des textures hiérarchiques pour éviter le recours à une paramétrisation planaire globale. Nous proposons également, à titre d'exemple, des applications concrètes de nos modèles d'habillage génériques à des cas difficiles, voire impossibles, à réaliser auparavant.
27

Courbes, cylindres et métamorphoses pour l'image de synthèse

Lazarus, Francis 21 December 1995 (has links) (PDF)
Le passage continu d'une forme à une autre, ou métamorphose, est un procédé souvent utilisé pour les animations en infographie. Les techniques employées pour réaliser ces métamorphoses font généralement appel à des méthodes de mélange d'images plus qu'à de véritables transformations tridimensionnelles. De fait, de nombreux problèmes pratiques et théoriques subsistent dès lors que l'on cherche à métamorphoser deux objets tridimensionnels tels que des maillages polyédriques. Nous proposons une technique de métamorphose adaptée à des objets de forme tubulaire. Une courbe squelette est associée à chaque objet afin de le paramétrer. La transformation des courbes squelettes associées à deux objets, conjointement aux paramétrisations, permet de réaliser la métamorphose. Dans ce contexte, deux points sont plus particulièrement étudiés\,: Pour animer les courbes squelettes, nous introduisons un procédé d'interpolation de courbes polygonales fondé sur une homotopie régulière dans les groupes de Lie. Par ailleurs, l'association d'une courbe squelette à un objet peut être une étape délicate. Nous proposons donc un outil d'aide à la construction de courbe squelette dont la définition originale repose sur une analogie combinatoire avec la théorie des fonctions de Morse. Ces études nous conduisent finalement à l'élaboration d'un outil interactif pour réaliser des métamorphoses tridimensionnelles. Cet outil se caractérise par sa simplicité d'utilisation et l'aspect intuitif de ses paramètres.
28

Modélisation et visualisation de phénomènes naturels simulés pas système physique particulaire

Guilbaud, Claire 23 September 2002 (has links) (PDF)
Un phénomène naturel se manifeste par des dynamiques, plus ou moins complexes, aux formes diverses et à topologie variable. Ce mouvement est induit soit par une intervention extérieure, soit par un état interne, qui induit une réorganisation de matière (une agitation ou un écoulement par exemple). CORDIS-ANIMA, système de modélisation et de simulation numérique d'objets physiques, permet par la gestion de quelques paramètres de réaliser toutes sortes de phénomènes sans connaître l'expression formelle de la physique sous-jacente à celui-ci. A l'aide de ce formalisme, nous avons réalisé des modèles de pâtes, de sable, de gel (2D et 3D), de fluides turbulents (2D) et de croissance végétales. Les calculs de simulations produisent un nuage de points matériels qui font partie intégrante de la matière simulée. Ces points n'étant pas disposés sur la surface de l'objet, il n'est dès lors pas possible de réaliser directement un rendu de la surface de cet objet. Nous avons donc mis au point des méthodes de construction volumique qui à partir des informations produites par la simulation, génèrent les indications volumiques manquantes. En étudiant les paramètres physiques des phénomènes simulés, en caractérisant les dynamiques internes révélées par les mouvements des points matériels calculés, ou encore en tentant de reproduire simplement les comportements cognitifs qui permettent à un observateur de ""deviner"" la forme d'un objet à partir d'une information de forme incomplète (i.e. un nuage de point issu de la simulation), nous avons réalisé un ensemble de techniques de construction et de rendu adaptées aux types de phénomènes simulés.
29

Modélisation d'objets déformables avec un système de particules orientées

Lombardo, Jean-Christophe 10 January 1996 (has links) (PDF)
L'étude présentée se situe dans un contexte de création d'animations par ordinateur à l'aide de modèles dits "générateurs". Nous présentons un nouveau modèle d'objet déformables basé sur l'utilisation d'un système de particules orientées. Nous présentons également une méthode permettant de créer semi-automatiquement ces objets déformable à partir d'une définition volumique de la géometrie des objets. Les systèmes de particules, crées pour pallier les lacunes de la modélisation géométrique classique, ont aujourd'hui un vaste domaine d'application. Le concept de particule orientée a été développé en tant qu'outil pour la modélisation de surfaces tridimensionnelles quelconques. Après avoir proposé une solution originale au problème des oscillations inhérent à la modélisation par système de particules (orientées ou non), nous présentons des nouvelles lois d'interaction anisotrope qui nous permettent de spécifier les propriétés des surfaces modélisées (telles que les courbures) et par la même d'obtenir un modèle d'objet déformable. Une extension de cette technique utilisant une enveloppe définie par des surfaces implicites est aussi présentée. Nous proposons ensuite un algorithme de reconstruction d'objets avec des particules orientées a partir de données tridimensionnelles. L'espace est le lieu d'un champ scalaire, et la surface de l'objet est définie par une valeur remarquable de ce champ. A partir de quelques paramètres-utilisateur spécifiant la densité d'échantillonnage voulue, nous construisons automatiquement un modèle déformable de la surface de l'objet. L'utilisation de particules orientées nous permet aussi de définir un échantillonnage adapté en fonction de la courbure locale directionnelle de l'objet. Les interactions entre les particules sont automatiquement définies, ne laissant à l'utilisateur que quelques paramètres simples à régler pour spécifier le comportement dynamique de l'objet. Finalement, nous présentons les bases d'une approche innovante de modélisation de muscle. Les lois d'interaction entre les particules orientées sont définies et devront être modifiées de façon à copier le comportement du muscle, aussi bien dans ses variations de forme que dans les forces exercées.
30

Simulation globale de l'éclairage pour des séquences animées prenant en en compte la cohérence temporelle

Damez, Cyrille 10 December 2001 (has links) (PDF)
Les méthodes globales de simulation de l'éclairage permettent, à la différence des méthodes d'éclairage local, d'exprimer l'équilibre énergétique dans les échanges entre différents objets, et donc de simuler précisément les effets subtils d'éclairage dûs aux nombreuses inter-réflexions. Il est donc naturel de souhaiter les utiliser pour la synthèse réaliste de films d'animation. Plutôt que de résoudre une succession d'équations intégrales tri-dimensionelles, nous modélisons les échanges lumineux ayant lieu au cours de l'animation sous la forme d'une unique équation intégrale quadri-dimensionelle. Dans le cas ou l'intégralité des mouvements est connue à l'avance, nous proposons une extension de l'algorithme de radiosité hiérarchique mettant à profit la cohérence temporelle. La radiosité en chaque point et à chaque instant y est exprimée dans une base de fonctions hiérarchiques définies sur un maillage produit par un processus de raffinement. L'extension de ce maillage à un espace à quatre dimensions nous permet de calculer des échanges lumineux sur un intervalle de temps fini au lieu d'une date donnée. L'algorithme ainsi défini permet la simulation de l'éclairage global diffus dans une scène animée, dans un temps largement inférieur, avec une qualité équivalente. Nous avons développé pour cela de nouveaux oracles de raffinement ad hoc, que nous présentons ici. Afin de permettre le calcul de scènes géométriquement complexes, nous présentons une nouvelle politique de regroupement hiérarchique des objets adaptée au cas quadri-dimensionnel. Nous présentons également un algorithme permettant la réduction des discontinuités temporelles dues aux approximations effectuées lors de la résolution, basé sur l'emploi de bases de multi-ondelettes. Finalement, nous présentons un mécanisme d'ordonnancement des calculs et de sauvegarde temporaire sur une mémoire de masse permettant de réduire la consommation en mémoire vive de l'algorithme.

Page generated in 0.0431 seconds