Spelling suggestions: "subject:"rendu"" "subject:"tendu""
91 |
Transmodalité de flux d'images de synthèse / Synthetic picture stream transmodalityRocher, Pierre-Olivier 31 October 2014 (has links)
Ces dernières années, l’utilisation de la vidéo comme support de diffusion de l’information est devenue prépondérante. Selon certains analystes, d’ici 2017, environ 90% de la bande passante mondiale sera consommée par des services utilisant des flux vidéos. Basées sur ce genre de services, les solutions de cloud gaming se démocratisent. Ces solutions ont été imaginées dans un contexte de développement fort du paradigme de cloud computing, et elles ont été dopées par la prolifération des terminaux mobiles ainsi que par la qualité des réseaux qui ne cesse de croître. Les technologies mises en œuvre dans ce type de solutions se réfèrent au rendu à distance. Pour permettre au plus grand nombre l’accès à ce type d’applications, mais aussi pour maximiser le nombre de clients par serveur, il est primordial de maîtriser au mieux la bande passante nécessaire au bon fonctionnement du service. Toutes les solutions de cloud gaming existantes utilisent une compression vidéo pour la transmission des images générées sur un serveur et à destination d’un client : le pixel règne en maître. Néanmoins, il existe bien d’autres façons de représenter une image numérique, notamment de manière paramétrique. Un certain nombre de travaux – à la fois sur l’image et la vidéo – montrent que cette approche est viable. Dans cette thèse, nous proposons un espace de représentation hybride afin de réduire le débit binaire. Notre approche repose à la fois sur une approche pixel, mais aussi sur une approche paramétrique pour la compression d’un même flux vidéo. L’utilisation de deux systèmes de compression nécessite la définition de zones, auxquelles s’appliqueront les différents encodeurs. Pour le cas d’utilisation choisi, l’utilisateur étant un joueur impliqué de manière active dans la chaîne de rendu, il est intéressant d’utiliser un partitionnement de l’image dépendant des zones ou se porte son attention. Pour déterminer les zones importantes à ses yeux, un eye-tracker a été utilisé sur plusieurs jeux et par plusieurs testeurs. Cette étude permet de mettre en avant différentes corrélations, tant au niveau des caractéristiques des images que du type de jeu utilisé. Cette étude permet de connaître les zones que le joueur regarde ou ne regarde pas directement (obtention des « cartes d’attention sélective »), et ainsi de gérer les encodeurs en conséquence. Nous établissons ensuite l’architecture et l’implémentation d’un tel encodeur multimodal (que nous appelons « transmodeur ») afin d’établir la preuve de réalisation d’un tel encodeur. Profitant alors de la maîtrise complète de l’implémentation, nous nous livrons ensuite à l’analyse de l’influence des paramètres de notre transmodeur quant à son efficacité au moyen d’une étude objective. Le transmodeur a été intégré dans la chaîne de rendu utilisée par le projet XLcloud. Un certain nombre d’améliorations (au niveau des performances notamment) seront nécessaires pour une utilisation en production, mais il est dès à présent possible de l’utiliser de manière fluide en se limitant à des résolutions spatiales légèrement inférieures au 720p et à 30 images par seconde / The use of video as an information dissemination support has become preponderant during the last few years. According to some analysts, by 2017 approximately 90% of the world's bandwidth will be consumed by video streaming services. These services have encouraged cloud gaming solutions to become more democratic. Such solutions have been devised in the context of strong development of the cloud-computing paradigm, and they were driven by the proliferation of mobile devices as well as growing network quality. The technologies used in this kind of solutions refer to as remote rendering. They allow the execution of multiple applications, while maximizing the number of clients per server. Thus, it is essential to control the necessary bandwidth to allow the required functionality of various services. The existing cloud gaming solutions in the literature use various methods of video compression to transmit images between sever and clients (pixels reigns supreme). However, there are various other ways of encoding digital images, including parametric map storage and a number of studies encourage this approach (for both image and video). In this thesis, we propose a hybrid representation of space in order to reduce the bit rate. Our approach utilizes both pixel and parametric approaches for the compression of video stream. The use of two compression techniques requires defining the area to be covered by different encoders. This is accomplished by including user to the life cycle of rendering, and attending to the area mostly concerned to the user. In order to identify the area an eye-tracker device was used on several games and several testers. We also establish a correlation between the characteristics of images and the type of game. This helps to identify areas that the player looks directly or indirectly (“maps of selective attention"), and thus, encoders are manager accordingly. For this thesis, we details and implement the architecture and algorithms for such multi-model encoder (which we call "transmodeur") as proof of concept. We also provide an analytical study of out model and the influence of various parameters on transmodeur and describe in effectiveness through an objective study. Our transmodeur (rendering system) has been successfully integrated into XLcloud project for rendering purposes. A number of improvement (especially in performance) will be required for production use, but it is now possible to use it smoothly using spatial resolutions slightly lower than 720p at 30 frames per second
|
92 |
Simulation of flowering plants / Simulation des plantes à fleursPetrenko, Olga 12 December 2014 (has links)
Les plantes ont longtemps intrigué les scientifiques, qui, avec son importance vitale pour la planète, sa beauté et l'énorme quantité de formes ayant, les rend un sujet attrayant pour la recherche. Un aspect intéressant est la création d'un modèle virtuel capable de simuler de vraies plantes avec un degré élevé de précision. L'objectif de notre étude est les plantes à fleurs, qui jouent un rôle énorme dans notre vie de fins nutritives et médicales à l'embellissement de l'environnement . L'obtention d'un modèle géométrique exacte d'une fleur est très utile, car elle joue un rôle important dans la validation du modèle virtuel. Par ailleurs, la visualisation de paramètres non directement traçables dans les plantes à fleurs vivantes est d'une grande aide à l'étude de la physiologie. L'énorme biodiversité entre les différentes parties d'un spécimen et entre les différents spécimens fournit une vaste zone d'objectifs qui la synthèse d'image doit contester. Modéliser des fleurs est un sous-ensemble d'un espace de recherche beaucoup plus vaste que la modélisation de plantes. Les plantes à fleurs ont des caractéristiques structurelles qui les rendent différentes des structures d'arbres, d’arbustes ou de l’herbe. A ce jour, on ne tient pas une grande importance à essayer cette ligne de recherche d'une façon particulière et en général a été classé dans le contexte plus large de la modélisation des plantes. Nous avons choisi d’utiliser le «L-systems» pour la procédure de la modélisation, et comme base pour notre recherche. Il y a différents mécanismes de catégorisation topologie de la plante dans chacune des étapes de sa croissance. Pour construire le plan de la structure d'une plante, avec une courte grammaire, quelques lignes étaient quelque chose qui dès le premier moment a suscité l'intérêt et par la suite évolué en quelques systèmes d'interprétation géométriques pour la modélisation des plantes. Notre objectif est d'étudier les moyens efficaces de décrire la structure des plantes à fleurs en utilisant L-systems. Tout d'abord, nous proposons de représenter les formes des feuilles, pétales, étamines, carpelles, etc. Avec une extension de L-systems - un modèle basé sur trois cartes généralisées dimensions - 3Gmaps L-systèmes, qui peut être appliquée avec succès pour la modélisation des plantes à fleurs. La description de la grammaire de la structure des plantes à fleurs fournit un nombre illimité de ses interprétations géométriques. Deuxièmement, nous allons améliorer le processus d'écriture de la grammaire par l'ajout d'une nouvelle fonctionnalité de paramétrage interactif. Troisièmement, nous allons proposer une nouvelle méthode de modélisation inverse des plantes à fleurs, où l'utilisateur peut définir de manière interactive les caractéristiques des fleurs. L'algorithme utilise cette information comme une entrée, qui est ensuite analysée et codée en tant que L -systèmes grammaire. Enfin, nous allons présenter une méthode pour créer des clairières de fleurs virtuelles à l'aide de gestes Kinect. Nous voulons faire remarquer que notre travail a été fait avec la plateforme de logiciel 3Gmaps L- système développé dans le cadre de la thèse d'intégrer toutes les techniques proposées. / Plants have always intrigued scientists as besides of its sheer importance for the earth, their beauty and enormous variety of shapes tempt to thoroughly inquire about its nature. One of the aspects of this inquiry is the creation of the virtual model in order to mimic real plants to a high degree of accuracy. The focus of our study is the flowering plants, which play a huge role in our life from nutritive and medical purposes to beautifying the environment. Obtaining an accurate geometrical model of a flower is quite useful as it plays an important role in the validation of the virtual model. Besides, the visualization of parameters not traceable directly in living flowering plants is a stand-by in studying their physiology. A huge biological diversity both within and between individuals provides a vast area of objectives which the image synthesis must challenge.Flower modelling constitutes a part of a larger research area, plant modelling. Flowering plants have their particular structural features which are different from the structure of trees, bushes or grass. Still not a lot of emphasis has been placed to date on this problem, as it was categorized within the modelling of plants in general. We chose a procedural modeling using L-systems as a base of our research. L-system is a very powerful method of plant simulation. It provides a means of characterizing the topology of a plant at every stage of its growth. Grasping the plant structure with just several lines of grammar attracted immediate interest and later on evolved into several powerful geometrical interpretation system used in plant modelling. Our purpose is to study efficient ways of describing the structure of flowering plants by means of L-systems. First, we will propose to represent the shapes of leafs, petals, stamens, carpels, etc. with an extension of L-systems – a model based on three dimensional generalized maps – 3Gmaps L-systems, which can be successfully applied for the modelling of flowering plants. The grammar description of the structure of the flowering plants provides an unlimited number of its geometrical interpretations. Second, we will improve the process of grammar writing by adding a new functionality of interactive parameter adjustment. Third, we will propose a new method of inverse modelling of flowering plants, where the user can interactively define the flower characteristics. The algorithm uses this information as an input, which is then analyzed and coded as L-systems grammar. Finally, we will present a method for creating virtual glades of flowers using Kinect gestures. We want to remark that our work has been done with 3Gmaps L-system software platform developed in the scope of the thesis to integrate all the proposed techniques.
|
93 |
Interactive weathering for realistic image synthesis of urban environments / Vieillissement interactif pour la synthèse d'image réaliste des environnements urbainsMuñoz Pandiella, Imanol 05 December 2017 (has links)
Etre capable de capturer et de synthétiser des comportements réalistes est un sujet de recherche important en Informatique Graphique. Mais, pour produire des images réalistes, il ne suffit pas de représenter les matériaux de manière fiable, il faut également prendre en compte leurs évolutions dans le temps. La simulation des effets de vieillissement est le domaine de la recherche qui s’intéresse à la prise en compte de la détérioration des modèles virtuels. Après avoir étudié les travaux précédents dans ce domaine, nous avons constaté qu’il y a un manque d’estimation pour certains paramètres environnementaux importants ainsi qu’un besoin de modèles globaux qui tiennent compte des interactions des facteurs intervenants dans les grandes scènes. De plus, nous avons observées que l’amélioration des techniques actuelles nécessite intégrer les caractéristiques physiques réelles pour éviter la déconnection des processus réels, ce qui doit donc être analysés et compris. Dans cette thèse, nous visons à améliorer la simulation du vieillissement en Informatique Graphique sous les trois angles suivants. Concernant l’estimation des facteurs de vieillissement, nous proposons d’abord de traiter un facteur sous-estimé dans la littérature mais qui est très important dans les processus de vieillissement : le soleil. Plus spécifiquement, nous proposons une technique interactive qui estime l’exposition solaire sur des scènes urbaines détaillées. Compte tenu d’une carte d’exposition directionnelle calculée sur une période donnée, nous estimons le facteur de visibilité du ciel qui sert à évaluer l’exposition finale à chaque point visible. Ceci est fait en utilisant une méthode espace-écran basée sur une approche à deux échelles, qui est indépendante de la géométrie et qui a un coût bas en stockage. Notre méthode aboutit à une technique intéressante non seulement pour les simulations de vieillissement, mais également en architecture, dans la conception de bâtiments durables et dans l’estimation de la performance énergétique des bâtiments. Ensuite, nous introduisons un modèle global permettant de simuler les changements d’apparence des bâtiments liés aux dépôts de pollution. Ce processus est très visible sur les scènes urbaines et, jusqu’à présent, aucune technique n’a été proposée en utilisant une approche globale (sur une ville entière). Nous proposons ici une technique basée sur la physique considérant que les effets de la pollution dépendent de trois facteurs principaux : l’exposition au vent, à la pluie et au soleil. Cette approche prend en compte trois étapes : le dépôt, la réaction et le lavage. Avec un pré-calcul à bas coût, nous évaluons la distribution de la pollution dans la ville. Puis, par le biais d’opérateurs espace-écran, nous proposons une méthode efficace capable de générer des images réalistes en temps interactifs. De plus, le pré-calcul n’exige qu’une quantité réduite de mémoire pour stocker la carte de pollution et, comme la méthode utilisée est indépendante de la complexité de la scène, elle peut s’adapter à des modèles complexes et de grande taille en ajustant la résolution de la carte. Finalement, afin de mieux appréhender les processus de vieillissement, nous présentons une méthode permettant de prendre en compte l’effet d’écaillage sur les monuments en pierre avec très peu d’interaction de l’utilisateur. / Being able to capture and synthesize realistic materials is an important research topic in Computer Graphics. In order to render realistic images it is not enough to represent materials reliably, but we also need to represent its temporal component. Simulation of weathering effects is the research area that pursues the incorporation of decay to virtual models. After studying the previous work, we have found that there is a lack of estimation methods for some important environmental parameters and a need of global models that consider the interactions of the environmental factors in big scenes. Moreover, we have observed that the improvement of current techniques need to incorporate real effects characteristics to avoid the current disconnection from the real processes. But, this need to be first analyzed and understood. In this thesis, we aim to improve weathering simulation in Computer Graphics in these three fronts. Concerning weathering factors estimation, we first propose to deal with an undervalued factor in weathering literature which is very important in aging processes: the sun. More specifically, we propose an interactive technique that estimates solar exposure on detailed urban scenes. Given a directional exposure map computed over a given time period, we estimate the sky visibility factor that serves to evaluate the final exposure at each visible point. This is done using a screen-space method based on a two-scale approach, which is geometry independent and has low storage costs. Our method results in an interesting technique not only in weathering simulations, but also in architecture, in sustainable building design and in the estimation of buildings’ energy performance. After that, we introduce a global model to simulate the changes of appearance of buildings due to pollution deposition. This process is very noticeable on urban scenes and, so far, no technique has dealt with it using a global approach. We propose a physically-based technique that considers pollution effects to depend on three main factors: wind, rain and sun exposure, and that takes into account three intervening steps: deposition, reaction and washing. With a low-cost pre-computation step, we evaluate the pollution distribution through the city. Based on this distribution and the use of screen-space operators, our method results in an efficient approach that generate realistic images of polluted surfaces at interactive rates. In addition, the pre-computation demands a reduced amount of memory to store the pollution map and, as it is independent from scene complexity, it can suit large and complex models adapting its resolution. Finally, in order to improve the understanding of weathering processes, we present a method to identify and map “scaling” weathering effects on stone monuments with very little user interaction.
|
94 |
Factorisation du rendu de Monte-Carlo fondée sur les échantillons et le débruitage bayésien / Factorization of Monte Carlo rendering based on samples and Bayesian denoisingBoughida, Malik 23 March 2017 (has links)
Le rendu de Monte-Carlo par lancer de rayons est connu depuis longtemps pour être une classe d’algorithmes de choix lorsqu’il s’agit de générer des images de synthèse photo-réalistes. Toutefois, sa nature fondamentalement aléatoire induit un bruit caractéristique dans les images produites. Dans cette thèse, nous mettons en œuvre des algorithmes fondés sur les échantillons de Monte-Carlo et l’inférence bayésienne pour factoriser le calcul du rendu, par le partage d’information entre pixels voisins ou la mise en cache de données précédemment calculées. Dans le cadre du rendu à temps long, en nous fondant sur une technique récente de débruitage en traitement d’images, appelée Non-local Bayes, nous avons développé un algorithme de débruitage collaboratif par patchs, baptisé Bayesian Collaborative Denoising. Celui-ci est conçu pour être adapté aux spécificités du bruit des rendus de Monte-Carlo et aux données supplémentaires qu’on peut obtenir par des statistiques sur les échantillons. Dans un deuxième temps, pour factoriser les calculs de rendus de Monte-Carlo en temps interactif dans un contexte de scène dynamique, nous proposons un algorithme de rendu complet fondé sur le path tracing, appelé Dynamic Bayesian Caching. Une partition des pixels permet un regroupement intelligent des échantillons. Ils sont alors en nombre suffisant pour pouvoir calculer des statistiques sur eux. Ces statistiques sont comparées avec celles stockées en cache pour déterminer si elles doivent remplacer ou enrichir les données existantes. Finalement un débruitage bayésien, inspiré des travaux de la première partie, est appliqué pour améliorer la qualité de l’image. / Monte Carlo ray tracing is known to be a particularly well-suited class of algorithms for photorealistic rendering. However, its fundamentally random nature breeds noise in the generated images. In this thesis, we develop new algorithms based on Monte Carlo samples and Bayesian inference in order to factorize rendering computations, by sharing information across pixels or by caching previous results. In the context of offline rendering, we build upon a recent denoising technique from the image processing community, called Non-local Bayes, to develop a new patch-based collaborative denoising algorithm, named Bayesian Collaborative Denoising. It is designed to be adapted to the specificities of Monte Carlo noise, and uses the additionnal input data that we can get by gathering per-pixel sample statistics. In a second step, to factorize computations of interactive Monte Carlo rendering, we propose a new algorithm based on path tracing, called Dynamic Bayesian Caching. A clustering of pixels enables a smart grouping of many samples. Hence we can compute meaningful statistics on them. These statistics are compared with the ones that are stored in a cache to decide whether the former should replace or be merged with the latter. Finally, a Bayesian denoising, inspired from the works of the first part, is applied to enhance image quality.
|
95 |
La politique de brèche conservatrice au Canada : le cas de l'abolition du registre des armes à feu d'épauleDumouchel, David 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Alors que la littérature scientifique commence à s’intéresser aux effets du recours aux enjeux de brèche sur la participation électorale et sur la valence du vote, aucune étude n’a encore cherché à comprendre comment ces enjeux étaient mobilisés par les acteurs politiques qui tentent de maximiser leur efficacité. Ce mémoire de maitrise vise à combler ce vide en décrivant les tactiques de politique de brèche mises en œuvre par le Parti conservateur du Canada (PCC) dans le dossier de l’abolition du registre des armes à feu d’épaule (ARAF). Pour ce faire, il propose une analyse de contenu des débats parlementaires fédéraux tenus entre 2006 et 2011. Il teste quatre hypothèses principales. La première d’entre elles veut que la probabilité qu’un politicien invoque volontairement un enjeu de brèche donné dépende de son allégeance partisane. La deuxième établit un lien entre l’allégeance d’un politicien et la probabilité qu’il mentionne certains segments électoraux lorsqu’il invoque un enjeu de brèche donné. La troisième hypothèse propose un lien entre l’allégeance politique d’un politicien et la probabilité qu’il cible une circonscription électorale que son parti ne représente pas lorsqu’il invoque un enjeu de brèche donné. Enfin, la dernière hypothèse examine si la probabilité qu’un politicien qui invoque un enjeu de brèche donné pointe la dissension que ce dernier génère chez ses adversaires dépende de son allégeance partisane. Les résultats des régressions probit menées avec les données obtenues grâce à l’analyse de contenu démontrent que les élus conservateurs agissent différemment des autres députés lorsqu’il est question de l’ARAF. Cette différence est d’ailleurs systématique à travers toutes les dimensions mesurées. Les parlementaires du PCC sont en effet plus susceptibles de faire de la politique de brèche à partir de l’enjeu en l’invoquant de leur propre gré plus souvent que leurs adversaires (la différence avec les bloquistes n’est toutefois pas significative au plan statistique), en ciblant avec constance trois segments ruraux ainsi que des circonscriptions qui ne leur appartiennent pas et en soulignant la dissension qui gangrène les autres coalitions politiques à ce sujet. Ces résultats s’arriment toutefois à de complexes patrons d’invocation. D’une part, la plupart des interventions volontaires conservatrices sont concentrées pendant cinq périodes d’activités, qui correspondent le plus souvent à des périodes où la fièvre électorale monte à Ottawa. D’autre part, le recours aux tactiques de « ciblage » et de « mise en évidence de la dissension » est presque limité à la 40e législature (2008 à 2011) et semble catalysé par les soubresauts législatifs qui surviennent dans le dossier de l’ARAF. Ces données offrent un éclairage novateur sur la façon dont les propriétés fractionnistes des enjeux de brèche sont activées par les acteurs politiques et ouvrent des perspectives de recherche qui permettraient de mieux évaluer l’effet de la politique de brèche sur les comportements électoraux des citoyens. L’étude contribue par ailleurs au développement d’une perspective canadienne sur la politique de brèche, un concept souvent évoqué dans les médias du pays, mais qui tarde à être analysé de manière systématique par la recherche scientifique.
|
96 |
Flou de mouvement réaliste en temps réelGuertin-Renaud, Jean-Philippe 08 1900 (has links)
Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes.
Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image.
Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage. / High-quality motion blur is an increasingly important effect in interactive graphics. With the continuous increase in asset quality and scene fidelity comes a similar desire for more detailed and realistic lenticular effects.
However, even in the context of offline rendering, motion blur is often approximated as a post process. Recent motion blur post-processes have made great leaps in visual quality, generating plausible results with interactive performance. Still, distracting artifacts remain in the presence of, for instance, overlapping motion or large- and fine-scale motion features, as well as in the presence of both linear and rotational motion. Furthermore, large scale motion often tends to cause obvious artifacts at boundary points.
This thesis addresses these artifacts with a more robust sampling and filtering scheme that samples across two directions which are dynamically and automatically selected to provide the most accurate image possible. These modifications come at a very slight penalty compared to previous motion blur implementations: we render plausible, temporally-coherent motion blur on several complex animation sequences, all in under 2ms at a resolution of 1280 x 720. Moreover, our filter is designed to integrate seamlessly with post-process anti-aliasing.
|
97 |
Étude des techniques d’estimation de densité et du tracé de chemins pour le rendu des milieux participatifsVibert, Nicolas 12 1900 (has links)
L'utilisation d'images de synthèse photo réalistes est aujourd'hui devenue commune, que ce soit pour la réalisation de films, la création d'environnements virtuels à des fins vidéo ludiques comme le jeu, ou même pour la prévisualisation de projets architecturaux.
La compréhension et les avancées technologiques de ces 20 dernières années permettent maintenant de créer des images très réalistes. Dans certains cas, il est même devenu difficile, voire même impossible, de faire la distinction entre une photo d'un objet réel et une image virtuelle.
Mais, pour atteindre un tel degré de réalisme, il faut créer des algorithmes complexes et coûteux, capables de simuler les lois physiques qui gouvernent les interactions de la lumière avec la matière. Les milieux participatifs en sont un parfait exemple. Ils sont incontournables et doivent être intégrés pendant les processus de création que ce soit pour simuler de la fumée, des nuages ou bien pour créer une atmosphère crédible.
Malgré les performances toujours plus grandes des ordinateurs modernes, il est encore actuellement impossible de reproduire fidèlement dans un temps raisonnable. Certains effets visuels comme les caustiques ou la diffusion multiple sont difficiles à reproduire pour certains types d'algorithmes, si bien que l’on se limite souvent à une simplification des interactions. C’est encore plus vrai pour les applications temps réels qui nécessitent souvent des rendus à 30 images par seconde.
La quantité et la qualité des images à calculer peuvent aussi être tellement importantes qu'il est nécessaire de mettre au point de nouveaux algorithmes. C'est le cas pour l'industrie cinématographique qui doit pouvoir anticiper et planifier ses rendus sur des fermes d'ordinateurs sur souvent plus d'une année et en même temps en contrôler rigoureusement l'aspect financier.
Nous allons présenter et analyser dans ce mémoire différentes techniques de simulation de milieux participatifs et proposer certaines directions pour de futurs travaux. / Nowadays, the use of photo-realistic computer images is very common, whether for film making, creating virtual environments, video games, or even for pre-visualizing architectural projects.
The understanding and technological advances of the last 20 years allow us to be able to create very realistic images. Indeed, it is sometimes difficult, if not impossible, to distinguish between a photo of a real object and a virtual image.
But to achieve such a high degree of realism, it is necessary to create complex and costly algorithms capable of simulating the physical laws governing interactions between light and matter. Participating media are a perfect example, as they are unavoidable and must be integrated during the creative processes, whether for simulating smoke or clouds, or for creating a credible atmosphere.
Despite the overpowering performance of modern computers, it is still currently impossible to reproduce participating media perfectly, and in a reasonable time. Some visual effects, such as caustics or multiple scattering, are difficult to reproduce for some kinds of algorithms, so one is often limited to a simplification of the interactions. This is even more true for real-time applications that often require rendering at 30 frames per second.
The quantity and the quality of the images to be calculated can also be so important that it is necessary to develop new algorithms. This is the case for the film industry, which must be able to anticipate and plan its renderings on computer farms, often over a year, and at the same time strictly control the financial aspect.
We will present in this thesis various techniques of simulation of participating media, analyse them, and propose certain directions for future work.
|
98 |
Peinture de lumière incidente dans des scènes 3DRozon, Frédérik 08 1900 (has links)
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées.
Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière.
Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet. / Lighting design is usually a task that is done manually, where the artists must manipulate the parameters of several light sources to obtain the desired result. This task is difficult because it is not intuitive. Some systems already exist that enable a user to paint light directly on objects in a scene to position or alter light sources. Unfortunately, these systems have some limitations such that they only consider local lighting, or the camera must be fixed, etc. Either way, this limitates the accuracy or the versatility of these systems. Global illumination is important because it adds a lot of realism to a scene by capturing all the light interreflections on the surfaces. This means that light sources can influence surfaces even if they are not directly exposed.
In this M. Sc. thesis, we study a subset of the lighting design problem: the selection and alteration of the intensity of light sources. We present two different systems to design lighting on objects in 3D scenes. The user paints light intentions directly on the objects to alter the surface illumination. From these paint strokes, the systems find the light sources and alter their intensity to obtain as much as possible what the user wants. The novelty of our technique is that global illumination, transparent surfaces and subsurface scattering are all considered, and also that the camera is free to take any position. We also present strategies for selecting and altering the light sources.
The first system uses an environment map as an intermediate representation of the environment surrounding the objects. The second system saves all the information of the environment for each vertex of each object.
|
99 |
Rendu de matériaux semi-transparents hétérogènes en temps réelBlanchard, Eric 06 1900 (has links)
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents
tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus.
Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt
d'obtenir une image de synthèse de ce type de matériau demeure toujours très important.
Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de
manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive.
Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur
d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose
sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie. / We find in nature several semi-transparent materials such as marble, jade or skin, as
well as liquids such as milk or juices. Whether it be for digital movies or video games, having an efficient method to render these materials is an important goal. Although a large body of previous academic work exists in this area, few of these works provide an interactive solution. This thesis presents a new method for simulating light scattering inside heterogeneous semi-transparent materials in real time. The core of our technique relies on a geometric mesh voxelization to simplify the diffusion domain. The diffusion process solves the diffusion equation in order to achieve a fast and efficient simulation. Our method differs mainly from previous approaches by its completely dynamic execution requiring no pre-computations and hence allowing complete deformations of the geometric mesh.
|
100 |
Photorealistic Surface Rendering with Microfacet TheoryDupuy, Jonathan 09 1900 (has links)
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière.
Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale. / Photorealistic rendering involves the numeric resolution of physically accurate light/matter interactions which, despite the tremendous and continuously increasing computational power that we now have at our disposal, is nowhere from becoming a quick and simple task for our computers. This is mainly due to the way that we represent objects: in order to reproduce the subtle interactions that create detail, tremendous amounts of geometry need to be queried. Hence, at render time, this complexity leads to heavy input/output operations which, combined with numerically complex filtering operators, require unreasonable amounts of computation times to guarantee artifact-free images. In order to alleviate such issues with today's constraints, a multiscale representation for matter must be derived.
In this thesis, we derive such a representation for matter whose interface can be modelled as a displaced surface, a configuration that is typically simulated with displacement texture mapping in computer graphics. Our representation is derived within the realm of microfacet theory (a framework originally designed to model reflection of rough surfaces), which we review and augment in two respects. First, we render the theory applicable across multiple scales by extending it to support noncentral microfacet statistics. Second, we derive an inversion procedure that retrieves microfacet statistics from backscattering reflection evaluations. We show how this augmented framework may be applied to derive a general and efficient (although approximate) down-sampling operator for displacement texture maps that (a) preserves the anisotropy exhibited by light transport for any resolution, (b) can be applied prior to rendering and stored into MIP texture maps to drastically reduce the number of input/output operations, and (c) considerably simplifies per-pixel filtering operations, resulting overall in shorter rendering times. In order to validate and demonstrate the effectiveness of our operator, we render antialiased photorealistic images against ground truth. In addition, we provide C++ implementations all along the dissertation to facilitate the reproduction of the presented results. We conclude with a discussion on limitations of our approach, and avenues for a more general multiscale representation for matter.
|
Page generated in 0.0414 seconds