• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 7
  • 4
  • Tagged with
  • 64
  • 64
  • 53
  • 47
  • 22
  • 19
  • 15
  • 15
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Utilisation des déformations pour la modélisation des solides de forme libre en synthèse d'images

Nie, Zhigang 17 October 1991 (has links) (PDF)
Depuis quelques années, les déformations sont utilisées en synthèse d'images pour la modélisation des solides. La déformation libre est une méthode de transformation qui déforme des objets en déplaçant un maillage de points de contrôle définis dans un repère local et en utilisant une interpolation volumique. Deux extensions ont été développées. La première utilise l'interpolation de type b-spline, au lieu de l'interpolation de type bezier. La deuxième utilise un repère local cylindrique ou sphérique, au lieu d'un repère local cartésien. Pour visualiser des objets déformés un algorithme de facettisation adaptative est proposé. Pour déplacer des points de contrôle dans l'espace 3d avec un localiseur 2d, un curseur 3d est utilisé.
52

Rendu réaliste de nuages en temps réel

Bouthors, Antoine 17 June 2008 (has links) (PDF)
Les jeux vidéos et les effets spéciaux ont un besoin constant d'images plus réalistes de scènes naturelles, ce qui inclut les nuages. Les méthodes traditionnelles de synthèse d'images impliquent des calculs coûteux, ce qui qui limite leur réalisme. Dans cette thèse, nous proposons de nouvelles approches pour le rendu de nuages à la fois réalistes et rapides. Ces objectifs sont atteints via une méthodologie s'appuyant sur des approches à la fois physiques et phénoménologiques. Dans la première partie de cette thèse, nous étudions les nuages du point de vue d'un observateur humain, ce qui nous permet d'identifier les éléments visuels importants caractérisant les nuages. Ces éléments visuels sont ceux que nous cherchons à reproduire dans un but de réalisme. Dans la deuxième partie nous conduisons une étude expérimentale du transport de la lumière dans une dalle de nuage en utilisant les lois du transfert radiatif. Cette étude nous permet de mieux comprendre le transport de la lumière dans les nuages à des échelles mésoscopiques et macroscopiques, de trouver l'origine de ces éléments visuels, et de déduire de nouveaux modèles de transport de la lumière phénoménologiques efficaces. Dans la troisième partie nous proposons deux nouvelles méthodes permettant le rendu de nuages réaliste en temps-réel basées sur les résultats de notre étude. Ces méthodes sont optimisées pour le matériel graphique. La qualité de nos résultats est débattue et nous esquissons des axes de recherche future permettant d'améliorer à la fois la vitesse et le réalisme de nos méthodes.
53

Représentation et rendu de l'océan en synthèse d'images réalistes

Darles, Emmanuelle 24 October 2008 (has links) (PDF)
De nos jours, les images de synthèse sont omniprésentes dans notre quotidien. Le réalisme de ces images est grandissant, surprenant, et il n'est souvent pas aisé de distinguer la réalité de la virtualité, cette réalité faite et enrichie par toute la complexité des phénomènes naturels qui nous entourent. L'eau est un de ces phénomènes dont la variété et la richesse dynamique rend la représentation complexe. Nous nous intéressons dans cette thèse 'a sa forme la plus étendue, celle des océans, qui font partie intégrante de nos paysages. Dans un premier temps, nous étudions les méthodes permettant la simulation et le rendu de l'océan à la fois dans le domaine physique mais aussi dans le domaine de la synthèse d'images réalistes. Dans le second chapitre, nous proposons une nouvelle méthode de rendu unifiée permettant une visualisation plus rapide de l'océan au large et permettant d'approximer les échanges lumineux surfaciques et sous-surfaciques, l'écume et les phénomènes d' éblouissements. Dans le chapitre 3, nous nous intéressons au déferlement des vagues en proposant une nouvelle approche adaptative basée physique permettant de reproduire ce phénomène et de réduire les temps de calculs imposés par la résolution des équations de la mécanique des fluides en 3D. Dans le quatrième chapitre, nous étendons ce modèle en proposant une approche hiérarchique permettant une plus forte accélération du processus de résolution et d'obtenir une simulation proche de l'interactivité.
54

Discrete shape analysis for global illumination / Analyse de formes pour l'illumination globale

Noel, Laurent 15 December 2015 (has links)
Les images de synthèse sont présentes à travers un grand nombre d'applications tel que les jeux vidéo, le cinéma, l'architecture, la publicité, l'art, la réalité virtuelle, la visualisation scientifique, l'ingénierie en éclairage, etc. En conséquence, la demande en photoréalisme et techniques de rendu rapide ne cesse d'augmenter. Le rendu réaliste d'une scène virtuelle nécessite l'estimation de son illumination globale grâce à une simulation du transport de lumière, un processus coûteux en temps de calcul dont la vitesse de convergence diminue généralement lorsque la complexité de la scène augmente. En particulier, une forte illumination indirecte combinée à de nombreuses occlusions constitue une caractéristique globale de la scène que les techniques existantes ont du mal à gérer. Cette thèse s'intéresse à ce problème à travers l'application de techniques d'analyse de formes pour le rendu 3D.Notre principal outil est un squelette curviligne du vide de la scène, représenté par un graphe contenant des informations sur la topologie et la géométrie de la scène. Ce squelette nous permet de proposer de nouvelles méthodes pour améliorer des techniques de rendu temps réel et non temps réel. Concernant le rendu temps réel, nous utilisons les informations géométriques du squelette afin d'approximer le rendu des ombres projetés par un grand nombre de points virtuels de lumière représentant l'illumination indirecte de la scène 3D.Pour ce qui est du rendu non temps réel, nos travaux se concentrent sur des algorithmes basés sur l'échantillonnage de chemins, constituant actuellement le principal paradigme en rendu physiquement plausible. Notre squelette mène au développement de nouvelles stratégies d'échantillonnage de chemins, guidés par des caractéristiques topologiques et géométriques. Nous adressons également ce problème à l'aide d'un second outil d'analyse de formes: la fonction d'ouverture du vide de la scène, décrivant l'épaisseur locale du vide en chacun de ses points. Nos contributions offrent une amélioration des méthodes existantes and indiquent clairement que l'analyse de formes offre de nombreuses opportunités pour le développement de nouvelles techniques de rendu 3D / Nowadays, computer generated images can be found everywhere, through a wide range of applications such as video games, cinema, architecture, publicity, artistic design, virtual reality, scientific visualization, lighting engineering, etc. Consequently, the need for visual realism and fast rendering is increasingly growing. Realistic rendering involves the estimation of global illumination through light transport simulation, a time consuming process for which the convergence rate generally decreases as the complexity of the input virtual 3D scene increases. In particular, occlusions and strong indirect illumination are global features of the scene that are difficult to handle efficiently with existing techniques. This thesis addresses this problem through the application of discrete shape analysis to rendering. Our main tool is a curvilinear skeleton of the empty space of the scene, a sparse graph containing important geometric and topological information about the structure of the scene. By taking advantage of this skeleton, we propose new methods to improve both real-time and off-line rendering methods. Concerning real-time rendering, we exploit geometric information carried by the skeleton for the approximation of shadows casted by a large set of virtual point lights representing the indirect illumination of the 3D scene. Regarding off-line rendering, our works focus on algorithms based on path sampling, that constitute the main paradigm of state-of-the-art methods addressing physically based rendering. Our skeleton leads to new efficient path sampling strategies guided by topological and geometric features. Addressing the same problem, we also propose a sampling strategy based on a second tool from discrete shape analysis: the opening function of the empty space of the scene, describing the local thickness of that space at each point. Our contributions demonstrate improvements over existing approaches and clearly indicate that discrete shape analysis offers many opportunities for the development of new rendering techniques
55

Hessian-based occlusion-aware radiance caching

Zhao, Yangyang 10 1900 (has links)
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie. / Efficiently simulating global illumination is one of the most important open problems in computer graphics. Accurately computing the effects of indirect illumination, caused by secondary bounces of light off surfaces in a 3D scene, is generally an expensive process and often solved using algorithms such as path tracing or photon mapping. These approaches numerically solve the rendering equation using stochastic Monte Carlo ray tracing. Ward et al. proposed irradiance caching to accelerate these techniques when computing the indirect illumination component on diffuse surfaces. Krivanek extended the approach of Ward and Heckbert to handle the more complex case of glossy surfaces, introducing an approach referred to as radiance caching. Jarosz et al. and Schwarzhaupt et al. proposed a more accurate visibility-aware Hessian-based model to greatly improve the placement of records in the scene for use in an irradiance caching context, significantly increasing the quality and performance of the baseline approach. In this thesis, we extended similar approaches introduced in these aforementioned work to the problem of radiance caching to improve the placement of records. We also discovered a crucial problem overlooked in the previous work due to the choice of test scenes. We did a preliminary study of this problem, and found several potential solutions worth further investigation.
56

Une approche fréquentielle pratique pour l'échantillonnage adaptatif en espace image

Dubouchet, Renaud Adrien 10 1900 (has links)
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle. / In realistic image synthesis, a pixel's final intensity is computed by estimating a multi-dimensional shading integral. A large part of the research in this domain is thus aimed at finding new techniques to reduce the computational cost of rendering while preserving the fidelity and correctness of the resulting images. When trying to reduce rendering costs to approach real-time computation, complex realistic effects are often left aside or replaced by clever but mathematically incorrect tricks. To accelerate rendering, previous directions of work have either addressed the computation of individual pixels by improving the underlying numerical integration routines; or have sought to amortize the computation across regions of an image using adaptive methods based on predictive models of light transport. This thesis' - and resulting paper's - objective is to build upon the latter of the aforementioned classes of methods[Durand2005], and foray into fast adaptive rendering techniques using frequency-based light transport analysis to efficiently guide and prioritize ray tracing. We thus propose an adaptive sampling and reconstruction approach to render animated scenes lit by environment lighting and faithfully reconstruct all-frequency shading effects such as shadows and reflections while preserving temporal coherency.
57

Etude en vue de la multirésolution de l’apparence

Hadim, Julien 11 May 2009 (has links)
Les fonctions de texture directionnelle "Bidirectional Texture Function" (BTF) ont rencontrés un certain succès ces dernières années, notamment pour le rendu temps-réel d'images de synthèse, grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données : de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel "BTFInspect" afin de déterminer parmi les différents phénomènes visuels dans les BTFs, ceux qui influencent majoritairement la cohérence des données par texel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées Flat Bidirectional Texture Function (Flat-BTFs), qui améliore la cohérence des données d'une BTF et donc la compression des données. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous démontrons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification sur GPU et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données. / In recent years, Bidirectional Texture Function (BTF) has emerged as a flexible solution for realistic and real-time rendering of material with complex appearance and low cost computing. However one drawback of this approach is the resulting huge amount of data: several methods have been proposed in order to compress and manage this data. In this document, we propose a new BTF representation that improves data coherency and allows thus a better data compression. In a first part, we study acquisition and digital generation methods of BTFs and more particularly, compression methods suitable for GPU rendering. Then, We realise a study with our software BTFInspect in order to determine among the different visual phenomenons present in BTF which ones induce mainly the data coherence per texel. In a second part, we propose a new BTF representation, named Flat Bidirectional Texture Function (Flat-BTF), which improves data coherency and thus, their compression. The analysis of results show statistically and visually the gain in coherency as well as the absence of a noticeable loss of quality compared to the original representation. In a third and last part, we demonstrate how our new representation may be used for realtime rendering applications on GPUs. Then, we introduce a compression of the appearance thanks to a quantification method on GPU which is presented in the context of a 3D data streaming between a server of 3D data and a client which want visualize them.
58

Quantification du mouvement et de la déformation cardiaques à partir d'IRM marquée tridimensionnelle sur des données acquises par des imageurs Philips / Quantification of cardiac motion and deformation from 3D tagged MRI acquired by Philips imaging devices

Zhou, Yitian 03 July 2017 (has links)
Les maladies cardiovasculaires sont parmi les principales causes de mortalité à l’échelle mondiale. Un certain nombre de maladies cardiaques peuvent être identifiées et localisées par l’analyse du mouvement et de la déformation cardiaques à partir de l’imagerie médicale. Cependant, l’utilisation de ces techniques en routine clinique est freinée par le manque d’outils de quantification efficaces et fiables. Dans cette thèse, nous introduisons un algorithme de quantification appliqué aux images IRM marquées. Nous présentons ensuite un pipeline de simulation qui génère des séquences cardiaques synthétiques (US et IRM). Les principales contributions sont décrites ci-dessous. Tout d’abord, nous avons proposé une nouvelle extension 3D de la méthode de la phase harmonique. Le suivi de flux optique en utilisant la phase a été combiné avec un modèle de régularisation anatomique afin d’estimer les mouvements cardiaques à partir des images IRM marquées. En particulier, des efforts ont été faits pour assurer une estimation précise de la déformation radiale en imposant l’incompressibilité du myocarde. L’algorithme (dénommé HarpAR) a ensuite été évalué sur des volontaires sains et des patients ayant différents niveaux d’ischémie. HarpAR a obtenu la précision de suivi comparable à quatre autres algorithmes de l’état de l’art. Sur les données cliniques, la dispersion des déformations est corrélée avec le degré de fibroses. De plus, les segments ischémiques sont distingués des segments sains en analysant les courbes de déformation. Deuxièmement, nous avons proposé un nouveau pipeline de simulation pour générer des séquences synthétiques US et IRM pour le même patient virtuel. Les séquences réelles, un modèle électromécanique (E/M) et les simulateurs physiques sont combinés dans un cadre unifié pour générer des images synthétiques. Au total, nous avons simulé 18 patients virtuels, chacun avec des séquences synthétiques IRM cine, IRM marquée et US 3D. Les images synthétiques ont été évaluées qualitativement et quantitativement. Elles ont des textures d’images réalistes qui sont similaires aux acquisitions réelles. De plus, nous avons également évalué les propriétés mécaniques des simulations. Les valeurs de la fraction d’éjection et de la déformation locale sont cohérentes avec les valeurs de référence publiées dans la littérature. Enfin, nous avons montré une étude préliminaire de benchmarking en utilisant les images synthétiques. L'algorithme générique gHarpAR a été comparé avec un autre algorithme générique SparseDemons en termes de précision sur le mouvement et la déformation. Les résultats montrent que SparseDemons surclasse gHarpAR en IRM cine et US. En IRM marquée, les deux méthodes ont obtenu des précisions similaires sur le mouvement et deux composants de déformations (circonférentielle et longitudinale). Toutefois, gHarpAR estime la déformation radiale de manière plus précise, grâce à la contrainte d’incompressibilité du myocarde. / Cardiovascular disease is one of the major causes of death worldwide. A number of heart diseases can be diagnosed through the analysis of cardiac images after quantifying shape and function. However, the application of these deformation quantification algorithms in clinical routine is somewhat held back by the lack of a solid validation. In this thesis, we mainly introduce a fast 3D tagged MR quantification algorithm, as well as a novel pipeline for generating synthetic cardiac US and MR image sequences for validation purposes. The main contributions are described below. First, we proposed a novel 3D extension of the well-known harmonic phase tracking method. The point-wise phase-based optical flow tracking was combined with an anatomical regularization model in order to estimate anatomically coherent myocardial motions. In particular, special efforts were made to ensure a reasonable radial strain estimation by enforcing myocardial incompressibility through the divergence theorem. The proposed HarpAR algorithm was evaluated on both healthy volunteers and patients having different levels of ischemia. On volunteer data, the tracking accuracy was found to be as accurate as the best candidates of a recent benchmark. On patient data, strain dispersion was shown to correlate with the extent of transmural fibrosis. Besides, the ischemic segments were distinguished from healthy ones from the strain curves. Second, we proposed a simulation pipeline for generating realistic synthetic cardiac US, cine and tagged MR sequences from the same virtual subject. Template sequences, a state-of-the-art electro-mechanical (E/M) model and physical simulators were combined in a unified framework for generating image data. In total, we simulated 18 virtual patients (3 healthy, 3 dyssynchrony and 12 ischemia), each with synthetic sequences of 3D cine MR, US and tagged MR. The synthetic images were assessed both qualitatively and quantitatively. They showed realistic image textures similar to real acquisitions. Besides, both the ejection fraction and regional strain values are in agreement with reference values published in the literature. Finally, we showed a preliminary benchmarking study using the synthetic database. We performed a comparison between gHarpAR and another tracking algorithm SparseDemons using the virtual patients. The results showed that SparseDemons outperformed gHarpAR in processing cine MR and US images. Regarding tagged MR, both methods obtained similar accuracies on motion and two strain components (circumferential and longitudinal). However, gHarpAR quantified radial strains more accurately, thanks to the myocardial incompressibility constraint. We conclude that motion quantification solutions can be improved by designing them according to the image characteristics of the modality and that a solid evaluation framework can be a key asset in comparing different algorithmic options.
59

Simulation de chevelures virtuelles

Bertails, Florence 23 June 2006 (has links) (PDF)
Du fait de l'importance accrue des personnages virtuels dans tous les secteurs du loisir numérique, la<br />simulation de chevelures est devenue, ces dernières années, un thème de recherche très actif en informatique graphique. Par ailleurs, la simulation physique de cheveux attire de plus en plus l'attention des cosmétologues, qui voient dans le prototypage virtuel un moyen efcace pour mettre au point des produits capillaires.<br />Cette thèse s'attaque à deux grandes difcultés antagonistes liées à la simulation de chevelures : d'une part, la simulation en temps interactif d'une chevelure complète ; d'autre part, le réalisme physique de la forme et du mouvement d'une chevelure.<br />Dans un premier temps, nous élaborons de nouveaux algorithmes visant à réduire le coût de calcul inhérent<br />aux méthodes classiques d'animation de chevelures. Nos approches exploitent pour la première fois l'animation multi-résolution et le rendu volumique de longs cheveux, donnant lieu à des simulations interactives.<br />Dans un second temps, nous proposons un modèle physiquement réaliste de chevelure, réalisé en collaboration avec des spécialistes en modélisation mécanique et en cosmétologie. Nous présentons tout d'abord le modèle mécanique précis de cheveu unique, issu de la théorie de Kirchhoff sur les tiges élastiques, dont nous avons participé à l'élaboration au cours de ce partenariat. Étendu à l'échelle de la chevelure complète, ce modèle est ensuite appliqué à la génération réaliste de coiffures naturelles tatiques, puis à la simulation dynamique de chevelures d'origines ethniques variées, avant d'être nalement validé à travers un ensemble de comparaisons avec le réel.
60

Deux problèmes en synthèse d'images : les sources directionnelles de lumière et une interface évoluée

Fertey, Gilles 30 May 1990 (has links) (PDF)
Le présent travail est intégré au sein du logiciel interne de synthèse d'images, ILLUMINES. Il porte sur deux points : Les lampes de bureau, les phares de voitures, les lampadaires dans les rues, ... éclairent le plus souvent selon une direction et une portée déterminées. Nous présentons dans la première partie de la thèse une méthode permettant de simuler ce type de source lumineuse, avec une modélisation par arbre de construction, dans un environnement de tracé de rayons. Notre méthode permet de visualiser les zones éclairées par le faisceau de la source lumineuse, mais également le faisceau lui-même. La conception d'une image de synthèse s'avère, pour un non-spécialiste, une réalisation pénible et difficile. A partir d'une hiérarchie orientée objet, d'un moteur d'inférence et des techniques interactives traditionnelles, nous proposons à l'utilisateur un outil d'aide à la conception d'images de synthèse simple et efficace. Une construction par les contraintes est générée par le moteur d'inférence et rendue accessible par l'utilisation de la fonction de contrainte : poser_sur. Diverses autres fonctions de haut niveau sont proposées pour la modification de la scène : déplacer_ vers, modifier_taille, éloigner_de, rapprocher_de, ... La préservation des contraintes est effectuée par envoi de messages. Ce prototype d'interface évolué interactif a été implanté au sein du logiciel ILLUMINES et permet d'envisager ce qui est en droit de s'appeler, la conception d'images de synthèse assistée par ordinateur.

Page generated in 0.0448 seconds