Spelling suggestions: "subject:"cancer dde rayons"" "subject:"cancer dee rayons""
1 |
Mélange de surfaces en temps réel : visualisation, contrôle des déformations et application à la modélisation / Blending of surfaces in real time : vizualization, control of shape deformation and application to geometric modelingGourmel, Olivier 18 June 2015 (has links)
Les surfaces implicites ont été perçues au cours des années 80, comme une alternative intéressante aux modélisations paramétriques des surfaces (NURBS, etc). Elles sont définies comme l'ensemble des points de même valeur d'un champ potentiel, c'est-à-dire la frontière de deux volumes. Ainsi elles possèdent des propriétés avantageuses dans le cadre de la modélisation géométrique: gestion automatique de la topologie, garantie de manipuler des entités manifold, possibilité de définir des transitions lisses entre des objets se fusionnant. Elles furent cependant délaissées au début des années 2000 en raison des contraintes qu'elles imposent: évaluation et affichage coûteux en temps de calcul, et forme des surfaces difficilement contrôlables. Les contributions de cette thèse proposent des solutions à ces problématiques de la modélisation par surfaces implicites. Il est tout d'abord montré qu'une nouvelle structure d'accélération, combinant les propriétés d'une hiérarchie de volumes englobants et d'un Kd-Tree, permet d'accélérer l'affichage par lancer de rayons d'un grand nombre de surfaces implicites. Il est ainsi possible d'animer en temps réel une surface de type fluide, définie par les points d'isovaleur d'un champ potentiel obtenu par la somme de primitives simples. Les opérateurs simples de composition de surfaces implicites, tels que la somme, permettent d'évaluer rapidement des champs potentiels combinant plusieurs milliers de primitives. Néanmoins, l'apparence organique des surfaces produites est difficile à contrôler. Cette thèse propose un nouveau type d'opérateur de composition, utilisant à la fois les valeurs et les gradients des champs potentiels sources, qui permet d'avoir beaucoup plus de contrôle sur la forme des surfaces produites tout en supprimant les effets indésirables des opérateurs classiques, tels que le gonflement à l'intersection de surfaces ou la fusion de surfaces proches. Enfin il est montré comment ces opérateurs de mélange peuvent être utilisés pour déformer des surfaces de type maillage, animées par un squelette. Nous définissons un champ potentiel par composition de primitives implicites générées aux arêtes du squelette. A chaque déformation du squelette, le champ potentiel est lui aussi déformé par les opérateurs de composition choisis: ces déformations peuvent être reproduites sur le maillage en déplaçant chaque sommet du maillage jusqu'à la surface d'isovaleur correspondante à leur valeur de potentiel initiale. Cette technique permet d'obtenir rapidement des déformations plausibles au niveau des articulations des membres modélisés / Implicit surfaces have been considered during the eightees as a promising alternative to parametric surfaces (NURBS patches, etc...). They are defined as the set of points having the same value of a scalar field, thus spliting the space into two volumes. Their volumetric nature confers them interesting properties for geometric modeling: the topology of objects is handled automatically, geometries are guaranteed to be manifold and they can produce smooth blendings of objects easily. However, they were abandoned at the beginning of the 21st century due to the limitations they impose: they are computationally expensive to evaluate and to display, and the shape of the transition between objects is difficult to control. This thesis proposes new solutions to these problems in implicit surfaces modeling. First of all, it is shown that the use of a new object-partitioning structure, mixing the properties of a bounding volume hierarchy and a Kd-Tree, makes it possible to raytrace a large number of implicit primitives at interactive frame rates. Therefore it allows real time visualization of fluid-like shapes, defined as an isosurface of a potential field computed as the sum of simple primitives. Simple composition operators of implicit surfaces, such as the sum operator, allow a fast computation of a potential field combining thousands of primitives. Nevertheless, the shape of the resulting surfaces is organic and difficult to control. In this thesis, a new kind of composition operators is proposed, which takes both the value and the gradient of the source potential fields as input. These operators give much more control on the shape of the surfaces, and they avoid the classical problems of implicit surfaces composition, such as bulging at the intersection of two primitives or blending of surfaces at a distance. Finally, a new skeleton-based animation technique is presented which reproduces the deformations of some implicit surfaces on a given mesh. We define a potential field as the composition of implicit primitives generated at the bones of the skeleton. Thus each motion of the skeleton will cause distortions in the associated potential field. These distortions can be reproduced on the mesh by moving each of its vertices to the isosurface of the potential field corresponding to their initial potential value. This technique is able to produce rapidly realistic deformations on the limbs of an articulated model of a body
|
2 |
Visualisation interactive de modèles complexes avec les cartes graphiques programmables / Interactive visualization of massive models using graphics cardsToledo, Rodrigo 12 October 2007 (has links)
Le but de notre travail est d’accélérer les méthodes de visualisation afin d’obtenir un rendu interactif de modèles volumineux. Ceci est particulièrement problématique pour les applications dont les données dépassent plusieurs millions de polygones. Ces modèles sont généralement composés de nombreux petits objets (ex : plate-forme pétrolière), ou sont très détaillés (ex : objets naturels haute qualité). Nous avons étudié la littérature qui traite de la visualisation en la classant en fonction de son échelle d’application : au niveau de la scène (visibilité des objets), macroscopique (dessin de la géométrie), mésoscopique (ajout de détails pour le rendu final) et microscopique (effets d’éclairage microscopique). Nous nous sommes particulièrement intéressés au niveau macroscopique en introduisant de nouvelles représentations de surfaces, algorithmes de conversion, et primitives basées sur le GPU. Nous classifions les modèles massifs en deux catégories commuite suit : (I) Naturels : Pour les objets très triangulés, les triangles représentent à la fois la partie macroscopique et mésoscopique. Notre idée est d’appliquer un algorithme approprié pour les mésostructures à l’objet en entier. Nous représentons les modèles naturels avec des Geometry Textures (représentation géométrique basée sur des cartes des hauteurs) en conservant la qualité de rendu et en gagnant un comportement de type LOD. (II) Industriels : Nous avons centré notre travail sur la visualisation de sites industriels dont les objets sont principalement constitués de primitives simples. Normalement elles sont triangulées avant le rendu. Nous proposons de les remplacer par nos primitives GPU implicites qui utilisent les équations originelles des primitives. Les bénéfices sont : qualité d’image, mémoire et efficacité de rendu. Nous avons aussi développé un algorithme de récupération de surface qui fourni les équations géométriques originales à partir des maillages polygonaux. / The goal of our work is to speed-up visualization methods in order to obtain interactive rendering of massive models. This is especially challenging for applications whose usual data has a significant size (millions of polygons). These massive models are usually composed either by numerous small objects (such as an oil platform) or by very detailed geometry information (such as high-quality natural models). We have reviewed the visualization literature from the scale-level point-of-view: scene (which concerns objects visibility), macroscale (covering geometry rendering issues), mesoscale (characterized by introducing details in the final rendering) and microscale (responsible for reproducing microscopic lighting effects). We have focused our contributions on the macroscale level, introducing new surface representations, conversion algorithms and GPU-based primitives. We have classified massive models into two different categories as follows: (I) Natural models: For over-tessellated objects, triangles represent both macro and mesostructures. The main idea is to use a visualization algorithm that is adequate to mesostructure but applied to the complete object. We represent natural objects through geometry textures (a geometric representation for surfaces based on height maps), preserving rendering quality and presenting LOD speed-up. (II) Manufactured models : We have focused our work on industrial plant visualization, whose objects are mostly described by combining simple primitives. Usually, these primitives are tessellated before rendering. We suggest replacing them with our GPU implicit primitives that use their original equation. The benefits are: image quality (perfect silhouette and per-pixel depth), memory and rendering efficiency. We have also developed a reverse engineering algorithm to recover original geometric equations from polygonal meshes.
|
3 |
Échantillonnage de produits de fonctionsRousselle, Fabrice January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Réflexions spéculaires en temps interactif dans les scènes dynamiquesRoger, David 27 June 2008 (has links) (PDF)
Les réflexions spéculaires et brillantes sont très importantes pour notre perception des scèenes 3D, car elles fournissent des informations sur la forme et la matière des objets, ainsi que de nouveaux angles de vue. Elles sont souvent rendues avec peu de préecision en utilisant des cartes d?environnement. Nous avons créé des algorithmes plus préccis, sous les contraintes du rendu interactif et des scènes dynamiques, pour permettre des applications comme les jeux vidéos.<br>Nous proposons deux méthodes pour les réflexions spéculaires. La première est basée sur la rasterization et calcule la position du reflet de chaque sommet de la scène, en optimisant itérativement la longueur des chemins lumineux. Ensuite, le fragment shader interpole lin´eairement entre les sommets. Cette méthode représente les effets de parallaxe ou dépendants du point de vue, et est mieux adaptée aux réflecteurs lisses et convexes. La deuxième est un algorithme de lancer de rayons sur GPU qui utilise une hiérarchie de rayons : les rayons primaires sont rendus par rasterization, puis les rayons secondaires sont regroup´es hiérarchiquement en cônes pour former un quad-tree qui est reconstruit à chaque image. La hiérarchie de rayons est ensuite intersectée avec tous les triangles de la scène en parallèle. Cette méthode est légèrement plus lente, mais plus générale et plus précise. Nous avons étendu cet algorithme de lancer de rayons en un lancer de cônes capable de modéliser les réflexions brillantes et un anti-crénelage continu.<br>Nos techniques de lancer de rayons et de cones ont été implémentées dans le modèle de programmation du traitement de flux, pour une bonne efficacité de la carte graphique. Dans ce contexte, nous avons développé un nouvel algorithme hiérarchique de réduction de flux qui est une étape clé de beaucoup d?autres applications et qui a une meilleure complexité asymptotique que les méthodes précédentes.
|
5 |
Etude de la propagation des ondes électromagnétiques dans les tunnels courbes de section non droite pour des applications métro et ferroviaireMasson, Emilie 13 December 2010 (has links) (PDF)
Le travail de thèse porte sur la conception et le développement d'une technique de modélisation de la propagation d'ondes radioélectriques dans des tunnels non rectilignes de section non droite rencontrés en milieu ferroviaire. Les solutions développées sous forme de modules appelés ≪ plugin ≫, ont été ajoutées au noyau de l'outil de modélisation de la propagation d'ondes, RaPSor, issu des recherches menées par le laboratoire XLIM-SIC de l'Université de Poitiers. Dans ce travail, nous avons montre que les techniques classiques mises en œuvre afin de modéliser la propagation des ondes en tunnel rectiligne infini de section rectangulaire, ne peuvent pas être transposées au cas des tunnels courbes de section courbe. Apres avoir rappelé les différentes méthodes disponibles, nous avons testé une technique de facettisation de la section courbe d'un tunnel rectiligne avec le tracé de rayons existant dans RaPSor, puis avec un lancer de rayons développé et implémenté au cours de la thèse. Les limites de cette technique de facettisation ont été mises en évidence. La deuxième partie du travail représente le cœur du travail de thèse. Nous avons développé une méthode qui se fonde sur une représentation analytique spécifique des surfaces courbes associée à un lancer de rayons et une optimisation originale des trajets reçus. La répartition uniforme des rayons lancés à l'émission repose sur l'utilisation de séquences quasi-aléatoires de Hammersley. Une sphère adaptative est utilisée à la réception. L'optimisation des rayons reçus est réalisée avec la technique de minimisation de Levenberg-Marquardt. Il s'agit de minimiser la distance totale des trajets afin d'approcher les trajets réels au sens de l'Optique Géométrique. L'ensemble des méthodes développées ont été testées et validées par comparaisons avec des résultats de la littérature mais aussi avec des résultats de mesures réalisées par le LEOST et ALSTOM-TIS
|
6 |
Lancer de Faisceaux en Synthèse d'ImagesHasenfratz, Jean-Marc 05 January 1998 (has links) (PDF)
On peut affirmer, sans grand risque de se tromper, que le XXIème siècle sera, entre autres, celui des images virtuelles. Pour s'en convaincre, il suffit de regarder à quel point notre quotidien a changé ces dernières années. La part consacrée aux images de synthèse ne fait que croître. Prenons par exemple les bulletins météorologiques télévisés qui sont présentés à l'aide d'animations 3D, les films utilisant massivement des effets spéciaux informatiques, les publicités, ... Bien sûr, toutes les industries sont aussi très friandes d'images de synthèse. Et demain, peut-être nous déplacerons nous dans des mondes virtuels pour faire nos achats, aller au travail ou au cinéma ... Il est clair que les images de synthèse sont promises à un bel avenir mais on en "demandera toujours davantage", on cherchera à être plus rapide, plus précis et plus réaliste. Ce mémoire s'inscrit dans cette évolution et présente nos recherches dans ce domaine. Avant de présenter la démarche suivie, il est nécessaire d'aborder deux problèmes, relatifs à la synthèse d'images. Ces problèmes seront le fil directeur de nos travaux. Le premier problème est celui de l'aliassage. On regroupe dans ce terme trois phénomènes visuels qui nuisent au réalisme des images. Le premier, et le plus connu, est le phénomène des marches d'escalier sur les contours des objets. On peut le traiter efficacement avec un lancer de rayons et un suréchantillonnage adaptatif des pixels. Le deuxième est le phénomène des moirés sur les textures, il peut être traité en utilisant des textures filtrées a priori en fonction de différents taux de compression. Enfin, le troisième phénomène est la disparition des petits objets et des petites ombres. C'est un problème complexe, qu'un lancer de rayons conventionnel ne peut résoudre efficacement. En effet, il est impossible d'assurer qu'aucun objet ne se glisse entre les rayons d'épaisseur infinitésimale lancés. C'est, de plus, un problème important puisqu'il produit des effets involontaires de scintillement de petits objets dans les animations. Notons que les difficultés rencontrées avec de petits objets se retrouvent dans d'autres domaines comme l'acoustique ou les télécommunications. On cherche à calculer dans ces disciplines, avec précision, la propagation des ondes dans des environnements particuliers, par exemple un théâtre dans le cas des ondes sonores, ou une ville lors de la détermination de la visibilité entre deux antennes dédiée à une liaison microondes point à point. Le deuxième problème est le temps de calculs nécessaire pour obtenir une image de synthèse réaliste. Un algorithme tel que le tampon de profondeur ("z-buffer"), en général câblé sur les stations graphiques, permet un calcul très rapide des images et des animations. Malheureusement, des effets tels que la réfraction, la pénombre et l'éclairage diffus sont difficiles à réaliser, voire impossible. Ces manques laissent aux images produites un aspect synthétique et irréel. Pour produire des images plus réalistes, on peut utiliser des algorithmes de lancer de rayons et de calcul de radiosité. Le premier propose un très grand nombre d'effets spéciaux comme la réflexion, la réfraction, la pénombre, le flou de bougé, la profondeur de champs, ..., le deuxième crée des éclairages diffus très réalistes. Malheureusement, ces effets, augmentant le réalisme sont coûteux en temps de calculs. On constate en fait que réalisme et rapidité de calcul sont des critères qui ne vont pas souvent ensemble et qu'il faut la plupart du temps choisir entre les deux. Notre travail de recherche a donc consisté à trouver et développer des solutions à ces deux problèmes. Une première solution qui résout efficacement les problèmes d'aliassage et en particulier la disparition des petits objets et des petites ombres, est le remplacement des rayons d'épaisseur infinitésimale du lancer de rayons par des rayons volumiques. On parle alors de lancer de faisceaux. Cette approche n'est pas nouvelle puisque [AMAN 84] remplace les rayons par des cônes, [HECK 84] les remplace par un seul faisceau volumique et [GHAZ 92] les remplace par des pyramides. Ces propositions résolvent en principe les problèmes d'aliassage mais ne permettent pas toujours des effets de réflexion ou de réfraction réalistes et sont limitées à certains types de scènes. Une approche fondée sur [GHAZ 92] résout tous les problèmes d'aliassage, permet des effets de réfraction et de pénombre au moins aussi réaliste qu'un lancer de rayons et peut être utilisée pour des scènes non polygonales comme les scènes "CSG". Nous proposons, entre autres, dans ce mémoire l'étude détaillée de l'algorithme de [GHAZ 92] et des optimisations et extensions apportées [HASE 96][GHAZ 98]. Une autre solution, pour résoudre les problèmes d'aliassage, est de calculer exactement tous les contours visibles des objets à partir d'un point de vue. On parle alors d'algorithme de calcul de visibilité exacte. Pour cela, de manière très schématique, on projette tous les objets sur le plan de l'écran et on les découpe en fonction de leurs parties visibles depuis l'oeil. Cette approche est intéressante parce qu'elle permet de faire abstraction de toutes définitions d'un écran. On peut ainsi modifier la taille de l'image sans la recalculer entièrement et sans perte d'informations. Nous proposons dans ce mémoire un algorithme de calcul de visibilité exacte fondé sur le modèle des cartes généralisées et sur un lancer de faisceaux. Le modèle des cartes simplifie les différents découpages entre polygones et autorise une représentation des contours intégrant les propriétés d'adjacence entre les arêtes. Les faisceaux permettent de positionner très précisément les objets les uns par rapport aux autres et optimisent le nombre d'objets à traiter. Notre solution tient de plus compte des effets d'ombres portées, de réflexion et approche les effets de réfraction. Une solution pour diminuer les temps de calcul est de diminuer le nombre d'objets à traiter. Pour cela, il existe plusieurs approches comme les volumes englobants, les subdivisions spatiales régulières ou adaptatives, les "BSP", ... Mais toutes ces solutions ont leurs limites, en particulier lorsque l'on travaille avec des scènes décrites avec plusieurs dizaines de milliers de polygones ou lors d'animation. Nous proposons une approche qui, plutôt que de chercher les objets visibles, cherche ceux qui sont cachés afin de les exclure des traitements. Ces objets sont en général situés derrière d'autres objets très imposants qui rendent une partie de la scène non visible. Nous proposons donc des solutions pour trouver ces objets imposants et pour déterminer rapidement les objets qu'ils cachent. Ce mémoire se décompose en cinq chapitres. Dans le 1er chapitre, nous étudions les algorithmes fondés sur des variantes du lancer de rayons et les algorithmes qui utilisent, d'une manière ou d'une autre, des faisceaux. Pour synthétiser la présentation, nous avons classé les différentes approches en quatre catégories : * les algorithmes fondés sur des ensembles de rayons lancés en même temps ; * les algorithmes utilisant exclusivement des faisceaux ; * les algorithmes hybrides utilisant à la fois des rayons et des faisceaux ; * les algorithmes utilisant ponctuellement les faisceaux pour résoudre un problème. Le 2ième chapitre présente les résultats de l'analyse et de l'implémentation de l'algorithme de "lancer de faisceaux pyramidaux" proposé par [GHAZ 92] pour des scènes polygonales. Nous verrons que les problèmes d'aliassage sont résolus mais que les temps de calculs restent importants. Une extension de cet algorithme aux scènes non polygonales ("CSG") est présentée. Le chapitre 3 reprend l'algorithme de "lancer de faisceaux pyramidaux" pour améliorer ses performances. Plusieurs points de cet algorithme sont optimisés pour finalement améliorer très sensiblement les temps de calculs. Une nouvelle extension permettant des effets de pénombre avec des sources lumineuses volumiques est décrite. Le chapitre 4 propose un nouvel algorithme de visibilité. Il est fondé sur les "cartes généralisées" [LIEN 89c] et sur un lancer de faisceaux. Cet algorithme permet de produire une description de tous les contours des objets, des ombres, des réflexions et des réfractions sur le plan image. La construction de ces contours est facilitée par le modèle topologique utilisé et en particulier par les propriétés d'adjacence dont on dispose. Le dernier chapitre présente une méthode permettant de diminuer le nombre d'objets à traiter dans un algorithme de visibilité. Pour cela, des faisceaux sont lancés à partir du point de vue sur des polygones imposants afin de déterminer les objets de la scène manifestement cachés. Cette approche est exploitée dans un algorithme de calcul de la radiosité.
|
7 |
Méthodes d'optimisation du tracé de rayonsDevillers, Olivier 20 June 1988 (has links) (PDF)
Le tracé de rayons est la seule technique de synthèse d'images permettant le réalisation d'effets lumineux spéculaires. Cet algorithme est très coûteux en temps de calcul. Nous nous intéressons aux diverses méthodes d'optimisation du tracé de rayons basées sur la subdivision de l'espace. Nous proposons une structure de subdivision originale : les macro-régions. Cette structure utilise un grid dans lequel les éléments de grid appartenant à des zones à faible densité d'information sont regroupées en macro-régions. Nous présentons ensuite une étude théorique et pratique du coût de dif- férentes méthodes de subdivision de l'espace : grid, octree, boîtes englobantes et la structure de macro-régions. Le coût moyen d'un rayon est étudié d'un point de vue pratique d'après les résultats d'une implantation de l'algorithme, et théorique en utilisant des résultats de géométrie stochastique. Ce coût est divisé en deux parties, on calculera tout d'abord le nombre moyen d'objets rencontrés par un rayon, puis le nombre moyen de régions rencontrées par un rayon dans les différents cas de subdivision. Cette étude fournit un certain nombre de résultats généraux permettant de mener à bien les mêmes calculs pour d'autres structures. Les résultats exposés établissent l'efficacité de la subdivision par macro- régions.
|
8 |
Contribution à l'étude de l'effet mirage : application aux mesures dimensionnelle et thermique par caméras visible proche infrarouge / Contribution to the mirage effect study : application to the thermal and dimensional measurements by cameras in the visible, NIR and IR bandsDelmas, Anthony 14 December 2012 (has links)
L’Institut Clément Ader Albi (ICAA) et l’Institut von Karman (IVK) mènent depuis un certain nombre d’années des travaux sur la radiométrie IR dans le but de faire de la thermographie quantitative (mesure de température vraie sans contact). Ces travaux ont permis d’explorer les potentialités de plusieurs bandes spectrales : 8-12µm, 3-5µm et plus récemment la bande 0,75-1,7µm (proche IR) à l’aide de caméras CCD (Si) ou VisGaAs. Les travaux effectués dans ce domaine spectral ont permis de mettre en évidence un certains nombre de perturbations renforcées par les hautes températures(T>800°C). Cette thèse aborde de façon détaillée le traitement d’un certain nombre de grandeurs d’influence liées à la mesure de différents paramètres dans le domaine du proche IR mais également étendus aux domaines du visible et de l’IR. La première de ces grandeurs est l’émissivité dont le traitement a déjà été abordé par d’autres études. La seconde grandeur d’influence touche plus particulièrement à la localisation des points chauds sur l’objet et la distorsion du champ de température apportée par les effets convectifs présents autour d’un objet à haute température, elle est le coeur de cette thèse. En effet, lorsqu’une pièce chaude se trouve dans un milieu ambiant beaucoup plus froid, il se crée un gradient de température et donc d’indice de réfraction autour de la pièce. Or les caméras travaillant dans les différentes bandes spectrales vont être plus ou moins sensibles à ces variations d’indices de réfraction du fait de la dépendance de l’indice optique avec la longueur d’onde et de la résolution spatiale de la caméra utilisée. Ce phénomène, appelé effet mirage, entraîne inévitablement une déformation des informations spatiales reçues par la caméra. Le but de cette thèse a donc été d’estimer et de proposer une première approche pour corriger l’erreur faite sur la mesure de température et/ou de déformation faites par caméras sur des pièces chaudes. La démarche générale du travail a donc été dans un premier temps de calculer le champ de température autour de l’objet considéré en se ramenant d’abord à des cas simplifiés. On en a déduit alors le champ de réfraction entraînant une « déformation » de l’objet, en faisant le lien entre T et n. Cette étape correspond à l’approche numérique de notre étude. Cette étape numérique a été réalisé à l’aide d’un outil de lancer de rayons développée à l’ICA. L’approche expérimentale a consisté à l’utilisation de méthodes telle que la BOS (Background Oriented Schlieren), la PIV, la srtioscopie afin de déduire le champ de déplacements provoqué par le panache convectif. Ces résultats ont été comparés à la méthode numérique et ceci pour différentes longueurs d’ondes. Enfin, une stratégie de correction d’images perturbées a été abordé à l’aide de méthodes telles que la transformée d’Abel inverse afin de remonter au champ d’indice de réfraction 2D axisymétrique à partir d’une déformation plane. / The Clement Ader Institute of Albi and the von Karman Institute follow since numerous years works about IR radiometry with the aim to do quantitative thermography (true temperature measurement without contact). These works allowed to explore potentiality several spectral bands : 8-12µm, 3-5µm and recently the 0.75-1.7µm band (near IR) with the help of CCD camera (Si) or VisGaAs camera. Studies done in this specific domain have underlined some perturbations emphasized at high-temperature(T>800°C). This work has to deal in details with the treatment of parameters playing a role in camera measurements. The first of these parameters is the emissivity, this treatment is made in another thesis. The second parameter affects particularly the hot spot location and the spatial distortion. This perturbation comes from convective effect present around every hot objects.The purpose of this thesis is to analyze this effect and to correct it. Indeed, when a hot object is in a colder surrounding media, a temperature gradient is shaped around the object and thus a refractive index gradient too. This phenomena brings inevitably distortions of the spatial information received by the camera. The goal of this work will be to estimate and correct error made on temperature and/or distortion measurement by CCD or VisGaAs camera on hot object.We chose to focus our work on the convective plume created by a hot horizontal disk. This study will be done with an experimental and a numerical approach. For the numerical approach, a raytracing code has been developed in order to obtain numerically the displacement due to the light deviation occurring in the perturbation. The input data of the code is the refractive index of the hot air present around the object. This refractive index, depending on the wavelength, can be found directly from the temperature thanks to the Gladstone-Dale law. The temperature is given by a CFD software such as FLUENT. Experimentally, we will use the Background Oriented Schlieren (BOS) method in order to retrieve the displacement. We can see that the displacement can reach 4 pixels in the plume (corresponding to 1mm in this case). This perturbation has been studied for several spectral bands (visible, near infrared, infrared). Finally, some solutions of correction are given, like using the inverse Abel Transform in order to retrieve from the 2D displacement, a 3D (axisymmetric) refractive index field that we will implement in the ray-tracing code and consequently predict the displacement for any kind of wavelength or distance (distance between the camera and the object).
|
9 |
Imagerie terrestre urbaine : vers une méthode physique d'estimation de la réflectance / Terrestrial urban imagery : towards a physical method for the estimation of reflectancesCoubard, Fabien 30 October 2014 (has links)
L'imagerie terrestre urbaine se développe grâce à la diffusion grand public de visualisateurs immersifs au niveau de la rue. L'objectif de cette thèse est de proposer une méthode physique d'estimation de la réflectance des matériaux d'une scène urbaine à partir des images d'un système mobile d'acquisition, comme par exemple le véhicule d'acquisition Stereopolis, développé au laboratoire MATIS de l'Institut National de l'Information Géographique et Forestière (IGN).Pour cela, on considère que l'on dispose d'un modèle 3D de la scène, segmenté en zones de réflectance homogène (décrite par un modèle paramétrique), d'un jeu d'images géoréférencées corrigées radiométriquement. On propose une méthode d'estimation des réflectances par minimisation de l'écart entre les images réelles acquises par le capteur et des images simulées depuis le même point de vue. Après une modélisation phénoménologique des différentes composantes de la luminance arrivant au niveau d'un capteur imageur dans le domaine visible, une méthode utilisant le lancer de rayons sert à simuler cette luminance. Cela constitue ici le problème direct. Cet outil de simulation nécessite la connaissance de l'illumination de la scène, i.e. la répartition et la puissance des sources de lumière. Pour une acquisition avec Stereopolis, on ne réalise généralement pas de mesures atmosphériques et/ou radiométriques permettant de déterminer l'illumination avec des codes de transfert radiatif ; c'est pourquoi on propose une méthode d'estimation de la luminance du ciel à partir des images, en utilisant les pixels qui voient le ciel. L'éclairement solaire direct, non accessible directement dans les images, est estimé par une méthode ombre-soleil grâce à une plaque de référence placée sur le toit du véhicule. L'algorithme d'inversion du système se fait par minimisation d'une fonction coût constituée par la différence pixel à pixel entre les images simulées avec certains paramètres de réflectance et les images réelles. Cela nécessite de nombreuses simulations par lancer de rayons, car l'algorithme est itératif en raison des réflexions multiples entre les objets qui doivent être calculées avec des paramètres de réflectances initiaux. Afin d'éviter ces très coûteux lancers de rayons, on propose un algorithme de lancer de rayons formel qui stocke la luminance simulée comme des fonctions des paramètres de réflectances au lieu d'une valeur numérique. Cela permet de mettre à jour les images de luminance simulées par simple évaluation de ces fonctions avec le jeu de paramètres courant. La minimisation elle-même est effectuée par la méthode du gradient conjugué. Des résultats sur des scènes synthétiques permettent de faire une première validation de la méthode. Cependant, l'application sur un jeu d'images issues de Stereopolis pose plusieurs difficultés, notamment liées l'étalonnage radiométrique et à la segmentation du modèle 3D utilisé en entrée / Urban terrestrial imagery is widely used through online viewers of street-level images. The MATIS of the French National Geographical and Forester Data Institute (IGN) has developed its own mobile-mapping vehicle, Stereopolis, dedicated to research purposes. In this thesis, we develop a physically-based method to retrieve the reflectance of urban materials from a set of images shot by a mobile-mapping vehicle. This method uses a 3D model of the scene (segmented in areas of homogeneous reflectance, modeled by a parametric formula) and a set of georeferenced and radiometrically corrected images. We present a method for the estimation of the reflectances of the materials by minimizing the difference between real acquired images and simulated images from the same point of view. A modelisation of the physical phenomena leading to the formation of optical images is presented. A code using ray-tracing algortihm is used to compute the radiance at the sensor level. This is the direct problem for our estimation of reflectances. The illumination of the scene must be an input of this simulation tool; now, in a typical urban mobile-mapping acquisition neither atmospheric nor radiometric measurements are performed, that could be used to determine the illumination with a radiative transfer code. We propose an estimation of the illumination using directly the sky pixels in the acquired images. The direct solar irradiance cannot be estimated from the images because of overexposure, but we can use a shadows casted on a dedicated reference plate placed on top of the vehicle. The reflectances estimation is performed by minimizing a cost function; this cost function is the pixel-wise difference between simulated images (with current reflectances parameters) and acquired images. This leads to numerous ray-tracing simulations as the algorithm is iterative due to interreflections between the objects of the scene, that are computed using initial parameters. In order to prevent these costly ray-tracing simulations, we propose a symbolic ray-tracing algorithm that computes the radiance as a symbolic function of the reflectances parameters instead of a numerical value. Then, each iteration of the minimization algorithm is only an evaluation of a symbolic function. Results are shown on synthetic scenes to perform a first validation the estimation method. Using this method on real Stereopolis images remains difficult, mainly due to the radiometric calibration of cameras and the segmentation on the 3D model
|
10 |
High quality adaptive rendering of complex photometry virtual environments / Rendu adaptatif haute-qualité d'environnements virtuels à photométrie complexeDufay, Arthur 10 October 2017 (has links)
La génération d'images de synthèse pour la production cinématographique n'a cessé d'évoluer durant ces dernières décennies. Pour le non-expert, il semble que les effets spéciaux aient atteint un niveau de réalisme ne pouvant être dépassé. Cependant, les logiciels mis à la disposition des artistes ont encore du progrès à accomplir. En effet, encore trop de temps est passé à attendre le résultat de longs calculs, notamment lors de la prévisualisation d'effets spéciaux. La lenteur ou la mauvaise qualité des logiciels de prévisualisation pose un réel problème aux artistes. Cependant, l'évolution des cartes graphiques ces dernières années laisse espérer une potentielle amélioration des performances de ces outils, notamment par la mise en place d'algorithmes hybrides rasterisation/ lancer de rayons, tirant profit de la puissance de calcul de ces processeurs, et ce, grâce à leur architecture massivement parallèle. Cette thèse explore les différentes briques logicielles nécessaires à la mise en place d'un pipeline de rendu complexe sur carte graphique, permettant une meilleure prévisualisation des effets spéciaux. Différentes contributions ont été apportées à l'entreprise durant cette thèse. Tout d'abord, un pipeline de rendu hybride a été développé (cf. Chapitre 2). Par la suite, différentes méthodes d'implémentation de l'algorithme de Path Tracing ont été testées (cf. Chapitre 3), de façon à accroître les performances du pipeline de rendu sur GPU. Une structure d'accélération spatiale a été implémentée (cf. Chapitre 4), et une amélioration de l'algorithme de traversée de cette structure sur GPU a été proposée (cf. Section 4.3.2). Ensuite, une nouvelle méthode de décorrélation d'échantillons, dans le cadre de la génération de nombres aléatoires a été proposée (cf. Section 5.4) et a donné lieu à une publication [Dufay et al., 2016]. Pour finir, nous avons tenté de combiner l'algorithme de Path Tracing et les solutions Many Lights, toujours dans le but d'améliorer la prévisualisation de l'éclairage global. Cette thèse a aussi donné lieu à la soumission de trois mémoires d'invention et a permis le développement de deux outils logiciels présentés en Annexe A. / Image synthesis for movie production never stopped evolving over the last decades. It seems it has reached a level of realism that cannot be outperformed. However, the software tools available for visual effects (VFX) artists still need to progress. Indeed, too much time is still wasted waiting for results of long computations, especially when previewing VFX. The delays or poor quality of previsualization software poses a real problem for artists. However, the evolution of graphics processing units (GPUs) in recent years suggests a potential improvement of these tools. In particular, by implementing hybrid rasterization/ray tracing algorithms, taking advantage of the computing power of these processors and their massively parallel architecture. This thesis explores the different software bricks needed to set up a complex rendering pipeline on the GPU, that enables a better previsualization of VFX. Several contributions have been brought during this thesis. First, a hybrid rendering pipeline was developed (cf. Chapter 2). Subsequently, various implementation schemes of the Path Tracing algorithm have been tested (cf. Chapter 3), in order to increase the performance of the rendering pipeline on the GPU. A spatial acceleration structure has been implemented (cf. Chapter 4), and an improvement of the traversal algorithm of this structure on GPU has been proposed (cf. Section 4.3.2). Then, a new sample decorrelation method, in the context of random number generation was proposed (cf. Section 5.4) and resulted in a publication [Dufay et al., 2016]. Finally, we combined the Path Tracing algorithm with the Many Lights solution, always with the aim of improving the preview of global illumination. This thesis also led to the submission of three patents and allowed the development of two software tools presented in Appendix A.
|
Page generated in 0.0739 seconds