Spelling suggestions: "subject:"informatique biographique"" "subject:"informatique diagraphique""
31 |
Toward more realism and robustness in global illumination / Vers plus de réalisme et de robustesse en simulation de l’éclairage globalGruson, Adrien 06 July 2015 (has links)
L'un des buts principaux de la synthèse d'image est de générer une image en adéquation avec les attentes de l’utilisateur. Pour ce faire, l'utilisateur doit passer par plusieurs étapes. La première, dite « Moteur de rendu », a pour but de simuler de façon précise les différentes interactions lumineuses avec les objets d'une scène 3D. A l'issue de cette étape, l'utilisateur aura à sa disposition une image décrite par des grandeurs photométriques. Ensuite, l'utilisateur procède à une seconde étape, dite « Post-production », où l'utilisateur effectue différents traitements sur l’image générée. Afin que l’image finale soit en adéquation avec les attentes de l’utilisateur, ce dernier peut modifier la scène 3D ou les différents paramètres utilisés par chaque étape. Les travaux de recherche menés dans le cadre de la thèse se sont focalisés sur deux axes principaux : l’accélération de la génération d'images de synthèse et le développement d'outils, proposés à l'utilisateur, lui permettant de satisfaire ses attentes. Concernant le premier axe, nous avons travaillé sur les techniques de synthèse d'image permettant de générer des images de synthèse de haute qualité. Ces techniques s’appuient, le plus souvent, sur un processus stochastique qui construit de façon aléatoire des chemins de lumière. Cependant, dans certains cas de figure, il est difficile de construire de façon efficace ces chemins. C'est le cas des milieux participants (fumée, feu, etc.) pour lesquels un grand nombre d'interactions lumière/matière doit être pris en compte, ce qui est très coûteux en temps de calcul. Pour réduire ces temps de calcul, nous proposons une adaptation d'une approche de rendu discrète exploitant la puissance de calcul des cartes graphiques. Cependant, comme ce genre de techniques présentent de nombreuses limitations, nous avons développé une seconde technique basée sur le trace de photon. Par ailleurs, dans des scènes complexes, il est difficile de trouver des chemins contributifs. Pour cette raison, nous avons utilisé une approche, basée sur Metropolis-Hasting, qui permet d'explorer localement l'espace des chemins contributifs. En revanche, avec ce type d'approche, il est difficile de contrôler la répartition de l'erreur sur le plan image. C'est pourquoi, nous proposons une nouvelle approche permettant de mieux répartir l'erreur relative sur le plan image. Dans le second axe de travail, nous nous sommes intéressés à l’étape de « Post-production ». En effet, nous avons développé une nouvelle technique d'estimation de l'illuminant de référence. Connaître cet illuminant est important lors d’opérations manipulant l'espace couleur utilisé. Enfin, nous proposons une technique capable de déterminer automatiquement la configuration des sources de lumière dans le but de générer une image répondant aux attentes de l'utilisateur. / One of the main goal in computer graphics is to generate an image that matches the user intent. To do that, the user has to go through several steps. The first step, named « Rendering engine », aims to precisely simulate light interactions with the objects of a 3D scene. At the end of this step, an image is generated. This image is represented by photometric values. Then, the user moves on to the second step, named « Post-production », where she/he applies several transformations to the computer generated images. To make the final image be in line with her/his expectations, the user can modify the 3D scene or change parameter values used throughout the different steps. Two main research avenues are investigated: acceleration of the generation of computer generated images and the development of user assistance tools allowing to satisfy the user's intent. First, we have developed computer graphics algorithms that generate high quality images. These techniques often rely on a stochastic process. They randomly construct light paths. However, in some particular setup, it turns out that these algorithms are inefficient. This is the case when rendering participating media for which a huge amount of light interactions is needed. These interactions entail a costly computing time. In order to reduce the rendering time, we have proposed a new discrete approach that runs on the GPU. However, there exist several limitations with this type of technique. To overcome these limitations, we have developed a second approach based on progressive photon mapping. Furthermore, in complex scenes, it is difficult to find valid light paths. This is why, our algorithm is based on Metropolis-Hasting. This type of technique allows to explore locally the path space but still have several drawbacks. The main drawback is that the algorithm does not distribute evenly the error over the image space. We have proposed a novel approach to address this issue. In the second part of this PhD, we are interested in the "post-production" step. A new technique has been developed to estimate the main illuminant in a scene. Knowing this main illuminant is crucial for color transformations. Moreover, we have developed a technique that optimizes automatically the lighting setup in a 3D scene to meet the user's expectations.
|
32 |
Bayesian and Quasi-Monte Carlo spherical integration for global illumination / Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globaleMarques, Ricardo 22 October 2013 (has links)
La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération. / The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the previous estimate using a new set of samples, and the process is repeated until a satisfying result is achieved.
|
33 |
Modélisation par bruit procédural et rendu de détails volumiques de surfaces dans les scènes virtuelles / Procedural noise modeling and rendering of volumetric details over surfaces in virtual scenesPavie, Nicolas 03 November 2016 (has links)
L’augmentation de la puissance graphique des ordinateurs grands publics entraîne avec elle une demande croissante de qualité et de complexité des scènes virtuelles. La gestion de cette complexité est particulièrement difficile pour les objets naturels tels les arbres et les champs d’herbe ou encore pour les animaux, pour lesquels de très nombreux petits objets très similaires viennent décorer les surfaces. La diversité de ces détails de surfaces, nécessaire à un rendu réaliste dans le cas des objets naturels, se traduit par une augmentation du temps de modélisation, du coût en stockage et de la complexité d’évaluation. Nous nous sommes intéressés aux différentes représentations et méthodes de génération à la volée pouvant être utilisées pour la création et le rendu temps réel de ces détails sur de vastes surfaces. Nous avons concentré notre étude sur le cas particulier des champs d’herbe et des fourrures : De nombreux brins quasi-similaires, distribués aléatoirement sur la surface, forment une apparence visuelle très proche d’un motif de bruit incluant des éléments de structure. Nous présentons dans un premier temps un bruit procédural axé sur la modélisation spatiale interactive d’éléments quasi-similaires et de leur distribution. L’utilisation de fonctions gaussiennes elliptiques comme primitive de modélisation, et la distribution non-uniforme contrôlée des éléments créés, permet de produire des motifs aléatoires ou quasi-réguliers incluant des caractéristiques structurelles. Une méthode d’analyse par décomposition en ellipses permet de préconfigurer ce bruit pour une reproduction rapide d’un motif donné. Nous présentons ensuite une extension de ce bruit pour la modélisation procédurale d’une surcouche volumique composée de détails de surfaces tels que des brins ou des objets volumiques plus complexes. Pour conserver une modélisation interactive du motif, une première méthode de rendu d’ordre image et une seconde méthode d’ordre objet sont proposées pour une évaluation optimisée du bruit par une carte graphique. Ces deux méthodes permettent une visualisation interactive et visuellement convaincante du résultat. / The growing power of graphics processing units (GPU) in mainstream computers creates a need for a higher quality and complexity of virtual scenes. Managing this complexity for natural objects such as trees or grass fields or even animals is painstaking, due to the large amount of small objects decorating their surface. The diversity of such details, mandatory for realistic rendering of natural objects, translates in a longer authoring time, a higher memory requirement and a more complex evaluation. We review in this thesis the related works on data representations and on-the-fly generation methods used for the creation and real-time rendering of details over large surfaces. We focus our study on the particular case of grass fields and fur : the fuzzy visual appearance of those surfaces is obtained by the distribution of many self-similar blades or strands, creating a pattern closely related to a noise with structural features. We first present a procedural noise that aims at spatial modeling of self-similar elements and their distribution. The elliptical Gaussian function used as a modeling primitive and the controlled non-uniform distribution of elements allows for various type of patterns to be modeled, from stochastic to near-regular one, while including structural features. The by-example analysis process based on an ellipse fitting method allows a fast configuration of the noise for patterns reproduction. We further introduce an extension of this noise model for the authoring of procedural shell textures of strand-based or more complex volumetric details. For interactive authoring of such volumetric pattern, an image-order and an object-order rendering methods are proposed, both methods being optimized for an implementation on the GPU. Our rendering methods allow for interactive visualization of a visually-convincing result.
|
34 |
Modèles physiques déformables et modes vibratoires pour l'analyse du mouvement non-rigide dans les images multidimensionnellesNastar, Chahab 05 July 1994 (has links) (PDF)
Nous nous intéressons à l'analyse du mouvement des objets déformables dans les séquences d'images médicales. Après un rappel des méthodes existantes, nous adoptons un modèle élastique qui évolue dans les images en se déformant sous l'action de forces tendant à le rapprocher vers les contours de l'objet, et en obéissant aux équations de la dynamique. Ce modèle permet d'effectuer un suivi du mouvement de la frontière de l'objet déformable : il s'agit d'une courbe dans les séquences d'images bidimensionnelles et d'une surface dans les séquences d'images tridimensionnelles. Afin d'analyser et de quantifier le mouvement du modèle, nous utilisons la technique de l'analyse modale, qui consiste à se placer dans la base des modes propres du système. Non seulement les équations s'écrivent plus simplement dans la base modale, mais surtout, on peut effectuer une très bonne approximation en éliminant les composantes de haute fréquence du mouvement. L'analyse modale ouvre la voie à la représentation spectrale des déformations, qui permet leur comparaison et leur classification à des fins de diagnostic automatique. Couplée à l'analyse de Fourier, elle permet un traitement spatio-temporel très efficace du mouvement des surfaces déformables (notamment le mouvement de la paroi ventriculaire), prouvant ainsi l'intérêt de la méthode en analyse et en compression de mouvement. De nombreux exemples de traitement sur des images médicales sont présentés.
|
35 |
Echantillonage d'importance des sources de lumières réalistes / Importance Sampling of Realistic Light SourcesLu, Heqi 27 February 2014 (has links)
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble. / Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process.
|
36 |
Optimisation du compromis débit/distorsion pour la compression géométrique de maillages surfaciques triangulairesPayan, Frédéric 02 December 2004 (has links) (PDF)
les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage polygonal. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction du débit. Le but de l'allocation est de minimiser la distance surface-surface entre le maillage d'entrée et le maillage quantifié en fonction d'un débit de consigne. Cette distance qui traduit la différence géométrique entre deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients d'ondelettes<br />géométriques permettent l'utilisation de modèles théoriques pour le<br />débit et la distorsion des sous-bandes de coefficients. Finalement,<br />nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme<br />proposé donne de meilleurs résultats que toutes les méthodes de l'état de l'art.
|
37 |
Etudes sur le bore et les composés intersticiels du bore alpha : Traitement infographique des cinétiques de frittage sous chargeBrodhag, Christian 14 October 1983 (has links) (PDF)
Nous avons étudié la famille des composés isostructuraux du bore alpha (BxC, B1202, "B12As2", "B12P2") grâce à la spectrométrie infrarouge et leurs propriétés notamment électriques et mécanique (microdureté). No us avons préparé du bore pur sous forme alpha par réduction de BBr3 par l'hydrogène, car la dissociation de BI3 donne de mauvais résultats. La meilleure valorisation industrielle de ces céramiques ne pouvant se faire que sur des échantillons massifs, nous avons comprimé à chaud du bore et du sous oxyde de bore. Nous avons comparé les modèles de frittage et les cinétiques calculées à partir des compressions, avant de développer une méthode informatique graphique originale, pouvant avoir des appliquations tant au niveau de la qualité, qu'au niveau informatique lui même. Nous avons été conduits à mettre au point des barrières de diffusion chimique qui ont fait l'objet d'un brevet. Différentes propriétés physiques du bore et des borures ont été envisagées : pour les diverses phases : métallographies, pour le bore : diffraction X, microdureté, résistivité électrique, coefficient Seebeck, diffusivité thermique, vitesse du son. pour le sous oxyde de bore : diffraction X, stabilité de la poudre, oxydation d'échantillons massifs, diffusivité thermique.
|
38 |
Modèles pour la Création Interactive et Intuitive d'Objets TridimensionnelsBarthe, Loïc 08 July 2011 (has links) (PDF)
Ce manuscrit présente principalement un ensemble de travaux de recherche, ainsi que les tâches administratives ou liées à la vie de la recherche, que j'ai effectuées. Il se termine par ma liste de publications. Les travaux présentés s'étalent sur ces neuf dernières années. Ils portent sur la modélisation géométrique de formes complexes et sont ceux pour lesquels ma participation a été la plus active, voire dont j'ai été l'instigateur. De nos jours, l'image prend de plus en plus d'importance. Parmi tous les facteurs à l'origine de ce phénomène, nous pouvons noter la prolifération des supports d'affichage (écrans, téléphones portables, tablettes PC, ordinateurs ultra-portables, etc). La demande en création de contenu visuel est croissante et une façon de répondre à cette demande efficacement et à moindre coût passe par la génération de contenu virtuel tridimensionnel. La génération de contenu virtuel s'appuie sur la modélisation géométrique d'objets complexes. Cette phase de création des objets tridimensionnels est encore longue et laborieuse et n'est accessible qu'aux professionnels ou aux passionnés. Ceci est dû, en partie, à la difficulté de définir des modèles de représentation de surfaces qui sont à la fois rapides à visualiser, robustes et accessibles quand on édite la surface (déformation, changement de topologie, etc), simples à implanter, numériquement stables, et permettant une interaction intuitive avec l'utilisateur. En fait, il n'existe pas vraiment de solution satisfaisante au développement rapide de logiciels de modélisation performants et faciles à prendre en main par un utilisateur non-expert; même s'ils sont contextualisés. Nous nous intéresserons, dans un premier temps, à l'un des modèles de représentation de surfaces les plus populaires et reconnus pour sa flexibilité et son efficacité dans des applications de modélisation d'objets de formes libres : les surfaces de subdivision. Nous verrons les travaux que j'ai effectués sur ces modèles et nous discuterons de leurs avantages et leurs inconvénients dans notre contexte. Ceci nous amènera à la présentation de travaux sur la modélisation par esquisses, une technique de modélisation basée sur le tracé de contours, reconnue pour son accessibilité d'un point de vue utilisateur. Ces travaux mettront en évidence l'intérêt que l'on peut avoir à développer les modèles volumiques (surfaces implicites) et nous verrons quels travaux ont été menés récemment sur ces modèles pour améliorer leur contrôle et leur efficacité en situation de modélisation. Nous finirons en mettant en perspective le potentiel des modèles volumiques en présentant des projets de recherche qui ont ou vont commencer.
|
39 |
Utilisation des relations spatiales pour l'analyse et l'édition de mouvementLe Naour, Thibaut 09 December 2013 (has links) (PDF)
L'animation de personnages virtuels guidée par des données fait l'objet de nombreuses études dans le domaine de l'informatique graphique. Dans ce contexte, le mouvement est classiquement défini par une suite de squelettes au cours du temps, chacun étant décrit par un vecteur de positions et de rotations. Le maillage 3D est ensuite guidé par les squelettes au moyen d'un couplage défini explicitement. L'enchaînement des différentes étapes de ce processus est difficile à mettre en oeuvre, et conduit à des approximations et des erreurs de modélisation, à la fois au niveau de l'animation du squelette et de la déformation du maillage. Dans ce manuscrit nous proposons d'étudier d'autres représentations du mouvement par le biais d'un ensemble de relations spatiales. Cette approche nous permet de tenir compte implicitement de contraintes de distance entre les points de la structure articulée, du maillage et de l'environnement, et d'exprimer en particulier la notion de contact. Deux axes d'étude sont principalement abordés~: le premier considère le mouvement dans l'espace métrique, et le second caractérise chaque posture par son information différentielle dans l'espace Laplacien. Dans un premier temps, nous proposons de représenter les squelettes associés aux postures du mouvement par un ensemble de distances. Caractériser une telle structure dans l'espace métrique se ramène à un formalisme mathématique connu sous le nom de problème de la géométrie des distances. Ainsi, nous nous inspirons des différentes techniques existantes et les appliquons au contrôle du mouvement. L'objectif est de produire de nouveaux mouvements à partir de processus d'édition ou d'inversion cinématique. Nous montrons que cette représentation permet un contrôle simple et intuitif de l'animation d'un personnage. Elle possède également plusieurs propriétés exploitables dans le cadre de l'analyse du mouvement. Ce dernier point est illustré par une application originale de recherche de mouvements dans des grandes bases de données. Dans un second temps, nous définissons le mouvement par un ensemble de graphes dont les sommets sont caractérisés par une information différentielle. A travers cette représentation, nous proposons une nouvelle méthode d'édition du mouvement couplant des contraintes de distance avec l'opérateur Laplacien discret. Cet opérateur permet de préserver les relations spatiales lors de l'édition du mouvement alors que les contraintes de distance préservent certaines propriétés inhérentes au squelette. Ce concept donne lieu à plusieurs applications dédiées à la reconstruction et l'édition de mouvement : (i) l'édition interactive d'animation de squelette, où nous proposons d'éditer tout type de mouvement avec de fortes déformations tout en préservant l'information spatio-temporelle ; (ii) la reconstruction de trajectoires de marqueurs~: en faisant l'hypothèse qu'il existe un lien entre la trajectoire d'un marqueur et celles de ses voisins, nous proposons de reconstruire les trajectoires incomplètes ; (iii) l'animation de maillage où nous proposons un nouveau processus d'animation directement guidé par les trajectoires des marqueurs.
|
40 |
Extension des méthodes de géométrie algorithmique aux structures fractalesMishkinis, Anton 27 November 2013 (has links) (PDF)
La définition de formes par ces procédés itératifs génère des structures avec des propriétésspécifiques intéressantes : rugosité, lacunarité. . . . Cependant, les modèles géométriques classiquesne sont pas adaptés à la description de ces formes.Dans le but de développer un modeleur itératif pour concevoir des objets fractals décrits à l'aide duBCIFS, nous avons développé un ensemble d'outils et d'algorithmes génériques qui nous permettentd'évaluer, de caractériser et d'analyser les différentes propriétés géométriques (la localisation, lecalcul de l'enveloppe convexe, de la distance à partir d'un point, etc) de fractals. Nous avons identifiéles propriétés des opérations standards (intersection, union, offset, . . . ) permettant de calculer uneapproximation d'image des fractales et de plus d'optimiser ces algorithmes d'approximation.Dans certains cas, il est possible de construire un CIFS avec l'opérateur de HUTCHINSON généralisédont l'attracteur est suffisamment proche du résultat de l'opération par rapport à la métrique deHausdorff. Nous avons développé un algorithme générique pour calculer ces CIFS pour une précisiondonnée. Nous avons défini la propriété d'auto-similarité de l'opération, qui définie un ensemble detransformations utilisé dans un système itératif résultant.Pour construire un CIFS exact de l'image, si il existe, il faut prouver tous les similitudes nécessairesmanuellement. Nous explicitons également la condition de l'opération, quand le résultat peut êtrereprésenté par un IFS avec un opérateur de HUTCHINSON généralisé. Dans ce cas, il n'est que cettecondition à prouver manuellement
|
Page generated in 0.0742 seconds