• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 18
  • 2
  • Tagged with
  • 41
  • 41
  • 37
  • 19
  • 18
  • 16
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Study of the composition models of field functions in computer graphics / Etude des modèles de composition de fonctions de champ scalaire en informatique graphique

Canezin, Florian 08 September 2016 (has links)
Les fonctions de champ scalaire sont un outil mathématique puissant pour la représentation de surfaces en informatique graphique. Malgré l'information de volume qu'elles offrent, combiné aux modèles de composition qui les accompagnent, les fonctions de champ scalaire ne sont encore utilisées que dans très peu d'applications en raison de leurs limitations, telles qu'une interaction utilisateur lente et un contrôle de la forme de la surface difficile.Dans cette thèse, nous étudions ces modèles de composition dans le but de les développer, de les améliorer et de faire en sorte qu'ils soient efficaces et pertinents pour l'informatique graphique. Pour cela, nous nous intéressons à deux applications.La première est la modélisation géométrique, où les fonctions de champ scalaire représentent des composants d'objets qui sont assemblés par paires dans un processus de création incrémental pour construire des objets complexes. Nous proposons une représentation unifiée des fonctions de champ scalaire et du modèle de composition afin d'obtenir un processus de modélisation plus stable et sans artefacts.La deuxième application à laquelle nous nous intéressons est la simulation et la reconstruction de fluides basées particules. Ici, les fonctions de champ scalaire représentent les contributions des particules qui échantillonnent le volume du fluide. Ces contributions sont alors combinées d'un coup pour reconstruire la surface du fluide. Nous proposons dans ce cadre de prendre en compte la topologie de la surface reconstruite dans la simulation, évitant ainsi un comportement inapproprié des particules, et donc du fluide ainsi simulé. / Field functions are a powerful mathematical tool for surface representation in computer graphics. Despite the volume information they provide, combined with the composition models accompanying them, field functions are still used in only a few number of applications due to their limitations such as slow user interactions and a difficult shape control.In this thesis we study these composition models in order to develop and improve them and make them efficient and relevant for computer graphics. We do so through two applications.The first one is geometric modelling, where field functions represent object compounds that are combined pairwisely in an iterative creation process to design complex objects. We propose to unify and make consistent both the field function representation and the composition model to provide a more stable and artefact-free modelling process.The second one is fluid simulation and reconstruction based on particles. Here, field functions represent contributions of the particles sampling the fluid volume. These contributions are then combined in a row to build the fluid surface. In this application, we propose to take the topology of the reconstructed surface into account when running the fluid simulation, thus avoiding an inappropriate behavior of the particles, and then of the simulated fluid.
22

Inférence non paramétrique pour les modèles Gibbsiens de processus ponctuels spatiaux / Non parametric inference for Gibbsian models of spatial point processes

Morsli, Nadia 28 November 2014 (has links)
Parmi les modèles permettant d'introduire de l'interaction entre les points, nous trouvons très large famille des modèles gibbsiens de processus ponctuels spatiaux issus de la physique statistique, permettant de modéliser à la fois des motifs répulsifs ou attractifs. Dans cette thèse, nous nous intéressons à l'inférence semi-paramétrique de ces modèles caractérisés par l'intensité conditionnelle de Papangelou. Deux contextes sont étudiés. Dans le premier thème, nous décrivons une procédure d'estimation du terme d'interaction du premier ordre (qui peut être aussi appelé l'intensité de Poisson) de l'intensité conditionnelle de Papangelou. L'idée sur laquelle l'estimation est basée permet, sous l'hypothèse d'une portée finie, de négliger les termes d'interaction d'ordre supérieur quelle que soit leur nature. La consistance forte et la normalité asymptotique de l'estimateur sont prouvées. Une étude par simulations illustre la performance de l'estimateur sur une fenêtre d'observation finie. Dans le second thème, nous nous focalisons sur la classe la plus connue et utilisée; le processus ponctuel à interaction par paires. Nous construisons une nouvelle méthode d'estimation de la fonction d'interaction de paires dans l'esprit des estimations non paramétriques par lissage à partir d'une réalisation du processus ponctuel spatial à interaction par paires. Deux cas sont étudiées: le cas stationnaire et le cas isotrope. Ces estimateurs exploitent à nouveau la propriété de portée finie des processus ponctuels et intégrent l'estimation du paramètre de l'intensité de Poisson vue dans le premier thème. Nous présentons les propriétés asymptotiques telles que la consistance forte ponctuelle, la consistance forte globale avec différentes vitesses de consistance, le comportement de l'erreur quadratique moyenne et la normalité asymptotique de ces estimateurs. / Among models allowing to introduce interaction between points, we find the large class of Gibbs models coming from statistical physics. Such models can produce repulsive as well as attractive point pattern. In this thesis, we are interested in the semi-parametric inference of such models characterized by the Papangelou conditional intensity. Two frameworks are considered. First, we describe a procédure which intends to estimate the first-order interaction term (also called Poisson intensity) of the Papangelou conditional intensity. Under the assumption of finite range of the process, the idea upon which the procedure is based allows us to neglect higher-order interaction terms. We study the stong consistency and the asymptotic normality and conduct a simulation study which highlights the efficiency of the method for finite observation window. Second, we focus on the main class of Gibbs models which is the class of pairwise interaction point processes. We construct a kernel-based estimator of the pairwise interaction function. Two cases are studied: the stationary case and the isotropic case.The estimators, we propose, exploit the finite range property and the estimator of the Poisson intensity defined in the first part. We present asymptotic properties, namely the strong consistency, the behavior of the mean squared error and the asymptotic normality.
23

Interactive weathering for realistic image synthesis of urban environments / Vieillissement interactif pour la synthèse d'image réaliste des environnements urbains

Muñoz Pandiella, Imanol 05 December 2017 (has links)
Etre capable de capturer et de synthétiser des comportements réalistes est un sujet de recherche important en Informatique Graphique. Mais, pour produire des images réalistes, il ne suffit pas de représenter les matériaux de manière fiable, il faut également prendre en compte leurs évolutions dans le temps. La simulation des effets de vieillissement est le domaine de la recherche qui s’intéresse à la prise en compte de la détérioration des modèles virtuels. Après avoir étudié les travaux précédents dans ce domaine, nous avons constaté qu’il y a un manque d’estimation pour certains paramètres environnementaux importants ainsi qu’un besoin de modèles globaux qui tiennent compte des interactions des facteurs intervenants dans les grandes scènes. De plus, nous avons observées que l’amélioration des techniques actuelles nécessite intégrer les caractéristiques physiques réelles pour éviter la déconnection des processus réels, ce qui doit donc être analysés et compris. Dans cette thèse, nous visons à améliorer la simulation du vieillissement en Informatique Graphique sous les trois angles suivants. Concernant l’estimation des facteurs de vieillissement, nous proposons d’abord de traiter un facteur sous-estimé dans la littérature mais qui est très important dans les processus de vieillissement : le soleil. Plus spécifiquement, nous proposons une technique interactive qui estime l’exposition solaire sur des scènes urbaines détaillées. Compte tenu d’une carte d’exposition directionnelle calculée sur une période donnée, nous estimons le facteur de visibilité du ciel qui sert à évaluer l’exposition finale à chaque point visible. Ceci est fait en utilisant une méthode espace-écran basée sur une approche à deux échelles, qui est indépendante de la géométrie et qui a un coût bas en stockage. Notre méthode aboutit à une technique intéressante non seulement pour les simulations de vieillissement, mais également en architecture, dans la conception de bâtiments durables et dans l’estimation de la performance énergétique des bâtiments. Ensuite, nous introduisons un modèle global permettant de simuler les changements d’apparence des bâtiments liés aux dépôts de pollution. Ce processus est très visible sur les scènes urbaines et, jusqu’à présent, aucune technique n’a été proposée en utilisant une approche globale (sur une ville entière). Nous proposons ici une technique basée sur la physique considérant que les effets de la pollution dépendent de trois facteurs principaux : l’exposition au vent, à la pluie et au soleil. Cette approche prend en compte trois étapes : le dépôt, la réaction et le lavage. Avec un pré-calcul à bas coût, nous évaluons la distribution de la pollution dans la ville. Puis, par le biais d’opérateurs espace-écran, nous proposons une méthode efficace capable de générer des images réalistes en temps interactifs. De plus, le pré-calcul n’exige qu’une quantité réduite de mémoire pour stocker la carte de pollution et, comme la méthode utilisée est indépendante de la complexité de la scène, elle peut s’adapter à des modèles complexes et de grande taille en ajustant la résolution de la carte. Finalement, afin de mieux appréhender les processus de vieillissement, nous présentons une méthode permettant de prendre en compte l’effet d’écaillage sur les monuments en pierre avec très peu d’interaction de l’utilisateur. / Being able to capture and synthesize realistic materials is an important research topic in Computer Graphics. In order to render realistic images it is not enough to represent materials reliably, but we also need to represent its temporal component. Simulation of weathering effects is the research area that pursues the incorporation of decay to virtual models. After studying the previous work, we have found that there is a lack of estimation methods for some important environmental parameters and a need of global models that consider the interactions of the environmental factors in big scenes. Moreover, we have observed that the improvement of current techniques need to incorporate real effects characteristics to avoid the current disconnection from the real processes. But, this need to be first analyzed and understood. In this thesis, we aim to improve weathering simulation in Computer Graphics in these three fronts. Concerning weathering factors estimation, we first propose to deal with an undervalued factor in weathering literature which is very important in aging processes: the sun. More specifically, we propose an interactive technique that estimates solar exposure on detailed urban scenes. Given a directional exposure map computed over a given time period, we estimate the sky visibility factor that serves to evaluate the final exposure at each visible point. This is done using a screen-space method based on a two-scale approach, which is geometry independent and has low storage costs. Our method results in an interesting technique not only in weathering simulations, but also in architecture, in sustainable building design and in the estimation of buildings’ energy performance. After that, we introduce a global model to simulate the changes of appearance of buildings due to pollution deposition. This process is very noticeable on urban scenes and, so far, no technique has dealt with it using a global approach. We propose a physically-based technique that considers pollution effects to depend on three main factors: wind, rain and sun exposure, and that takes into account three intervening steps: deposition, reaction and washing. With a low-cost pre-computation step, we evaluate the pollution distribution through the city. Based on this distribution and the use of screen-space operators, our method results in an efficient approach that generate realistic images of polluted surfaces at interactive rates. In addition, the pre-computation demands a reduced amount of memory to store the pollution map and, as it is independent from scene complexity, it can suit large and complex models adapting its resolution. Finally, in order to improve the understanding of weathering processes, we present a method to identify and map “scaling” weathering effects on stone monuments with very little user interaction.
24

Contributions à l’acquisition, à la modélisation et à l’augmentation d’environnements complexes / Contributions to acquisition, modelling and augmented rendering of complex environments

Fouquet, François 10 December 2012 (has links)
De nos jours, les images augmentées font partie du quotidien. Du cinéma aux jeux vidéo en passant par l'architecture ou le design, nombreuses sont les applications qui ont besoin d'afficher des objets synthétiques dans un contexte réel. Cependant, le processus permettant d'intégrer ces objets de manière cohérente dans leur environnement peut rapidement devenir très difficile à mettre en œuvre. Lorsque l'environnement à augmenter est de grande taille ou présente une géométrie ou un éclairage complexe, sa modélisation devient alors fastidieuse et l'utilisation de ces modèles dans le rendu d'images augmentées réalistes est très coûteuse en ressources. D'un autre côté, des applications telles que la réalité augmentée ont besoin de méthodes de rendu efficaces pour fonctionner en temps réel. Elles doivent, par ailleurs, pouvoir s'adapter automatiquement à des environnements a priori inconnus avec pour seule source d'informations les images acquises progressivement dans ces derniers. Dans cette thèse, nous nous sommes appuyés sur les méthodes développées en vision par ordinateur, en modélisation à partir d'images et en synthèse d'images pour proposer une approche globale au problème d'augmentation cohérente d'environnements complexes et progressivement découverts. Nous y développons de nouvelles méthodes d'acquisition permettant d'obtenir des images RGB+Z avec une grande dynamique et localisées dans l'environnement. Nous présentons ensuite comment exploiter cette source d'information pour construire incrémentalement des représentations de la géométrie et de l'éclairement de la scène à augmenter. Enfin, nous apportons de nouvelles approches de rendu adaptées à ces modélisations et permettant une génération rapide d'images augmentées où l'éclairement des objets synthétiques reste cohérent avec celui de l'environnement / Today, augmented images are parts of our daily life. From movie industry to video games through architecture and object design, many applications need to display synthetic objects into a real context. However, coherently integrating objects in their environment may be a difficult task. When the environment is vast or includes complex geometry or lighting, its modelling is tedious and using its model to render augmented images is resource-consuming. Moreover, applications like augmented reality need efficient real-time rendering. They also have to automatically adapt to unmodelled environments, while progressively acquiring data from incoming images. In this thesis, we based our work on computer vision, image-based modelling and rendering methods to propose a global approach to the problem of progressively discovered and complex environment coherent augmentation. We first develop new acquisition methods to get high dynamic range RGB+Z registered images of the environment. Then we explain how to use these informations to incrementally build models of scene geometry and lighting. Finally, we provide new rendering approaches using these models and suitable for an efficient and photometrically coherent image augmentation
25

Paramétrage quasi-optimal de l'intersection de deux quadriques : théorie, algorithmes et implantation

Dupont, Laurent 06 October 2004 (has links) (PDF)
Cette thèse présente un algorithme robuste et efficace du calcul<br /> d'une forme paramétrée exacte de la courbe d'intersection de deux<br /> quadriques définies par des équations implicites à coefficients rationnels. Pour la première fois, le<br /> paramétrage que nous obtenons contient toutes les informations<br /> topologiques de la courbe et est assez simple pour être exploité<br /> dans des applications géométriques non triviales.<br /><br /> De nombreux progrès, dans différents domaines, ont été<br /> nécessaires pour atteindre ce résultat. Nous avons réalisé une étude<br /> exhaustive de tous les cas possibles d'intersection, d'abord dans<br /> $\Pp^3(\C)$ en nous basant sur les travaux de Segre, puis dans $\Pp^3(\R)$ <br /> en exploitant les résultats d'Uhlig sur la réduction simultanée de<br /> deux formes quadratiques réelles. Cette étude systématique nous a<br /> permis de maîtriser complètement la géométrie inhérente à<br /> l'intersection de deux quadriques. Nous sommes maintenant capables<br /> de déterminer toutes les caractéristiques de la courbe<br /> d'intersection, à savoir son genre, ses points singuliers, le nombre<br /> de ses composantes algébriques et connexes, et les incidences entre<br /> ces composantes. Quand il en existe, nous<br /> trouvons un paramétrage rationnel des composantes de la courbe<br /> d'intersection. En ce sens, notre algorithme est optimal.<br /> Nous avons aussi fait des progrès significatifs sur la complexité de l'expression radicale des<br /> coefficients du paramétrage obtenu.<br /> Notre résultat est quasi-optimal dans le sens où les coefficients du paramétrage<br /> de la courbe d'intersection que nous calculons contiennent au plus<br /> une racine carrée non nécessaire dans leur expression. <br /> De plus, notre résultat est optimal dans le cas le pire,<br /> dans le sens où pour chaque type de courbe d'intersection<br /> (par exemple une quartique régulière, ou une cubique et une droite, ou<br /> deux coniques), il existe des paires de quadriques pour lesquelles le<br /> nombre de racines carrées apparaissant dans l'expression des<br /> coefficients de notre paramétrage est minimal.<br /><br /> Enfin, nous avons réalisé une implantation complète de notre<br /> algorithme en MuPAD qui nous a permis d'afficher des<br /> performances inédites, tant en terme de vitesse d'exécution qu'en terme de<br /> simplicité du résultat obtenu.
26

Hiérarchisation et visualisation multirésolution de résultats issus de codes de simulation

Vivodtzev, Fabien 05 December 2005 (has links) (PDF)
Les simulations numériques génèrent une quantité de résultats disproportionnée par rapport aux moyens d'exploitation, sans espoir d'atténuation à terme. Les maillages supportant ces simulations, sont composés de plusieurs dizaines de millions de cellules volumiques avec, plus spécifiquement, des sous-structures imbriquées de différentes dimensions (surfaciques et linéiques) et des couches minces de matériaux. En phase de post-traitement, un utilisateur devrait être capable de visualiser et de manipuler ces données, à temps interactif, sur sa propre machine d'exploitation. Cependant, les outils existants en visualisation scientifique ne permettent pas ou que partiellement d'atteindre les objectifs souhaités avec ce type de données (grand nombre de mailles, sous-structures, couches minces, . . .).<br /><br />Dans cette thèse, une approche par hiérarchisation des données est proposée afin de construire une représentation multirésolution autorisant la visualisation interactive d'une grande quantité d'information. L'étape de hiérarchisation est basée sur un algorithme de simplification de maillages, par contractions itératives d'arêtes, préservant à la fois la topologie du maillage et celle de toutes les sous-structures imbriquées. Les critères topologiques robustes introduits dans ces travaux, s'appuient sur des notions théoriques en topologie algébrique. L'étape de visualisation utilise la représentation multirésolution pour accélérer l'affichage des résultats. De façon progressive, inversible et locale, l'utilisateur modifie dynamiquement la résolution selon ses besoins et les ressources matérielles dont il dispose.<br /><br />Cette thèse illustre la mise en oeuvre de ces techniques de hiérarchisation et de visualisation dans de nombreux domaines d'applications notamment dans le cadre d'exploitation de résultats issus de simulations en électromagnétisme<br />du CEA/CESTA.
27

Adaptation de schémas de subdivision pour la reconstruction d'objet sans artefact

Destelle, François 23 June 2010 (has links) (PDF)
L'objet de ce mémoire est l'analyse des schémas de subdivision, outil de modélisation de surface lisse multi-résolution. Nos travaux se sont tout d'abord consacrés à l'étude du comportement géométrique de ces surfaces au voisinage des sommets extraordinaires du maillage de contrôle. La géométrie d'une surface de subdivision présente un comportement complexe au voisinage de ces sommets, et ces effets parfois néfastes sont pour certains encore mal connus. Nous avons proposé un cadre d'évaluation du comportement géométrique d'une surface de subdivision à travers une mesure de qualité adaptée : le gradient de courbure absolue. Nous avons ensuite proposé un espace de visualisation adapté à l'analyse du voisinage d'un sommet extraordinaire.Celui-ci étant indépendant du schéma de subdivision utilisé, ce cadre d'analyse nous permet de les comparer. Nos travaux se sont alors portés sur une analyse fréquentielle polaire des comportements géométriques, en tenant compte de leurs caractéristiques radiales et angulaires par rapport à la topologie du voisinage d'un sommet extraordinaire. Notre analyse étend les études existantes pour l'évaluation des comportements géométriques de cet outil de modélisation. De plus, nous avons proposé un systàme de description de la phase de subdivision topologique d'un schéma de subdivision. Notre systàme prend la forme d'un codage compact et flexible, il généralise les descriptions existantes. Ce codage permet la description des phases topologiques de tous les schémas de subdivision connus, ainsi que de nombreuses autres.
28

Modèles de représentation multi-résolution pour le rendu photo-réaliste de matériaux complexes

Baril, Jérôme 10 January 2010 (has links) (PDF)
L'émergence des périphériques de capture numériques ont permis le dé- veloppement de l'acquisition 3D pour numériser les propriétés d'un objet réel : sa forme et son apparence. Ce processus fournit une représentation dense et précise d'objets réels et permet de s'abstraire d'un processus de simulation physique coûteux pour modéliser un objet. Ainsi, les problématiques ont évolué et portent non plus uniquement sur la modélisation des caractéristiques d'un objet réel mais sur les traitements de données issues de l'acquisition pour intégrer une copie de la réalité dans un processus de synthèse d'images. Dans ces travaux de thèse, nous proposons de nouvelles représentations pour des fonctions d'apparence issues de l'acquisition dont le but est de dénir un ensemble de modèles multi-échelles, de faible complexité en taille, capable d'être visualisé en temps réel sur le matériel graphique actuel.
29

La fabrique des "nouvelles images" : l’émergence des images de synthèse en France dans la création audiovisuelle (1968-1989) / Making “nouvelles images” : the emergence of computer-generated images in France in audiovisual creation (1968-1989)

Welker, Cécile 06 November 2015 (has links)
Entre la première thèse en informatique graphique (soutenue en 1968) et la première publicité entièrement synthétique diffusée à la télévision (en 1983), les images de synthèse se transforment en “nouvelles images”. Il ne s’agit pas d’évaluer ces prétendues images nouvelles en fonction de leurs qualités distinctives de rupture ou de continuité que l’expression a tendance à appeler, mais d’étudier leur mode de production et de représentation afin de déterminer ce qu’elles montrent des techniques employées, et les imaginaires que ces dernières véhiculent au moment d’émergence de l’image numérique, comme autant de propositions créatives mais aussi d’enjeux idéologiques. Étudiées d’un point de vue technique puis esthétique, grâce à l’étude croisée de témoignages, de littérature grise, et de l’analyse formelle des films, ces productions donnent à voir un processus de réappropriation du médium, avant et après l’image. Si elle définit une histoire « officielle » des images de synthèse en France, en replaçant aussi précisément que possible les productions dans leur environnement technique, politique et culturel, cette thèse a finalement mis en évidence les temps des images de synthèse en tant que produit innovant, depuis leurs lieux de fabrication jusqu’à leurs lieux de légitimation. Ses conclusions mettent en jeu les différentes circulations locales des hommes, des outils et des images, au moment où la politique culturelle de 1981 favorise la jonction art-ordinateur, et l’indiscipline des créations. / Between the first PhD in computer graphics (defended in 1968) and the first entirely synthetic advertisement broadcast on television (1983), computer-generated images became “new images”. The aim is not to assess these so-called new images according to their distinctive qualities of rupture or continuity, as the expression would suggest, but rather to study their mode of production and representation in order to determine what they show from the techniques employed, and the imaginative worlds that they convey at the time of the emergence of digital images, like so many creative suggestions but also ideological issues. Studied first from a technical, then from an aesthetic point of view, thanks to the cross-study of testimonies, grey literature and a formal analysis of the movies, these productions show a process of recovery of the medium, before and after the image. This PhD not only defines an “official” history of computer-generated images in France, replacing as precisely as possible the productions in their technical, political and cultural environment, but it also reveals when computer-generated images are innovating products, from their places of fabrication to their places of legitimacy. The conclusions question the different local circulations of people, tools and images, at a time when the cultural policies of the year 1981 promotes the bond between art and computer, and the indiscipline of creations.
30

Extension des méthodes de géométrie algorithmique aux structures fractales / Extension of algorithmic geometry to fractal structures

Mishkinis, Anton 27 November 2013 (has links)
La définition de formes par ces procédés itératifs génère des structures avec des propriétésspécifiques intéressantes : rugosité, lacunarité. . . . Cependant, les modèles géométriques classiquesne sont pas adaptés à la description de ces formes.Dans le but de développer un modeleur itératif pour concevoir des objets fractals décrits à l’aide duBCIFS, nous avons développé un ensemble d’outils et d’algorithmes génériques qui nous permettentd’évaluer, de caractériser et d’analyser les différentes propriétés géométriques (la localisation, lecalcul de l’enveloppe convexe, de la distance à partir d’un point, etc) de fractals. Nous avons identifiéles propriétés des opérations standards (intersection, union, offset, . . . ) permettant de calculer uneapproximation d’image des fractales et de plus d’optimiser ces algorithmes d’approximation.Dans certains cas, il est possible de construire un CIFS avec l’opérateur de HUTCHINSON généralisédont l’attracteur est suffisamment proche du résultat de l’opération par rapport à la métrique deHausdorff. Nous avons développé un algorithme générique pour calculer ces CIFS pour une précisiondonnée. Nous avons défini la propriété d’auto-similarité de l’opération, qui définie un ensemble detransformations utilisé dans un système itératif résultant.Pour construire un CIFS exact de l’image, si il existe, il faut prouver tous les similitudes nécessairesmanuellement. Nous explicitons également la condition de l’opération, quand le résultat peut êtrereprésenté par un IFS avec un opérateur de HUTCHINSON généralisé. Dans ce cas, il n’est que cettecondition à prouver manuellement / Defining shapes by iteration allows us to generate new structures with specific properties (roughness,lacunarity), which cannot be achieved with classic modelling.For developing an iterative modeller to design fractals described by a BCIFS, we developed a set oftools and algorithms that permits one to evaluate, to characterize and to analyse different geometricproperties (localisation, convex hull, volume, fractal dimension) of fractals. We identified properties ofstandard CAD operations (intersection, union, offset, . . . ) allowing us to approximate them for fractalsand also to optimize these approximation algorithms.In some cases, it is possible to construct a CIFS with generalised HUTCHINSON operator, whoseattractor is close enough to the operation result with respect to the HAUSDORFF metric.We introduceda generic algorithm to compute such CIFS for a given accuracy.We defined the self-similarity propertyof the operation defining a set of transformations, which are used in the output iterative system.In order to construct an exact CIFS of the image, if it exists, we must prove all the necessarysimilarities manually. We explicit also the condition of the operation to be represented by an IFS witha generalised HUTCHINSON operator. In this case, only this condition should be proved manually

Page generated in 0.0968 seconds