Le contexte de ma thèse rentre dans le cadre du projet IMD3D, supporté par le FUI. L'objectif de ce projet consiste à proposer une méthode automatisée permettant la décoration d'objets 3D quelconques. La solution choisie consiste à positionner un film imprimé dans le moule, ce film sera déformé par la fermeture du moule puis par injection. Ma thèse porte sur la génération de décoration. Les données dont nous disposons en entrée sont un maillage et une ou plusieurs images. Nous souhaitons d'abord obtenir le plaquage de cette image sur le maillage, de telle sorte que le rendu visuel soit équivalent à l'image initiale. Pour cela, nous avons décidé de choisir un point de vue par image et de le favoriser. Nous paramétrions alors le maillage par le biais d'une projection orthogonale ou perspective définie par ce point de vue. Nous réalisons alors la transformée inverse de déformation du maillage. L'utilisation d'une application conforme pour la déformation inverse permet de coller au mieux à la physique du problème. Nous visualisons donc le résultat à imprimer sur le film. Il reste alors à générer la texture permettant de décorer l'objet injecté par le procédé. Il suffit de parcourir bilinéairement l'intérieur des mailles et simultanément la partie de l'image correspondante, de manière à remplir les pixels de l'image. Ceci permet d'obtenir finalement la texture finale qui sera imprimée sur le film. Mais, lors des premiers essais effectués par les industriels avec une mire colorée, un effet de décoloration a été relevé. Nous avons donc pris en compte ce changement de couleur pour modifier l'image et obtenir le résultat visuel escompte, même au niveau du rendu des couleurs / This work takes part in a global industrial project called IMD3D, which is supported by FUI and aims at decorating 3D plastic objects using Insert Molding technology with an automated process. Our goal is to compute the decoration of 3D virtual objects, using data coming from polymer film characterization and mechanical simulation. My thesis deals with the generation of decoration. Firstly, we want to map the texture onto the mesh, so that the visual rendering would be equivalent to the initial picture. In order to do so, we decided to choose a viewpoint per texture and to favor it. Thus, a specific view-dependent parameterization is defined. Thus, the first goal which is to define the texture mapping with visual constraints is reached. After this step, the inverse distortion of the mesh is performed. The use of a conformal map for this inverse transform allows to respect the physics issues. Therefore we get a planar mesh representing the initial mesh of simulation whose associated textures have also been modified by this transform. The result to be printed on the film can be viewed. Finally, the texture enabling the decoration of the object injected by the process can be generated. This texture combines information from several mapped images. The inner part of the mesh and in the same time the part of the corresponding texture shall be followed in a bilinear way in order to fill the pixel of the generated picture. But during the first tests performed by industries with a colors pattern, a discoloration effect was detected. As a consequence, we thought to take into account this color change to modify the picture and to obtain the expected visual rendering
Identifer | oai:union.ndltd.org:theses.fr/2013LYO10078 |
Date | 31 May 2013 |
Creators | Belperin, Maxime |
Contributors | Lyon 1, Coeurjolly, David, Brandel, Sylvain |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.002 seconds