• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 18
  • 2
  • Tagged with
  • 88
  • 32
  • 23
  • 23
  • 18
  • 15
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Développement d'une interface d'application de déformations à des objets tridimensionnels dans le domaine de l'infographie

De Blois, Serge January 1992 (has links)
Doctorat en Sciences / info:eu-repo/semantics/nonPublished
52

Synthèse géométrique temps réel / Real-time geometry synthesis

Holländer, Matthias 07 March 2013 (has links)
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but. / Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented.
53

Représentation hiérarchique et efficace des sources lumineuses dans le cadre du rendu d'images

Paquette, Éric January 1997 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
54

L'apport du réalisme visuel à la représentation de l'image de synthèse dans un contexte de conception architecturale assistée par ordinateur (CAAO)

Djafi, Faouzi 11 April 2018 (has links)
Cette recherche porte sur l’image de synthèse et le réalisme visuel considérés à la fois comme outils d’acquisition de connaissances et supports à la conception architecturale assistée par ordinateur (CAAO). L’objectif est de documenter et valider l’apport du réalisme visuel, contenu dans les images de synthèse, au processus d’élaboration du projet architectural. L’hypothèse validée est une « corrélation » des valeurs d’irradiance et de radiance avec le degré de réalisme des images de synthèse. Le résultat pratique de ce travail est la proposition d’une méthodologie d’évaluation du réalisme visuel basé sur l’estimation des valeurs d’irradiance et de radiance à l’aide du système Radiance. Ce protocole précise pour la génération des images de synthèse les programmes et paramètres, l’ordre et leur séquence d’utilisation pour la génération des images de synthèse. Enfin, ce protocole inclut une procédure appropriée au transfert de fichiers entre le logiciel formZ et le système Radiance. / This research is concerned with synthesized images and visual realism as knowledge generation tools for CAAD (Computer Aided Architectural Design). The research goal is to document and validate contained visual realism in synthesized images to the architectural project elaboration process. The validated hypothesis is a « correlation » of irradiance and radiance values with the degree of visuel realism of synthesized images. As a practical outcome, this work proposes an evaluation methodology of visual realism based on irradiance and radiance values estimation with Radiance System. This protocol defines the programs and parameters to be used and their sequence to generate synthetic images. Furthermore, the protocol includes a files transfer procedure from formZ to Radiance System.
55

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
56

Animation de fluides viscoélastiques à base de particules

Clavet, Simon January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
57

Compression progressive de maillages surfaciques texturés / Porgressive compression of surface textured meshes

Caillaud, Florian 17 January 2017 (has links)
Depuis plusieurs années, les modèles 3D deviennent de plus en plus détaillés. Cela augmente considérablement le volume de données les décrivant. Cependant, dans un même temps, un nombre croissant d’applications sont contraintes en mémoire et/ou en vitesse (visualisation sur périphériques mobiles, jeux vidéos, etc.). Dans un contexte Web, ces difficultés sont encore plus présentes. Cette situation peut entraîner des incompatibilités, des latences de transmission ou d’affichage qui sont souvent problématiques. La compression progressive de ces modèles est une des solutions envisageables. Le but étant de compresser les informations (géométrie, connectivité et attributs associés) de façon à pouvoir reconstruire progressivement le maillage. À la différence d’une compression dite single-rate, la compression progressive propose très rapidement un aperçu fidèle du modèle 3D pour ensuite le raffiner jusqu’à retrouver le maillage complet. Ceci permet un meilleur confort pour l’utilisateur et une adaptation de la quantité d’éléments à visualiser ou à traiter en fonction des capacités du périphérique de réception. Généralement, les approches existantes pour la compression progressive se focalisent sur le traitement de maillages 2-variétés triangulaires. Très peu de méthodes sont capables de compresser progressivement des maillages surfaciques non-variétés et, à notre connaissance, aucune ne permet de compresser génériquement un maillage surfacique quel que soit son type (i.e. non-variété et polygonal). Pour supprimer ces limitations, nous présentons une méthode de compression progressive générique permettant de traiter l’ensemble des maillages surfaciques (non-variétés et polygonaux). De plus, notre approche tient compte de l’attribut de texture potentiellement associé à ces maillages, en gérant correctement les coutures éventuelles. Pour ce faire, nous décimons progressivement le maillage à l’aide d’un nouvel opérateur générique de simplification. Cette décimation est guidée par une métrique locale qui a pour but de préserver la géométrie et la paramétrisation de la texture. Durant cette simplification, nous encodons progressivement les informations nécessaires à la reconstruction. Afin d’améliorer le taux de compression, nous mettons en oeuvre certains procédés de réduction de l’entropie, ainsi que des dispositifs de prédiction basés sur la géométrie pour l’encodage de la connectivité et des coordonnées de texture. Pour finir, l’image de texture est compressée progressivement puis multiplexée avec les données relatives au maillage. Ce multiplexage est réalisé à l’aide d’une métrique perceptuelle afin d’obtenir le meilleur rapport débit-distorsion possible lors de la décompression. / Since several years, 3D models become more and more detailed. This increases substantially the amount of data needed to describe them. However, in the same time, a rising number of applications are constrained in memory and/or in speed (mobile device visualization, video games, etc.). These difficulties are even more visible within a Web context. This situation can lead to incompatibilities, latency in transmission or rendering, which is generally an issue. The progressive compression of these models is a possible solution. The goal is to compress the information (geometry, connectivity and associated attributes) in order to allow a progressive reconstruction of the mesh. Contrary to a single-rate compression, progressive compression quickly proposes a faithful draft of the 3D model and, then, refines it until the complete mesh is recovered. This allows a better comfort for the user and a real adaptation of the rendered element number in adequacy with the terminal device properties. The existing approaches for progressive compression mainly focus on triangular 2- manifold meshes. Very few methods are able to compress progressively non-manifold surface meshes and, to our knowledge, none can deal with every surface meshes (i.e. nomanifold and polygonal), in a generic way. So as to suppress these limitations, we present a new generic progressive method allowing the compression of polygonal non-manifold surface meshes. Moreover, our approach takes care of the texture attribute, possibly associated to these meshes, by handling properly potential texture seams. For that purpose, we progressively decimate the mesh using a new generic simplification operator. This decimation is driven by a local metric which aims to preserve both the geometry and the texture parametrisation. During the simplification, we progressively encode the necessary information for the reconstruction. In order to improve the compression rate, we propose several entropy reduction mechanisms, as well as geometry based prediction strategies for the connectivity and UV coordinates encoding. Finally, the texture map is progressively compressed then multiplexed with mesh data. This multiplexing is achieved using a perceptual metric to provide the best rate-distortion ratio as possible during the decompression.
58

Vers une infographie de l'ambiance sonore urbaine

Arlaud, Blaise 29 January 2001 (has links) (PDF)
Partant du constat que les cartes de bruit actuelles (quantitatives) doivent nécessairement inclure des données qualitatives pour être plus opérantes, ce travail propose d'explorer quelques pistes pour montrer comment on peut représenter les qualités d'une situation sonore urbaine sur une carte. S'appuyant sur les trois caractères fondamentaux de l'espace sonore humain {temporalité, discrétion, métabole), ainsi que sur les principales approches théoriques de la qualité sonore développées à ce jour (les objets sonores, les effets sonores, les notions d'environnement, de milieu et de paysage sonores, les ambiances sonores), il cherche à voir comment une carte des qualités sonores peut être possible. Pour ce faire, il propose de multiples cartes, destinées chacune à aborder certains des problèmes cités précédemment, et réalisées lors de deux étapes de recherche successives (l'une sur support papier et l'autre sur support informatique, SIG). Par un bref retour analytique, il cherche ensuite à voir ce qui a pu être réalisé (introduction du temps sur la carte, multiples aspects qualitatifs traités, etc.), ce qui s'est avéré irréalisable (représentation exhaustive des effets ou des ambiances sonores), ainsi que les limites des systèmes proposés (en particulier en ce qui concerne la répartition spatiale des phénomènes et l'approche sensible des individus). Sur la base de ces expériences, il esquisse alors une première ébauche de ce que pourrait être un cadre théorique et méthodologique global de la représentation des qualités de l'espace sonore humain. Et enfin, il propose quelques nouvelles pistes de recherche susceptibles de faire avancer l'étude de la cartographie sonore qualitative.
59

Quelques outils infographiques pour l'analyse structurale des systèmes

Delarche, Michel 29 June 1979 (has links) (PDF)
Il s'agit d'utiliser par la production de logiciels effectivement opérationnels, les techniques graphiques interactives dans le domaine de l'analyse structurale de système. On s'est orienté plus précisément vers une catégorie précise de représentation des systèmes: les graphes.
60

Simulation de la diffusion de la lumière et des gaz par techniques de Monte Carlo

Blasi, Philippe 19 December 1996 (has links) (PDF)
La synthèse d'images réalistes nécessite la modélisation précise des interactions de la lumière avec la matière (réflexion, réfraction, diffusion) et des échanges d'énergie lumineuse entre les objets de la scène. Cette modélisation, très complexe si l'on ne fait pas d'hypothèses restrictives, peut être efficacement réalisée par simulation de Monte Carlo. Dans le présent travail, nous définissons tout d'abord une méthode complète d'illumination de scène, fondée sur une simulation de Monte Carlo d'un modèle "particulaire" de la lumière. Dans un premier temps, nous développons cette simulation pour les milieux participants. Nous diminuons la variance de la simulation par un calcul exact de l'absorption. Nous étendons ensuite ce travail aux objets surfaciques et proposons une technique de regroupement de photons pour obtenir une efficacité constante à chaque pas de calcul. Dans la deuxième partie de ce travail, nous étudions l'application de cette méthode à la visualisation des champs scalaires tri-dimensionnels, puis l'application de certaines techniques issues de la synthèse d'images (facettisation, de données volumiques, partitionnement spatial, images de distance, ...) à la simulation de la diffusion des gaz, présentant de nombreuses similitudes avec la simulation de la diffusion de la lumière.

Page generated in 0.0379 seconds