• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 60
  • 14
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 289
  • 100
  • 76
  • 60
  • 57
  • 43
  • 38
  • 35
  • 33
  • 33
  • 28
  • 27
  • 27
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Du super-héros au père symbolique dans le roman graphique américain : une étude de David Boring de Daniel Clowes et de Jimmy Corrigan de Chris Ware

Girard, Marianne January 2006 (has links) (PDF)
Le roman graphique, courant de la bande dessinée américaine, a récemment fêté ses trente ans. Ce format se caractérise d'abord par une rupture radicale avec la tradition du comic book, genre dominant du siècle dernier. Par contre, nous remarquons que certains romans graphiques parus récemment se réapproprient des éléments clés du comic book et les réintègrent à leurs récits. En résultent des oeuvres qui continuent à présenter des caractéristiques formelles et thématiques originales, tout en multipliant les clins d'oeil. Au-delà de la reprise de certains éléments, quelques auteurs se permettent une importante réécriture de la tradition et présentent une véritable déconstruction du « folklore » de la bande dessinée. L'étude de deux romans graphiques phares nous permet d'approfondir cette observation. Jimmy Corrigan: The Smartest Kid on Earth, de Chris Ware, et de David Boring, de Daniel Clowes, offrent plusieurs similarités. Notamment, l'inclusion à leur trame narrative de la figure du super-héros, porte-étendard du comic book traditionnel. Dans les oeuvres de Clowes et Ware, cette figure subit de grandes transformations, perdant la plupart de ses caractéristiques génériques. Les atteintes faites à cette figure sont nombreuses et nous nous éloignons considérablement du personnage positif et surpuissant auquel nous avons été habitués. Ces oeuvres présentent des êtres inadéquats, impuissants et immoraux. Leur étude nous indique que le motif du super-héros s'associe à une autre figure: celle du père absent. Dans ces romans graphiques, le quotidien de deux fils abandonnés est dépeint. Ainsi, à la manière des théories psychanalytiques indiquant que le père est d'abord une instance symbolique, le personnage du super-héros sert de « palliatif » et constitue une version symbolique du père absent. L'emprunt de cette figure à la tradition permet donc à ces romans graphiques de faire le pont entre l'enfance et l'âge adulte de leurs personnages et de les affranchir comme sujets. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Roman graphique, Comic book, Super-héros, Père symbolique, Littérature américaine, Chris Ware, Daniel Clowes.
72

Chris Ware, architecte de la mémoire : la projection spatiale de la mémoire en bande dessinée

Galand, Maxime 06 1900 (has links) (PDF)
La construction formelle de la bande dessinée n'est pas sans rappeler la mnémotechnique antique associée aux palais de mémoire (telle que décrite par Frances Yates en 1966), consistant à projeter des images dans des lieux mentaux. En effet, en organisant un espace (la page, le livre) en lieux distincts (les vignettes, les figures), la bande dessinée a toutes les caractéristiques d'une architecture : une architecture mise au service d'un temps narratif. Partant de l'hypothèse que la bande dessinée permet, par sa construction même, une expression particulière de la mémoire, quatre œuvres de Chris Ware, dessinateur américain contemporain, seront analysées. Jimmy Corrigan et Quimby the Mouse mettent en lumière le rapport entre certaines figures architecturales (lieux diégétiques) et l'expression de la mémoire des personnages. Qu'ils soient labyrinthiques ou qu'ils s'apparentent aux palais de mémoire, les lieux sont les signes d'un passé révolu. Ces figures occupent parfois l'espace de la page d'une manière structurante, transférant leurs propres caractéristiques architecturales sur la forme même du récit. Building Stories et Lint, chapitres plus récents de séries encore en construction, permettent de fouiller davantage les contaminations possibles entre les lieux du récit et les lieux de la page. Les théories cognitives de Daniel L. Schacter offrent plusieurs concepts-clés pour discerner les mécanismes mémoriels mis en place dans ces récits. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : bande dessinée, roman graphique, Chris Ware, Thierry Groensteen, mémoire, architecture, subjectivité, palais de mémoire.
73

Corps et graphie : d'un art découvert à travers le kata

Bertrand, Françoise January 2010 (has links) (PDF)
La présente thèse-création part de l'hypothèse qu'une transposition de langage et de pratique s'effectuant entre le kata et l'écriture corporelle et graphique, ayant comme éléments charnières la mémoire, l'efficacité et la singularité, peut mener à un langage plastique singulier présentant toute la richesse que l'entre-deux de ces domaines peut nous proposer. Les deux champs, celui du kata ainsi que celui de la pratique de l'écriture, impliquent tout un substrat, un soubassement où des codes, des conditionnements viennent stimuler l'imagination. L'enjeu de la thèse est de dévoiler, par le rapprochement de ces deux champs d'action et de pratique et leurs croisements et interférences, un langage plastique singulier. Ainsi la thèse met en présence des sujets aussi divers que le kata, la transposition de langage, l'écriture corporelle et graphique, la mémoire, l'efficacité et la singularité, les dimensions matérielles et immatérielles de la production artistique, sans oublier l'expérience du spectateur face à cette dernière. Dans le cadre de cette thèse création sont associées de la manière la plus étroite, et à égalité, la réflexion théorique et la pratique. La théorie de l'art n'est pas indépendante de sa pratique. Réflexion, création, transposition, ont une valeur égale. Le cadre théorique s'appuie essentiellement sur les écrits de Kenji Tokitsu en ce qui concerne les différentes problématiques directement liées au kata et les écrits de François Jullien en lien avec la création artistique orientale. Les références concernant la création sont complétées par les ouvrages de Florence Hu-Sterk et Yolaine Escande. Afin de mieux cerner les idéologies orientales et la dimension spirituelle liées au kata et encore peu connues en Occident, sont pris en compte les propos de Michel Deydier-Bastide. Un cadre de références artistiques varié vient illustrer les propos. Les références se situent autant dans un corpus ancien de brouillons d'auteurs et de calligraphies que dans un répertoire pictural aux effets semblables mais d'approches différentes incluant des oeuvres de Frida Kahlo et de Jean Degottex. Les méthodes employées s'inscrivent dans une visée méthodologique transdisciplinaire puisant autant dans la phénoménologie, la sémiologie, l'esthétique et la poïétique. Les écrits de Maurice Merleau-Ponty et de Roland Barthes sont d'une aide précieuse à ce sujet. La recherche historique et sémantique est complétée par une approche heuristique fonctionnant selon le principe de la découverte. Nous restons alerte aux transformations et aux mutations possibles. Souhaitant produire un langage au delà de la combinaison de concepts et de théories communes à deux domaines différents, celui du kata et celui des arts plastiques, c'est dans le cadre d'une thèse création que l'auteur vient défendre sa liberté créatrice de pouvoir relativiser les définitions données à différentes notions afin de les adapter aux besoins de recherche. La méthode d'apprentissage et la sensibilité du kata sont-elles en effet applicables à la création artistique? Comment la transposition de langage s'effectue-t-elle, quels éléments peuvent être transposés? Le corps est-il vraiment graphie? Et si c'était le cas, faudrait-il alors éduquer le corps plutôt que d'apprendre des techniques artistiques? Comment cet apprentissage se ferait-il? Comment, dans quelles limites et par quels moyens s'exprime la singularité si nous souhaitons nous inscrire dans la pratique d'une riche tradition? Et finalement, comment et grâce à quels moyens, l'expérience d'un processus créatif se partage-t-elle ? Tant de questions où l'auteur essaie, dans le cadre de la présente thèse, de proposer quelques éléments de réponse. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Art, Écriture, Kata, Mémoire, Efficacité, Singularité.
74

Spécification et résolution de tâches de manipulation complexes. Application à la téléprogrammation de robots distants

Piccin, Olivier 15 November 1995 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans le contexte de la robotique de manipulation distante où les possibilités de communication entre l'opérateur et le site robotisé sont réduites. Pour accroître l'autonomie de fonctionnement du manipulateur distant, il faut pouvoir raisonner sur un modèle du robot et de son environnement de travail. En raison de la connaissance imprécise de ce dernier, il est indispensable de disposer de moyens d'identification des positions et de la taille des objets en interaction avec le robot. De plus, le caractère non répétitif et la complexité des tâches envisagées nécessitent l'emploi d'un système rapidement reconfigurable et susceptible de traiter des problèmes suffisamment généraux. Dans cette perspective, l'approche proposée de spécification de tâches par contraintes autorise une description des actions à effectuer en termes de mobilités et de contraintes de contact à établir ou maintenir entre certains corps. Les relations de contraintes résultantes sont alors traitées par un module de résolution basé sur un schéma numérique itératif de type Newton-Raphson. Un niveau important de robustesse a été atteint grâce à une gestion dynamique du conditionnement des équations qui permet un choix automatique du scénario de résolution. Les applications de l'approche incluent en premier lieu la génération de trajectoires complexes et continues pour des systèmes robotisés quelconques. La mise en place de contraintes peut aussi être exploitée pour accomplir, localement, des évitements d'obstacles. Enfin, cette démarche se prête également à la résolution de tâches de calibration des objets présents dans l'univers du robot. Cette caractéristique est essentielle dans le contexte de manipulation distante où les modèles sont mal connus a priori. Finalement, la présentation d'un scénario expérimental de suivi de joint de soudure, mis en œuvre sur un manipulateur réel, nous permet de formuler une proposition pour l'exécution de tâches robotisées sur sites distants
75

Architecture logicielle et outils pour les interfaces hommes-machines graphiques avancées

Blanch, Renaud 26 September 2005 (has links) (PDF)
Dans cette thèse nous proposons une approche et des outils pour faciliter la mise au point et l'utilisation de techniques d'interaction avancées au sein d'applications graphiques interactives. Nous proposons de résoudre les exigences antithétiques de la réutilisation, nécessaire à la factorisation des efforts, et de l'innovation, nécessaire à l'adaptation à de nouveaux contextes, en fournissant une pyramide d'abstractions de divers niveaux permettant leur recombinaison pour s'adapter finement aux besoins spécifiques à chaque usage. Nous proposons également d'intégrer aux langages impératifs une structure de contrôle basée sur un formalisme de machines à états hiérarchiques pour faciliter la programmation de comportements dynamiques et faire des interactions des objets à part entière du vocabulaire des programmeurs.<br /><br />Nous montrons par des exemples comme ces éléments permettent la reproduction de l'état de l'art des interactions, tant standards qu'avancées, et la mise au point de techniques d'interaction originales et performantes. Nous présentons en particulier la réalisation d'applications graphiques interactives utilisant une architecture distribuée permettant de localiser l'interaction sur le système local et de reporter le noyau fonctionnel sur une machine distante. Nous présentons enfin une technique d'interaction avancée, le pointage sémantique, qui facilite la tâche élémentaire de sélection par pointage en permettant d'utiliser deux tailles pour les objets de l'interface, l'une choisie en fonction des informations qu'ils présentent, l'autre en fonction de leur importance pour la manipulation.
76

Composition d'applications multi-modèles dirigée par la composition des interfaces graphiques

Brel, Christian 28 June 2013 (has links) (PDF)
Force est de constater que composer des applications existantes afin d'en réutiliser tout ou une partie est une tâche complexe. Pourtant avec l'apparition quotidienne d'applications, les éditeurs d'applications ont de plus en plus besoin d'effectuer de telles compositions pour répondre à la demande croissante des utilisateurs. Les travaux existants ne traitent généralement que d'un seul point de vue : celui du "Noyau Fonctionnel" dans le domaine du Génie Logiciel, celui des Tâches" ou celui de l'"Interface Graphique" dans le domaine des Interactions Homme-Machine (IHM). Cette thèse propose une nouvelle approche basée sur un modèle d'application complet (fonctionnel, tâche et interface graphique). Elle permet à un utilisateur de naviguer entre ces différents modèles pour sélectionner des ensembles cohérents pouvant être composé par substitution. Une implémentation de cette approche a permis d'effectuer des tests utilisateurs confortant les bienfaits d'une modélisation complète.
77

GigaVoxels : un pipeline de rendu basé Voxel pour l'exploration efficace de scènes larges et détaillées

Crassin, Cyril 12 July 2011 (has links) (PDF)
Dans cette thèse, nous présentons une nouvelle approche efficace pour le rendu de scènes vastes et d'objets détaillés en temps réel. Notre approche est basée sur une nouvelle représentation pré-filtrée et volumique de la géométrie et un lancer de cone basé-voxel qui permet un rendu précis et haute performance avec une haute qualité de filtrage de géométries très détaillées. Afin de faire de cette représentation voxel une primitive de rendu standard pour le temps-réel, nous proposons une nouvelle approche basée sur les GPUs conçus entièrement pour passer à l'échelle et supporter ainsi le rendu des volumes de données très volumineux. Notre système permet d'atteindre des performances de rendu en temps réel pour plusieurs milliards de voxels. Notre structure de données exploite le fait que dans les scènes CG, les détails sont souvent concentrées sur l'interface entre l'espace libre et des grappes de densité et montre que les modèles volumétriques pourrait devenir une alternative intéressante en tant que rendu primitif pour les applications temps réel. Dans cet esprit, nous permettons à un compromis entre qualité et performances et exploitons la cohérence temporelle. Notre solution est basée sur une représentation hiérarchiques des données adaptées en fonction de la vue actuelle et les informations d'occlusion, couplé à un algorithme de rendu par lancer de rayons efficace. Nous introduisons un mécanisme de cache pour le GPU offrant une pagination très efficace de données dans la mémoire vidéo et mis en œuvre comme un processus data-parallel très efficace. Ce cache est couplé avec un pipeline de production de données capable de charger dynamiquement des données à partir de la mémoire centrale, ou de produire des voxels directement sur le GPU. Un élément clé de notre méthode est de guider la production des données et la mise en cache en mémoire vidéo directement à partir de demandes de données et d'informations d'utilisation émises directement lors du rendu. Nous démontrons notre approche avec plusieurs applications. Nous montrons aussi comment notre modèle géométrique pré-filtré et notre lancer de cones approximé peuvent être utilisés pour calculer très efficacement divers effets de flou ainsi d'éclairage indirect en temps réel.
78

Simulation Photoréaliste de l'éclairage en Synthèse d'Images

Holzschuch, Nicolas 02 March 2007 (has links) (PDF)
Les techniques de rendu en Synthèse d'Images produisent des images d'une scène virtuelle en prenant comme point de départ la définition de cette scène : les objets qui la composent, leur position, leurs matériaux, mais aussi la position de l'observateur. Parmi les techniques de rendu, on distingue les techniques de rendu Photo-Réalistes, qui cherchent à produire une image aussi proche que possible de la réalité, en simulant les échanges lumineux à l'intérieur de la scène. On obtient ainsi une image de la scène avec les effets d'éclairage, à la fois directs et indirects, les reflets, les ombres... La recherche dans le domaine de la simulation de l'éclairage a énormément progressé au cours des dernières années, de telle sorte que la production d'images photoréalistes est désormais un objectif accessible pour le grand public. Plusieurs applications industrielles tirent parti de cette génération d'images photoréalistes : visite virtuelle de bâtiments, jeux vidéo, prototypage virtuel, effets spéciaux, design architectural... Ces applications industrielles ont un effet d'entraînement sur la recherche : les utilisateurs (et les industriels) sont demandeurs d'effets toujours plus réalistes, et les chercheurs sont mis à contribution. Le décalage entre la date de publication d'un nouvel algorithme et son emploi dans un produit industriel s'est considérablement réduit, passant de plus de 10 ans dans les années 1990 à quelques années seulement en 2006. Non seulement ce dynamisme augmente les possibilités d'application industrielle pour nos recherches, mais encore il ouvre de nouvelles directions de recherche, pour combler les besoins accrus en interactivité et en réalisme des utilisateurs. Dans ce mémoire, nous allons nous intéresser à ces problèmes de simulation photo-réaliste de l'éclairage. En particulier, nousallons présenter : la simulation de l'éclairage par des méthodes d'éléments finis multi-échelles (radiosité par ondelettes), la détermination des caractéristiques de la fonction d'éclairage (dérivées, fréquence), et la simulation en temps-réel ou interactif de plusieurs effets lumineux (ombres, reflets spéculaires, éclairage indirect). Ces trois domaines recouvrent l'ensemble de nos travaux pendant cette période.
79

Transferts d'apparence en espace image basés sur des propriétés texturelles / Image-space appearance transfers based on textural properties

Arbelot, Benoit 07 April 2017 (has links)
Les techniques de manipulation de l'apparence d'une image sont très utilisées dans de nombreux domaines comme la photographie, la biologie, l'astronomie ou le spectacle vivant. L'apparence d'une image dépend de ses couleurs et textures, mais aussi des informations 3D perçues comme les formes, les matériaux et l'éclairage. Ces caractéristiques créent aussi une atmosphère et une émotion spécifique à l'image, qui fait aussi partie de son apparence. Le but des techniques de manipulation en espace image est de modifier les couleurs et les textures pour modifier les formes, matériaux et illumination perçus, et de là éventuellement modifier l'atmosphère de l'image.Les méthodes de transfert d'apparence sont une classe spécifique de techniques de manipulation visant à rendre le processus plus intuitif en calculant automatiquement la modification à apporter à l'image. Pour ce faire, elles se basent sur une image supplémentaire fournie par l'utilisateur et représentant l'apparence désirée.Dans cette thèse, nous étudions le transfert d'apparence en espace image basé sur des propriétés texturelles. Les textures étant une partie intégrante de l'apparence, guider les transferts d'apparence par de l'information texturelle est une option attrayante. Nous présentons d'abord une technique de filtrage de descripteurs de texture pour mieux préserver les structures de l'image et les transitions entre textures. Nous utilisons ensuite ce filtrage couplé à différents descripteurs de texture pour effectuer un transfert de couleur, une colorisation et un transfert de texture localement, guidés par la texture. / Image-space appearance manipulation techniques are widely used in various domains such as photography, biology, astronomy or performing arts. An image appearance depends on the image colors and texture, but also the perceived 3D informations such as shapes, materials and illumination. These characteristics also create a specific look and feel for the image, which is also part of the image appearance. The goal of image-space manipulation techniques is to modify colors and textures as a mean to alter perceived shapes, illumination, materials, and from this possibly alter the image look and feel.Appearance transfer methods are a specific type of manipulation techniques aiming to make the process more intuitive by automatically computing the image modification. In order to do so, they use an additional user-provided image depicting the desired appearance.In this thesis, we study image-space appearance transfer based on textural properties. Since textures are an integral part of the image appearance, guiding appearance transfers with textural information is an attractive approach. We first present a texture descriptor filtering framework to better preserve image edges and texture transitions in the texture analysis. We then use this framework coupled with different texture descriptors in order to apply local texture guided color transfer, colorization and texture transfer.
80

Multi-scale Feature-Preserving Smoothing of Images and Volumes on GPU / Lissage multi-echelle sur GPU des images et volumes avec preservation des details

Jibai, Nassim 24 May 2012 (has links)
Les images et données volumiques sont devenues importantes dans notre vie quotidienne que ce soit sur le plan artistique, culturel, ou scientifique. Les données volumiques ont un intérêt important dans l'imagerie médicale, l'ingénierie, et l'analyse du patrimoine culturel. Ils sont créées en utilisant la reconstruction tomographique, une technique qui combine une large série de scans 2D capturés de plusieur points de vue. Chaque scan 2D est obtenu par des methodes de rayonnement : Rayons X pour les scanners CT, ondes radiofréquences pour les IRM, annihilation électron-positron pour les PET scans, etc. L'acquisition des images et données volumique est influencée par le bruit provoqué par différents facteurs. Le bruit dans les images peut être causée par un manque d'éclairage, des défauts électroniques, faible dose de rayonnement, et un mauvais positionnement de l'outil ou de l'objet. Le bruit dans les données volumique peut aussi provenir d'une variété de sources : le nombre limité de points de vue, le manque de sensibilité dans les capteurs, des contrastes élevé, les algorithmes de reconstruction employés, etc. L'acquisition de données non bruitée est iréalisable. Alors, il est souhaitable de réduire ou d'éliminer le bruit le plus tôt possible dans le pipeline. La suppression du bruit tout en préservant les caractéristiques fortes d'une image ou d'un objet volumique reste une tâche difficile. Nous proposons une méthode multi-échelle pour lisser des images 2D et des données tomographiques 3D tout en préservant les caractéristiques à l'échelle spécifiée. Notre algorithme est contrôlé par un seul paramètre – la taille des caractéristiques qui doivent être préservées. Toute variation qui est plus petite que l'échelle spécifiée est traitée comme bruit et lissée, tandis que les discontinuités telles que des coins, des bords et des détails à plus grande échelle sont conservés. Nous démontrons les données lissées produites par notre algorithme permettent d'obtenir des images nettes et des iso-surfaces plus propres. Nous comparons nos résultats avec ceux des methodes précédentes. Notre méthode est inspirée par la diffusion anisotrope. Nous calculons nos tenseurs de diffusion à partir des histogrammes continues locaux de gradients autour de chaque pixel dans les images et autour de chaque voxel dans des volumes. Comme notre méthode de lissage fonctionne entièrement sur GPU, il est extrêmement rapide. / Two-dimensional images and three-dimensional volumes have become a staple ingredient of our artistic, cultural, and scientific appetite. Images capture and immortalize an instance such as natural scenes, through a photograph camera. Moreover, they can capture details inside biological subjects through the use of CT (computer tomography) scans, X-Rays, ultrasound, etc. Three-dimensional volumes of objects are also of high interest in medical imaging, engineering, and analyzing cultural heritage. They are produced using tomographic reconstruction, a technique that combine a large series of 2D scans captured from multiple views. Typically, penetrative radiation is used to obtain each 2D scan: X-Rays for CT scans, radio-frequency waves for MRI (magnetic resonance imaging), electron-positron annihilation for PET scans, etc. Unfortunately, their acquisition is influenced by noise caused by different factors. Noise in two-dimensional images could be caused by low-light illumination, electronic defects, low-dose of radiation, and a mispositioning tool or object. Noise in three-dimensional volumes also come from a variety of sources: the limited number of views, lack of captor sensitivity, high contrasts, the reconstruction algorithms, etc. The constraint that data acquisition be noiseless is unrealistic. It is desirable to reduce, or eliminate, noise at the earliest stage in the application. However, removing noise while preserving the sharp features of an image or volume object remains a challenging task. We propose a multi-scale method to smooth 2D images and 3D tomographic data while preserving features at a specified scale. Our algorithm is controlled using a single user parameter – the minimum scale of features to be preserved. Any variation that is smaller than the specified scale is treated as noise and smoothed, while discontinuities such as corners, edges and detail at a larger scale are preserved. We demonstrate that our smoothed data produces clean images and clean contour surfaces of volumes using standard surface-extraction algorithms. In addition to, we compare our results with results of previous approaches. Our method is inspired by anisotropic diffusion. We compute our diffusion tensors from the local continuous histograms of gradients around each pixel in image

Page generated in 0.0613 seconds