• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 60
  • 14
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 289
  • 100
  • 76
  • 60
  • 57
  • 43
  • 38
  • 35
  • 33
  • 33
  • 28
  • 27
  • 27
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Contributions to objective and subjective visual quality assessment of 3d models / Contributions à l'évaluation objective et subjective de la qualité visuelle des modèles 3D

GUO, Jinjiang 06 October 2016 (has links)
Dans le domaine de l’informatique graphique, les données tridimensionnelles, généralement représentées par des maillages triangulaires, sont employées dans une grande variété d’applications (par exemple, le lissage, la compression, le remaillage, la simplification, le rendu, etc.). Cependant, ces procédés introduisent inévitablement des artefacts qui altèrent la qualité visuelle des données 3D rendues. Ainsi, afin de guider perceptuellement les algorithmes de traitement, il y a un besoin croissant d'évaluations subjectives et objectives de la qualité visuelle à la fois performantes et adaptées, pour évaluer et prédire les artefacts visuels. Dans cette thèse, nous présentons d'abord une étude exhaustive sur les différentes sources d'artefacts associés aux données numériques graphiques, ainsi que l’évaluation objective et subjective de la qualité visuelle des artefacts. Ensuite, nous introduisons une nouvelle étude sur la qualité subjective conçue sur la base de l’évaluations de la visibilité locale des artefacts géométriques, dans laquelle il a été demandé à des observateurs de marquer les zones de maillages 3D qui contiennent des distorsions visibles. Les cartes de distorsion visuelle collectées sont utilisées pour illustrer plusieurs fonctionnalités perceptuelles du système visuel humain (HVS), et servent de vérité-terrain pour évaluer les performances des attributs et des mesures géométriques bien connus pour prédire la visibilité locale des distorsions. Notre deuxième étude vise à évaluer la qualité visuelle de modèles 3D texturés, subjectivement et objectivement. Pour atteindre ces objectifs, nous avons introduit 136 modèles traités avec à la fois des distorsions géométriques et de texture, mené une expérience subjective de comparaison par paires, et invité 101 sujets pour évaluer les qualités visuelles des modèles à travers deux protocoles de rendu. Motivés par les opinions subjectives collectées, nous proposons deux mesures de qualité visuelle objective pour les maillages texturés, en se fondant sur les combinaisons optimales des mesures de qualité issues de la géométrie et de la texture. Ces mesures de perception proposées surpassent leurs homologues en termes de corrélation avec le jugement humain. / In computer graphics realm, three-dimensional graphical data, generally represented by triangular meshes, have become commonplace, and are deployed in a variety of application processes (e.g., smoothing, compression, remeshing, simplification, rendering, etc.). However, these processes inevitably introduce artifacts, altering the visual quality of the rendered 3D data. Thus, in order to perceptually drive the processing algorithms, there is an increasing need for efficient and effective subjective and objective visual quality assessments to evaluate and predict the visual artifacts. In this thesis, we first present a comprehensive survey on different sources of artifacts in digital graphics, and current objective and subjective visual quality assessments of the artifacts. Then, we introduce a newly designed subjective quality study based on evaluations of the local visibility of geometric artifacts, in which observers were asked to mark areas of 3D meshes that contain noticeable distortions. The collected perceived distortion maps are used to illustrate several perceptual functionalities of the human visual system (HVS), and serve as ground-truth to evaluate the performances of well-known geometric attributes and metrics for predicting the local visibility of distortions. Our second study aims to evaluate the visual quality of texture mapped 3D model subjectively and objectively. To achieve these goals, we introduced 136 processed models with both geometric and texture distortions, conducted a paired-comparison subjective experiment, and invited 101 subjects to evaluate the visual qualities of the models under two rendering protocols. Driven by the collected subjective opinions, we propose two objective visual quality metrics for textured meshes, relying on the optimal combinations of geometry and texture quality measures. These proposed perceptual metrics outperform their counterparts in term of the correlation with the human judgment.
102

Reconnaissance et localisation de symboles dans les documents graphiques : approches basées sur le treillis de concepts / Graphics Recognition and Spotting in Graphical Documents : Approaches Based On the Galois Lattice Structure

Boumaiza, Ameni 20 May 2013 (has links)
Omniprésents, la relation homme-machine est encore une définition ardue à cerner. Les ordinateurs réalisent dans le temps des tâches récurrentes. Ils aident ainsi l'homme à manipuler d'énormes quantités de données, souvent même plus rapidement et plus précisément que lui. Malgré cela, la capacité des ordinateurs demeure limitée lorsqu'il s'agit d'extraire automatiquement des informations d'images ou de vidéos, qui représentent pourtant des volumes de données extrêmement importants. La vision par ordinateur est un domaine qui inclut des méthodes d'acquisition, de traitement, d'analyse et de compréhension des images afin de produire de l'information numérique ou symbolique. Un axe de recherche contribuant au développement de ce domaine consiste à reproduire les capacités de la vision humaine par voie électronique afin de percevoir et de comprendre une image. Il s'agit de développer des algorithmes qui reproduisent une des capacités les plus étonnantes du cerveau humain à savoir la déduction des propriétés du monde purement externe au moyen de la lumière qui nous revient des divers objets qui nous entourent. Nos travaux de thèse s'inscrivent dans cet axe de recherche. Nous proposons plusieurs contributions originales s'inscrivant dans le cadre de résolution des problèmes de la reconnaissance et de la localisation des symboles graphiques en contexte. L'originalité des approches proposées réside dans la proposition d'une alliance intéressante entre l'Analyse Formelle de Concepts et la vision par ordinateur. Pour ce faire, nous nous sommes confrontés à l'étude du domaine de l'AFC et plus précisément l'adaptation de la structure du treillis de concepts et son utilisation comme étant l'outil majeur de nos travaux. La principale particularité de notre travail réside dans son aspect générique vu que les méthodes proposées peuvent être alliées à divers outils autre que le treillis de concepts en gardant les mêmes stratégies adoptées et en suivant une procédure semblable. Notre incursion dans le domaine de l'Analyse Formelle de Concepts et plus précisément notre choix de la structure du treillis de Galois appelé aussi treillis de concepts est motivé par les nombreux avantages présentés par cet outil. Le principal avantage du treillis de concepts est l'aspect symbolique qu'il offre. Il présente un espace de recherche concis, précis et souple facilitant ainsi la prise de décision. Nos contributions sont inscrites dans le cadre de la reconnaissance et de localisation de symboles dans les documents graphiques. Nous proposons des chaînes de traitement s'inscrivant dans le domaine de la vision par ordinateur / Computer vision is a field that includes methods for the acquisition, processing, analysis and understanding of images to produce numerical or symbolic information. A research contributing to the development of this area is to replicate the capabilities of human vision to perceive and understand images. Our thesis is part of this research axis. We propose several original contributions belonging to the context of graphics recognition and spotting context. The originality of the proposed approaches is the proposal of an interesting alliance between the Formal Concept Analysis and the Computer Vision fields. We face the study of the FCA field and more precisely the adaptation of the structure of concept lattice and its use as the main tool of our work. The main feature of our work lies in its generic aspect because the proposed methods can be combined with various other tools keeping the same strategies and following a similar procedure. Our foray into the area of the Formal Concept Analysis and more precisely our choice of the structure of the Galois lattice, also called concept lattice is motivated by the many advantages offered by this tool. The main advantage of concept lattice is the symbolic aspect. It is a concise, accurate and flexible search space thus facilitating decision making. Our contributions are recorded as part of the recognition and localization of symbols in graphic documents. We propose to recognize and spot symbols in graphical documents (technical drawings for example) using the alliance between the bag of words representation and the Galois lattice formalism. We opt for various methods belonging to the computer vision field
103

Interprétation et modélisation 3D automatique à partir de dessins au trait de formes organiques / Intuitive modeling of 3D objects from outline drawing. Application tothe design of virtual animals.

Entem, Even 26 October 2018 (has links)
Le dessin est la manière la plus courante de communiquer sur les formes.Ainsi, l'utilisation de l'esquisse comme outil dans le processus de modélisation de contenus 3D est une approche attrayante.Cependant, dans le monde des machines, les dessins sont encore difficiles à interpréter comme des représentations de formes 3D.Ce défi a été relevé par de nombreux travaux de recherche, car tirer parti du peu de connaissances que nous possédons sur la perception n’est pas anodin.Ma thèse se concentre sur les limites de ce qui peut être inféré à partir de dessins uniques de formes lisses sans aucune aide de l'utilisateur.Dans un premier temps, nous avons choisi une catégorie de forme, à savoir les animaux et autres créatures pour lesquels une connaissance préalable aide à résoudre le problème.Ensuite, nous avons proposé de généraliser certaines parties de la solution pour aborder le cas des formes organiques libres.Ce manuscrit présente donc les solutions respectives que nous avons développées.La première permet de déduire des modèles 3D plausibles d’animaux à partir d’une seule esquisse de vue latérale en utilisant des principes anatomiques pour interpréter les éléments du dessin et déduire des décalages de profondeur entre les éléments.La seconde est une approche qui consiste à décomposer les représentations de formes lisses avec des points de recouvrement non triviaux en un ensemble de silhouettes de parties structurelles ordonnées en profondeur, qui peuvent être utilisées à des fins d'édition et d'animation.Beaucoup d'idées connexes ont été explorées en parallèle, et celles présentées dans ce manuscrit me donnent confiance en l'avenir de ce domaine de recherche. / Drawing is the most common way to communicate about shapes.Thus, using sketching as a tool in the process of modeling 3D content is an attractive approach.However in the world of machines, drawings are still difficult to interpret as shape depictions.This has been the challenge tackled by many different research works since leveraging the little we know about perception is non trivial.My thesis focuses on pushing the limits of what can be inferred from single drawings of smooth shapes without any help from the user.In a first attempt we chose to select a category of shape namely animals and other creatures for which prior knowledge helps to solve the problem.Then we proposed to generalize parts of the solution to tackle the case of free form organic shapes.This manuscript thus presents the respective solutions we developed. The first one is able to infer plausible 3D models of animals from a single side-view sketch using anatomic principles to both interpret the drawing's elements and infer depth offsets between these elements.The second is an approach to decompose depictions of smooth shapes with non trivial cusp points into a set of structural parts' silhouettes ordered in depth, which can be used for editing and animation purposes.Many related ideas were explored on the way, and the ones presented in this manuscript leaves me confident about the future of this field of research.
104

Educação da diferença com Paul Valéry : método espiritográfico

Campos, Maria Idalina Krause de January 2017 (has links)
Ce texte-thèse prend la vie et l’oeuvre du poète et penseur français Paul Valéry pour concevoir un faire poétique dans la recherche-enseignement. Il explore la multiplicité des procédures valéryennes d’écriture et les transforme en processus expérimentaux d’écrilectures. Utilise l’idée de la connaissance comme invention pour créer un composite d’écriture et de lecture en élargissant l’usage des facultés intellectives d’un esprit qui lit et écrit. Opère des mouvements exploratoires en traversements imaginatifs avec la philosophie, avec la littérature et avec l’éducation. Compose la Méthode Esprit Graphique pour laquelle un être pensée risque un nouveau regard face à le spectacle de l’existence et s’y autoéduque moyennant des actions bio graphématiques, qui mouvementent corps-esprit-monde. Cette pensée et ce faire poétique activent l’être-empirique de l’étudiant, de l’écrivain et de l’enseignant (EEE), qui agit par self-variance (variation de soir). En exploitant les puissances du langage valéryen, elle met en exécution des processus de traduisibilités didactiques en mutation constante qui transcrivent la réalité curriculaire. En tant qu’un procès ouvert, multiple et défiant, qui prend comme matière empirique la vie elle-même, expérimentée dans les champs du savoir, la thèse fonctionne comme autoformation du chercheur-professeur, en disséminant l’impulsion et les aventures du désir d’éduquer. / Este texto-tese toma a vida e a obra do poeta e pensador francês Paul Valéry para conceber um fazer poético na pesquisa-docência. Explora a multiplicidade dos procedimentos valéryanos de escrita e transforma-os em processos experimentais de escrileituras. Utiliza a ideia do conhecimento como invenção, para criar um compósito de escrita e de leitura, ampliando o uso das faculdades intelectivas de um espírito que lê e escreve. Opera movimentos exploratórios, em atravessamentos imaginativos com a filosofia, com a literatura e com a educação. Compõe o Método Espiritográfico, para o qual um serpensamento arrisca um novo olhar diante do espetáculo da existência e aí se autoeduca por meio de ações biografemáticas, que movimentam corpo-espírito-mundo. Neste pensar e fazer poético, ativa o eu-empírico do estudante, do escritor e do educador (EEE), que age pela self-variance (variação de si). Explorando as potências da linguagem valéryana, exercita processos tradutórios didáticos, em constante mutação, que transcriam a realidade curricular. Como processo aberto, múltiplo e desafiador, que toma como matéria empírica a própria vida, experimentada nos campos do saber, a tese funciona como autoformação do pesquisador-professor, disseminando o impulso e as aventuras do desejo de educar. / This thesis-text has taken the work of the French poet and thinker Paul Valéry to conceive a poetic way of doing in teaching-research. It explores the multiplicity of Valeryan procedures and converts them into experimental processes of reading-writing. It uses the idea of knowledge as invention in order to create a compound of writing and reading, thus widening the use of the intellective faculties of a spirit that reads and writes. It makes exploratory moves in an imaginative intertwining with philosophy, literature and education. It designs the Spiritographic Method, for which a thought-being risks a new way of looking at the spectacle of existence, where it educates itself by means of bio-graphmatic actions that move body-spirit-world. In this poetic way of thinking and doing, it activates the empirical self of the student, the writer and the educator, which acts through self-variance. By exploring the potencies of Valeryan language, it exercises ever-changing didactic translating processes that transcreate the curriculum reality. As an open, multiple, challenging process that takes life itself as empirical matter, experimented in the fields of knowledge, the thesis functions as teacher-researcher self-education by disseminating the impulse and the adventures of the desire to educate.
105

Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles / Dynamic parallelism adaptation in multicore architectures for mobile applications

Texier, Matthieu 08 December 2014 (has links)
Le nombre de smartphones vendus a récemment dépassé celui des ordinateurs. Ces appareils tendent à regrouper de plus en plus de fonctions, ceci grâce à des applications de plus en plus variées telles que la vidéo conférence, la réalité augmentée, ou encore les jeux vidéo. Le support de ces applications est assuré par des ressources de calculs hétérogènes qui sont spécifiques aux différents types de traitements et qui respectent les performances requises et les contraintes de consommation du système. Les applications graphiques, telles que les jeux vidéo, sont par exemple accélérées par un processeur graphique. Cependant les applications deviennent de plus en plus complexes. Une application de réalité augmentée va par exemple nécessiter du traitement d'image, du rendu graphique et un traitement des informations à afficher. Cette complexité induit souvent une variation de la charge de travail qui impacte les performances et donc les besoins en puissance de calcul de l'application. Ainsi, la parallélisation de l'application, généralement prévue pour une certaine charge, devient inappropriée. Ceci induit un gaspillage des ressources de calcul qui pourraient être exploitées par d'autres applications ou par d'autres étages de l'application. Un pipeline de rendu graphique a été choisi comme cas d'utilisation car c'est une application dynamique et qui est de plus en plus répandu dans les appareils mobiles. Cette application a été implémentée et parallélisée sur un simulateur d'architecture multi-cœurs. Un profilage a confirmé l'aspect dynamique, le temps de calcul de chaque donnée ainsi que le nombre d'objets à calculer variant de manière significative dans le temps et que la meilleure répartition du parallélisme évolue en fonction de la scène rendue. Ceci nous a amenés à définir un système permettant d'adapter, au fil de l'exécution, le parallélisme d'une application en fonction d'une prédiction faite de ses besoins. Le choix d'un nouveau parallélisme nécessite de connaître les besoins en puissance de calcul des différents étages, en surveillant les transferts de données entre les étages de l'application. Enfin, l'adaptation du parallélisme implique une nouvelle répartition des tâches en fonction des besoins des différents étages qui est effectuée grâce à un contrôleur central. Le système a été implémenté dans un simulateur précis au niveau TTLM afin d'estimer les gains de performances permis par l'adaptation dynamique. Une architecture permettant l'accélération de différents types d'applications que ce soit généralistes ou graphiques a été définie et comparée à d'autres architectures multi-cœurs. Le coût matériel de cette architecture a de plus été quantifié. Ainsi, pour un support matériel dont la complexité est inférieure à 1,5 % du design complet, on démontre des gains de performance allant jusqu'à 20 % par rapport à certains déploiements statiques, ainsi que la capacité à gérer dynamiquement un nombre de ressources de calcul variable. / The amount of smartphone sales recently surpassed the desktop computer ones. This is mainly due to the smart integration of many functionalities in the same architecture. This is also due to the wide variety of supported applications like augmented reality, video conferencing and video games. The support of these applications is made by heterogeneous computing resources specialized to support each application type thus allowing to meet required performance and power consumption. For example, multimedia applications are accelerated by hardware modules that help video encoding and decoding and video game 3D rendering is accelerated by specialized processors (GPU). However, applications become more and more complicated. As an example, augmented reality requires image processing, 3D rendering and computing the information to display. This complexity often comes with a variation of the computing load, which dynamically changes application performance requirements. When this application is implemented in parallel, the way parallelism is chosen for a specific workload, becomes inefficient for a different one. This leads to a waste in computing resources and our objective is to optimize the usage of all available computing resources at runtime. The selected use case is a graphic rendering pipeline application because it is a dynamic application, which is also widely used in mobile devices. This application has been implemented and parallelized on a multicore architecture simulator. The profiling shows that the dynamicity of the application, the time and the amount of data needed to compute vary. The profiling also shows that the best balance of the parallelism depends on the rendered scene; a dynamic load balancing is therefore required for this application. These studies brought us about defining a system allowing to dynamically adapt the application parallelism depending on a prediction of its computing requirements, which can be performed by monitoring the data exchanges between the application tasks. Then the new parallelism is calculated for each stage by a central controller that manages the whole application. This system has been implemented in a Timed-TLM simulator in order to estimate performance improvements allowed by the dynamic adaptation. An architecture allowing to accelerate mobile applications, such as general-purpose and 3D applications, has been defined and compared to other multicore architectures. The hardware complexity and the performance of the architecture have also been estimated. For an increased complexity lower that 1,5%, we demonstrate performance improvements up to 20% compared with static parallelisms. We also demonstrated the ability to support a variable amount of resources.
106

Recalage flexible de modèles moléculaires dans les reconstructions 3D de microscopie électronique / Flexible fitting of molecular models into EM 3D reconstructions

Goret, Gael 26 September 2011 (has links)
Aujourd'hui, la cristallographie de macromolécules produit couramment des modèles moléculaires à résolution atomique. Cependant, cette technique est particulièrement difficile à mettre en œuvre, dans le cas de complexes de taille importante. La microscopie électronique permet, elle, de visualiser des particules de grande taille, dans des conditions proches de celles in vivo. Cependant, la résolution des reconstructions tridimensionnelles obtenues exclut, en général, leur interprétation directe en termes de structures moléculaires, étape nécessaire à la compréhension des problèmes biologiques. Il est donc naturel d'essayer de combiner les informations fournies par ces deux techniques pour caractériser la structure des assemblages macromoléculaires. L'idée est de positionner les modèles moléculaires déterminés par cristallographie à l'intérieur de reconstructions 3D issues de la microscopie électronique, et de comparer la densité électronique associée à la reconstruction 3D avec une densité électronique calculée à partir des modèles. Le problème numérique réside dans la détermination et l'optimisation des variables qui spécifient les positions des modèles, considérés comme des corps rigides, à l'intérieur de l'assemblage. Cette idée simple a donné lieu au développement d'une méthode appelée recalage. Ce travail de thèse a eu pour but de fournir aux biologistes un outil, basé sur la méthode du recalage, qui leurs permette de construire des modèles pseudo-moléculaires associés aux assemblages produits par microscopie électronique. Le logiciel issu de ce travail, nommé VEDA est un environnement graphique convivial, intégrant la possibilité de recalage flexible, et un moteur de calcul performant (calcul rapide, traitement de symétries complexes, utilisation de grands volumes, ...). Testé sur des dizaines de cas réels, VEDA est aujourd'hui pleinement fonctionnel et est utilisé par un nombre croissant de chercheurs, en France et à l'étranger qui lui reconnaissent tous facilité d'utilisation, stabilité, rapidité et qualité des résultats. / Today, macromolecular crystallography commonly produces molecular models at atomic resolution. However, this technique is particularly difficult to implement in the cases of large complexes. Electron microscopy allows for the visualization of large particles under conditions similar to those in vivo. However, the resolution of three-dimensional reconstructions obtained by electron microscopy does not allow, in general, the direct interpretation of molecular structures, a necessary step in understanding biological problems. Therefore, it is natural to try to combine information provided by these two techniques to characterize the structure of macromolecular assemblies. The idea is to place the molecular models determined by crystallography inside electron microscopy 3D reconstructions, and compare the electron density associated to the 3D reconstruction with an electron density calculated from the models. The numerical problem is the determination and the optimization of the variables that specify the positions of the models, considered as rigid body, inside the assembly. This simple idea has led to the development of a method called fitting. This thesis aims to provide biologists with a tool, based on the method of fitting, that allows them to build pseudo-molecular models associated to the assemblies produced by electron microscopy. The software resulting from this work, named VEDA, has a user-friendly graphical environment, includes the possibility of flexible fitting, and implements a powerful calculation core (fast computation, treatment of complex symmetry, use of large volumes, etc.). Tested on dozens of real cases with experimental data sets, VEDA is now fully functional and is used by a growing number of researchers in France and abroad. All of the users have recognized ease of use, stability, speed, and quality of results of VEDA. STAR
107

Implicit muscle models for interactive character skinning / Modèles de muscles implicites pour déformation de peau interactive

Roussellet, Valentin 25 June 2018 (has links)
En animation de personnages 3D, la déformation de surface, ou skinning, est une étape cruciale. Son rôle est de déformer la représentation surfacique d'un personnage pour permettre son rendu dans une succession de poses spécifiées par un animateur. La plausibilité et la qualité visuelle du résultat dépendent directement de la méthode de skinning choisie. Sa rapidité d'exécution et sa simplicité d'utilisation sont également à prendre en compte pour rendre possible son usage interactif lors des sessions de production des artistes 3D. Les différentes méthodes de skinning actuelles se divisent en trois catégories. Les méthodes géométriques sont rapides et simples d'utilisation, mais leur résultats manquent de plausibilité. Les approches s'appuyant sur des exemples produisent des résultats réalistes, elles nécessitent en revanche une base de données d'exemples volumineuse, et le contrôle de leur résultat est fastidieux. Enfin, les algorithmes de simulation physique sont capables de modéliser les phénomènes dynamiques les plus complexes au prix d'un temps de calcul souvent prohibitif pour une utilisation interactive. Les travaux décrits dans cette thèse s'appuient sur Implicit Skinning, une méthode géométrique corrective utilisant une représentation implicite des surfaces, qui permet de résoudre de nombreux problèmes rencontrés avec les méthodes géométriques classiques, tout en gardant des performances permettant son usage interactif. La contribution principale de ces travaux est un modèle d'animation qui prend en compte les effets des muscles des personnages et de leur interactions avec d'autres éléments anatomiques, tout en bénéficiant des avantages apportés par Implicit Skinning. Les muscles sont représentés par une surface d'extrusion le long d'axes centraux. Les axes des muscles sont contrôlés par une méthode de simulation physique simplifiée. Cette représentation permet de modéliser les collisions des muscles entre eux et avec les os, d'introduire des effets dynamiques tels que rebonds et secousses, tout en garantissant la conservation du volume, afin de représenter le comportement réel des muscles. Ce modèle produit des déformations plus plausibles et dynamiques que les méthodes géométriques de l'état de l'art, tout en conservant des performances suffisantes pour permettre son usage dans une session d'édition interactive. Elle offre de plus aux infographistes un contrôle intuitif sur la forme des muscles pour que les déformations obtenues se conforment à leur vision artistique. / Surface deformation, or skinning is a crucial step in 3D character animation. Its role is to deform the surface representation of a character to be rendered in the succession of poses specified by an animator. The quality and plausiblity of the displayed results directly depends on the properties of the skinning method. However, speed and simplicity are also important criteria to enable their use in interactive editing sessions. Current skinning methods can be divided in three categories. Geometric methods are fast and simple to use, but their results lack plausibility. Example-based approaches produce realistic results, yet they require a large database of examples while remaining tedious to edit. Finally, physical simulations can model the most complex dynamical phenomena, but at a very high computational cost, making their interactive use impractical. The work presented in this thesis are based on, Implicit Skinning, is a corrective geometric approach using implicit surfaces to solve many issues of standard geometric skinning methods, while remaining fast enough for interactive use. The main contribution of this work is an animation model that adds anatomical plausibility to a character by representing muscle deformations and their interactions with other anatomical features, while benefiting from the advantages of Implicit Skinning. Muscles are represented by an extrusion surface along a central axis. These axes are driven by a simplified physics simulation method, introducing dynamic effects, such as jiggling. The muscle model guarantees volume conservation, a property of real-life muscles. This model adds plausibility and dynamics lacking in state-of-the-art geometric methods at a moderate computational cost, which enables its interactive use. In addition, it offers intuitive shape control to animators, enabling them to match the results with their artistic vision.
108

Bande marine côtière et élus locaux : de la représentation à la prise de décision / Coastal land strip and the locally elected ; from representation to decision-making : from representation to decision-making

Le Moël, Béatrice 04 December 2015 (has links)
Résumé : La bande marine côtière, au-delà d’être un espace physique attaché aux territoires terrestres communaux, est aujourd’hui un lieu à la fois d’enjeux socio-économiques importants et de risques majeurs tels que la submersion marine. Les élus locaux, en première ligne face à ces enjeux, semblent considérer pour la plupart que la mer est en dehors de leur territoire. Nous postulons que sans une évolution de cette vision de la situation, aucune décision durable ne pourra être envisagée. Pour accompagner ce changement de perception, nous préconisons l’étude des représentations, véritables viviers d’information pour identifier les freins et les leviers à la prise de décision. Cerner la représentation qu’ont les élus locaux de leur territoire littoral et marin et comprendre leur cheminement vers la prise décision constitue ainsi l’objectif de cette étude. La combinaison entre une population d’un certain statut et un objet social physique nous a conduit à élaborer une méthodologie multidimensionnelle dont la singularité réside dans la mobilisation du processus d’ancrage à la fois pour l’étude de la représentation sociale, pour celle de la représentation iconospatiale et enfin dans la relation d’emboîtement. Un questionnaire, une carte graphique à main levée et un scénario de submersion marine ont constitué les trois outils clés du travail avec lesquels nous avons établi diverses corrélations s’appuyant sur des techniques d’analyses propres à la psychologie sociale et à la théorie des représentations sociales. Trois recherches se sont succédées. La première a mis à l’épreuve la méthodologie pour cerner la représentation sociale et la représentation iconospatiale. La deuxième s’est attachée à révéler le lien entre les contenus des représentations sociales et ceux des représentations iconospatiales en établissant une corrélation entre une typologie de dessins et une typologie d’élus.Enfin la troisième recherche a tenté de démontrer que certains points d’ancrage d’une représentation stabilisée (la politique communale), au travers d’une relation d’emboitement avec une représentation émergente portant sur un objet social environnemental (la submersion marine), constituaient de potentiels indicateurs d’acceptabilité sociale d’une problématique.Globalement, cette étude suggère l’intérêt certain de l’usage de carte graphique pour l’étude de ce type d’objet social physique sous couvert d’un processus d’ancrage particulièrement efficient pour structurer encore davantage les méthodes de compréhension de la relation homme-territoire. / Abstract : The coastal land strip, beyond being physical space attached to communal land territories, is today a focal point of heightening socio-economic issues, with significant risks of marine flooding and submersion. The majority of elected representatives on the front line facing these various issues seem to consider that the sea is beyond their jurisdiction. We postulate that without overhaul of this viewpoint, no long term decision can be envisaged. To accompany this new viewpoint, we recommend the study of representations, which are true breeding grounds for information that can help in identifying what holds back and what facilitates decision-making. The objective of the present study is to understand the representation that the locally elected have of the coastal and marine territory and further, the pathways in decision making. Linking a population of a certain social standing with a physical social object led us to develop a multi-dimensional methodology whose uniqueness resides in the mobilisation of the anchoring process, this for the study of social and icono-spatial representations, and how they interlink. We have established various correlations founded on analysis techniques used in social psychology and the theory of social representations, this by way of three key tools : a questionnaire, a hand-drawn map and a scenario of marine submersion. Three areas of research ensued. The first deployed the methodology to discern the social and icono-spatial representations. The second was to reveal the link between the contents of social and icono-spatial representations by establishing a correlation between a type of drawing and type of elected representative. The third area of research aimed to demonstrate that certain anchoring points of a stabilised representation (municipal politics) by their interlinking with an emerging representation focussed on an environmental social object (marine submersion) constituted potential indicators of social acceptability of the problem.Overall, this study suggests a strong interest for the map method for the study of this type of social physical object under the guise of the mobilisation of an anchoring process. This is particularly efficient in further structuring the methods to understand man-territory relationships.
109

Composition d'applications multi-modèles dirigée par la composition des interfaces graphiques / Multi-models application composition driven by user interface composition

Brel, Christian 28 June 2013 (has links)
Force est de constater que composer des applications existantes afin d’en réutiliser tout ou une partie est une tâche complexe. Pourtant avec l’apparition quotidienne d’applications, les éditeurs d’applications ont de plus en plus besoin d’effectuer de telles compositions pour répondre à la demande croissante des utilisateurs. Les travaux existants ne traitent généralement que d’un seul point de vue : celui du "Noyau Fonctionnel" dans le domaine du Génie Logiciel, celui des Tâches" ou celui de l’"Interface Graphique" dans le domaine des Interactions Homme-Machine (IHM). Cette thèse propose une nouvelle approche basée sur un modèle d’application complet (fonctionnel, tâche et interface graphique). Elle permet à un utilisateur de naviguer entre ces différents modèles pour sélectionner des ensembles cohérents pouvant être composé par substitution. Une implémentation de cette approche a permis d’effectuer des tests utilisateurs confortant les bienfaits d’une modélisation complète. / One has to note that composing existing applications by completely or partly reusing them is a complex task. Nevertheless with the daily appearance of new available applications on any media, the application editors need to perform such compositions more and more to answer the increasing users’ requests. Modeling an application for composition or just determining by which point of view on applications make this composition is not easy. Works exist, but generally deal or ensue from only a single point of view : the "Functional Core" point of view in Software Engineering field, the "Task" one or "User Interface" one in Human Computer Interaction (HCI) field. This thesis defines a new approach based on a complete application model (functionnal, task and user interface). It enables an user to navigate between those different models in order to select consistent sets. These last ones are composable by substitution. An implementation of this approach was used to perform user tests whose results consolidate benefits of a complete model.
110

Métamorphoses du conte, métamorphoses dans le conte : modèles et avatars formels du merveilleux, des origines à nos jours / Fairy tales metamorphoses, metamorphoses in fairy tales : patterns and avatars of marvellous forms, from its origin to present

Nussbaumer, Julia 11 October 2014 (has links)
Ce travail porte sur les origines et les évolutions du conte merveilleux et de sapoétique, à travers l’étude privilégiée de la métamorphose. Le genre, issu de lalittérature orale, se caractérise en effet par une histoire littéraire tout particulièrement faite de transformations, de récritures et d’appropriations diverses, au gré du changement des mentalités, d’un élargissement des modes de diffusion et d’une ouverture aux littératures étrangères. En outre, les transpositions du conte à d’autres domaines que celui de l’écrit, tels que l’image et la scène, participent de l’évolution d’une poétique merveilleuse qui se définit en premier lieu comme poétique démonstration. Dans cette perspective, un deuxième versant de notre travail s’intéresse à la manière dont le cinéma – en prise de vues réelles et, surtout, d’animation (graphique) – a pu s’emparer du conte dès le tournant du XXe siècle, et met en lumière un certain nombre d’apports figuratifs (relevant principalement de la métamorphose et d’un jeu sur le voir et le non voir) à la poétique d’un genre dont il perpétue par ailleurs la structure narrative forte. / This work retraces origins and developments of fairy tales and its poetic, focusing on the metamorphosis. The history of this literary genre, born trough oral tradition, is especially composed of numerous changes, re-writings and various appropriations,according to mentalities, development of mass dissemination methods and study of foreign literatures. In parallel, fairy tales transpositions to others non-written domains,like theatre and pictures, confirms that the fairy tales poetic is primarily pictureoriented.In this perspective, the second part of our work focuses on how cinema(through live-action images and, especially, graphically animated images) has been inspired from fairy tales since early 20th century, and highlights a couple of figurative contributions (mostly based on metamorphosis and a game between visible and non visible) to the poetic of this genre, while it also perpetuates its strong narrative structure.

Page generated in 0.0618 seconds