• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 15
  • 2
  • Tagged with
  • 47
  • 47
  • 24
  • 23
  • 15
  • 14
  • 11
  • 11
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Optimisation de la segmentation automatique de matériaux granulaires fragmentés / optimisation of automatic segmentation of granular fragmented materials

Chabardes, Théodore-Flavien 16 May 2018 (has links)
Les propriétés physiques macroscopiques des matériaux granulaires découlent directement de leurs micro-structures. L'étude de tels matériaux nécessite la segmentation de leur structures 3D à partir d'images acquises par CT-scans. Cependant, ces images sont parfois difficiles à analyser, car de nombreux défauts et artefactes de reconstruction peuvent apparaître. Obtenir des structures 3D proches des données réelles nécessite un filtrage adapté, qui ne peut être obtenu que par une analyse approfondie du matériaux.Un filtrage adapté améliore la perception de chacun des grains et la structure 3D peut être alors obtenue par segmentation. La complexité de ces structures rend la tâche difficile : les grains qui la représentent prennent des formes irrégulières, allongées et pas nécessairement convexes. Ces grains sont généralement fortement agglomérés et difficiles à séparer. De plus, des phénomènes de fracturation sont fréquemment observés. Les grains sont éclatés en petits fragments pouvant s'éloigner de la position d'origine du grain.Dans le cadre de cette thèse, une chaîne complète de segmentation est présentée. Les données brutes d'acquisition sont tout d'abord filtrés et pré-traités pour en extraire un certain nombre de mesures statistiques , telles que le nombre de phase, le nombre de grains de chaque phase, la distribution des tailles de grains et l'identification spectral de chaque phase. Une première segmentation grossière est effectuée en utilisant la transformation de ligne de partage des eaux. Une hiérarchie des contours obtenus permet d'éliminer la sur-segmentation. Enfin, une méthode permettant d'évaluer la similitude entre deux bords adjacents est présenté, et nous permettera de réassembler les grains fragmentés, dont les fragments ont été dispersés.Les acquitions par CT-scan sont conséquentes et leur étude nécessite une utilisation efficace des architectures récentes de calcul. Le choix de la chaîne de traitement est basé sur l'étude de l'état de l'art et son application aux données 3D, avec comme objectif d'équilibrer les coûts de traitement et la qualité de la segmentation. Une nouvelle méthode de segmentation nous permet d'atteindre de meilleurs performances en améliorant également la qualité des résultats. Enfin, deux nouveaux algorithmes sont proposés pour la détection de composantes connexes et la transformation de ligne de partage des eaux. / The physical properties of granular materials on a macroscopic scale derive from their microstructures. The segmentation of CT-images of this type of material is the first step towards simulation and modeling but it is not a trivial task. However, the quality of those images is often affected by the presence of noise and reconstruction artefacts. Obtaining 3D structures that fit the reality requires an adapted filter, which can only be obtained by a complete analysis of the material.This adapted filter enhances each grain and the full structure of the material is obtained by segmentation. However, non-spherical, elongated or non-convex objects fail to be separated with classical methods. Moreover, grains are commonly fragmented due to external conditions. Grains are ground into multiple fragments of different shape and volume; those fragments drift from one another in the binder phase.In this thesis, a complete process chain is proposed to segment complex structures that can be acquired by CT-scan. The raw data is first filtered and processed, and statistical features are extracted such as the number of phases, the number of grains of each phase, the size distribution and spectral identification of the phases. A primary segmentation is performed to identify every connection between touching grains and is based on the watershed transform. A hierarchy is built on the obtained contours to eliminate over-segmentation. Reconstruction of grains from fragments is achieved using affinities that match the local thickness and the regularity of the interface.Typical CT-images are voluminous, and the study of granular materials requires efficient use of modern computing architectures. Studying the state-of-the-art and its application to 3D data has oriented our choice has allowed us to balance the quality of segmentation and the computing cost. A novel segmentation method allows for higher performances while improving the quality of the result. Finally, two new algorithms are proposed for the labeling of connected components and for the watershed transformation.
32

Pilotage d'algorithmes pour la reconnaissance en ligne d'arythmies cardiaques

Portet, François 06 December 2005 (has links) (PDF)
L'objectif de cette thèse est la réalisation du système de monitorage cardiaque intelligent IP-Calicot capable, grâce à un module de pilotage d'algorithmes, d'utiliser les informations du contexte courant pour modifier sa chaîne de traitements afin d'obtenir un diagnostic médical fiable même en milieu bruité. À partir d'un électrocardiogramme (ECG), le système extrait en ligne, par traitement du signal, les informations qui vont permettre d'établir un diagnostic d'arythmie cardiaque modélisé par un réseau temporel (chronique). En utilisant le contexte courant, constitué du bruit de ligne et du diagnostic médical, le module de pilotage agit dynamiquement à trois niveaux~: il sélectionne et paramètre les algorithmes de traitement du signal, il choisit les éléments à extraire du signal, décrivant ainsi l'ECG dans un langage plus ou moins précis, et sélectionne le langage de description à utiliser pour établir le diagnostic en ligne. Le pilote est représenté par un système expert qui agit sur la chaîne de traitements grâce à des règles de pilotage acquises par expertises et déduites d'études statistiques. Le système a été validé sur des ECG bruités typiques de situations cliniques. Les résultats démontrent l'intérêt et la faisabilité du pilotage proposé.
33

Incidence de la régulation d'un carrefour à feux sur le risque des usagers; Apprentissage d'indicateurs par sélection de données dans un flux

Saunier, Nicolas 08 April 2005 (has links) (PDF)
Dans le cadre de la régulation des carrefours à feux et du développement d'outils intégrés de gestion du trafic, notre recherche consiste à construire un système d'analyse des données d'observation d'un carrefour. Nous utilisons un dispositif expérimental d'observation automatique d'un carrefour réel basé sur des capteurs vidéo et une base d'enregistrements de scènes de trafic, qui nous permet de comparer l'incidence relative de deux stratégies, une stratégie de référence et une stratégie adaptative temps-réel, appelée CRONOS et développée à l'INRETS. <br /><br />Nous nous intéressons aux interactions entre véhicules et à leur relation à l'accident, appelée sévérité. Nous proposons une modélisation des interactions entre les véhicules dans un carrefour, et étudions particulièrement la zone de conflit. Nous mesurons les durées d'interactions et qualifions à chaque instant la sévérité des interactions détectées selon deux indicateurs, un indicateur de proximité et un indicateur de vitesse. Notre système modulaire détecte les interactions à l'aide de règles expertes explicites. Pour les indicateurs de sévérité, nous développons une méthode d'apprentissage générique, par sélection de données dans un flux. Cette méthode est testée sur l'apprentissage de l'indicateur de vitesse, et sur d'autres problèmes classiques. <br /><br />Nous utilisons le système développé pour traiter une partie des données de la base. Nous étudions les distributions des durées d'interaction selon les indicateurs de sévérité et mettons en évidence des différences entre les stratégies comparées.
34

Acquisition automatique de lexiques sémantiques pour la recherche d'information

Claveau, Vincent 17 December 2003 (has links) (PDF)
De nombreuses applications du traitement automatique des langues (recherche d'information, traduction automatique, etc.) requièrent des ressources sémantiques spécifiques à leur tâche et à leur domaine. Pour répondre à ces besoins spécifiques, nous avons développé ASARES, un système d'acquisition d'informations sémantiques lexicales sur corpus. Celui-ci répond à un triple objectif : il permet de fournir des résultats de bonne qualité, ses résultats et le processus ayant conduit à leur extraction sont interprétables, et enfin, il est assez générique et automatique pour être aisément portable d'un corpus à un autre. Pour ce faire, ASARES s'appuie sur une technique d'apprentissage artificiel symbolique --- la programmation logique inductive --- qui lui permet d'inférer des patrons d'extraction morphosyntaxiques et sémantiques à partir d'exemples des éléments lexicaux sémantiques que l'on souhaite acquérir. Ces patrons sont ensuite utilisés pour extraire du corpus de nouveaux éléments. Nous montrons également qu'il est possible de combiner cette approche symbolique avec des techniques d'acquisition statistiques qui confèrent une plus grande automaticité à ASARES. Pour évaluer la validité de notre méthode, nous l'avons appliquée à l'extraction d'un type de relations sémantiques entre noms et verbes définies au sein du Lexique génératif appelées relations qualia. Cette tâche d'acquisition revêt deux intérêts principaux. D'une part, ces relations ne sont définies que de manière théorique ; l'interprétabilité linguistique des patrons inférés permet donc d'en préciser le fonctionnement et les réalisations en contexte. D'autre part, plusieurs auteurs ont noté l'intérêt de ce type de relations dans le domaine de la recherche d'information pour donner accès à des reformulations sémantiquement équivalentes d'une même idée. Grâce à une expérience d'extension de requêtes, nous vérifions expérimentalement cette affirmation : nous montrons que les résultats d'un système de recherche exploitant ces relations qualia, acquises par ASARES, sont améliorés de manière significative quoique localisée.
35

Extraction d'information pour l'édition et la synthèse par l'exemple en rendu expressif

Landes, Pierre-Edouard 17 February 2011 (has links) (PDF)
Cette thèse prend pour cadre la synthèse par l'exemple et l'édition de contenu graphique en infographie et propose une réflexion sur les possibles sources d'information utiles à ces fins. Contrairement aux techniques "procédurales", l'approche par l'exemple se distingue par sa grande simplicité d'utilisation : reviennent en effet à l'algorithme de synthèse l'identification, analyse et reproduction des éléments caractéristiques des exemples fournis en entrée par l'utilisateur. Ce mode de création de même que les techniques approfondies d'édition ont grandement contribué à la facilitation de la production à grande échelle de contenus graphiques convaincants et ainsi participé à l'adoption par la communauté des artistes des outils proposés par le support numérique. Mais pour être ainsi exploitées, celles-ci doivent également être hautement contrôlables tout en évitant l'écueil de n'être que le simple prolongement de la main de l'artiste. Nous explorons ici cette thématique dans le cadre de la création de rendus dits expressifs et étudions les interactions (collaboratives ou concurrentielles) entre les différentes sources d'information au cœur de ce processus. Ces dernières sont à notre sens au nombre de trois : l'analyse automatique des données d'entrée avant rendu ou traitement ; l'utilisation de modèles a priori en vue de leur compréhension ; et enfin le contrôle explicite par l'utilisateur. En les combinant au plus juste, nous proposons des techniques nouvelles dans divers domaines de la synthèse en rendu expressif. Au delà du réalisme photographique, le rendu expressif se caractérise par sa poursuite de critères plus difficilement quantifiables tels la facilité de compréhension ou le caractère artistique de ses résultats. La subjectivité de tels objectifs nous force donc ici plus qu'ailleurs à estimer avec soin les sources d'information à privilégier, le niveau d'implication à accorder à l'utilisateur (sans que ce choix ne s'opère au détriment de la qualité théorique de la méthode), ainsi que le possible recours à des modèles d'analyse (sans en compromettre la généralité). Trois principales instances de synthèse sont ici détaillés : la génération de textures, la désaturation d'images, et la représentation de maillages par le dessin au trait. La grande variété des données d'entrée (textures matricielles ou vectorielles, images complexes, géométries 3d), des modalités de synthèse (imitation, conversion, représentation alternative) et d'objectifs (reproduction de la signature visuelle d'une texture, restitution crédible de contrastes chromatiques, génération de dessins conformes au style de l'utilisateur) permettent l'examen de divers équilibres entre ces sources d'information et l'exploration de degrés plus ou moins élevés d'interaction avec l'utilisateur.
36

Contributions à l'apprentissage et l'inférence adaptatifs : Applications à l'ajustement d'hyperparamètres et à la physique des astroparticules

Bardenet, Rémi 19 November 2012 (has links) (PDF)
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres de réseaux de neurones profonds. Nous proposons ensuite un algorithme collaboratif d'ajustement qui mime la mémoire qu'ont les humains d'expériences passées avec le même algorithme sur d'autres données.La seconde moitié de cette thèse porte sur les algorithmes MCMC adaptatifs, des algorithmes d'échantillonnage qui explorent des distributions de probabilité souvent complexes en ajustant leurs paramètres internes en ligne. Pour motiver leur étude, nous décrivons d'abord l'observatoire Pierre Auger, une expérience de physique des particules dédiée à l'étude des rayons cosmiques. Nous proposons une première partie du modèle génératif d'Auger et introduisons une procédure d'inférence des paramètres individuels de chaque événement d'Auger qui ne requiert que ce premier modèle. Ensuite, nous remarquons que ce modèle est sujet à un problème connu sous le nom de label switching. Après avoir présenté les solutions existantes, nous proposons AMOR, le premier algorithme MCMC adaptatif doté d'un réétiquetage en ligne qui résout le label switching. Nous présentons une étude empirique et des résultats théoriques de consistance d'AMOR, qui mettent en lumière des liens entre le réétiquetage et la quantification vectorielle.
37

Smart web accessibility platform : dichromacy compensation and web page structure improvement / Titre non disponible

Mereuta, Alina 15 December 2014 (has links)
Dans ces travaux, nous nous concentrons sur l’amélioration de l’accessibilité web pourdes utilisateurs handicapés visuels à travers d’outils s’intègrant dans la plateforme SmartWeb Accessibility Platform (SWAP). Après une synthèse sur l’accessibilité, un panoramade SWAP est présenté. Notre première contribution concerne la compensation de la pertede contraste textuel dans les pages web pour les daltoniens tout en maintenant les intentionsde l’auteur retranscrites par les couleurs. Ce problème est modélisé sous la forme d’unproblème de minimisation d’une fonction numérique dépendante des couleurs initiales, desrelations entre les couleurs de la page et des couleurs modifiées. L’intérêt et l’efficacité detrois méthodes d’optimisation (mass-spring system, CMA-ES, API) ont été évaluées surdeux jeux de données (réel, artificiel). Notre deuxième contribution cherche à améliorer lastructure de pages web pour des utilisateurs de lecteurs d’écran afin de compenser la perted’information due à la linéarisation du contenu. Grâce à l’utilisation d’heuristiques et detechnique d’apprentissage, les zones caractéristiques de la page sont identifiées. La pageest complétée en utilisant des liens supplémentaires et les marqueurs ARIA afin de permettreune meilleure identification des zones par les lecteurs d’écran. Nos expérimentationsmontrent l’efficacité de notre proposition. / This thesis works are focused on enhancing web accessibility for users with visual disabilities using tools integrated within the SmartWeb Accessibility Platform (SWAP). After a synthesis on accessibility, SWAP is presented. Our first contribution consists in reducing the contrast loss for textual information in web pages for dichromat users while maintaining the author’s intentions conveyed by colors. The contrast compensation problem is reduced at minimizing a fitness function which depends on the original colors and the relationships between them. The interest and efficiency of three methods (mass-spring system, CMA-ES, API) are assessed on two datasets (real and artificial). The second contribution focuses on enhancing web page structure for screen reader users in order to overcome the effect of contents’linearization. Using heuristics and machine learning techniques, the main zones of the page are identified. The page structure can be enhanced using ARIA statements and access links to improve zone identification by screen readers.
38

Dynamique des systèmes cognitifs et des systèmes complexes : étude du rôle des délais de transmission de l’information / Dynamics of cognitive systems and complex systems : study of the role of information transmission delays

Martinez, Regis 26 September 2011 (has links)
La représentation de l’information mnésique est toujours une question d’intérêt majeur en neurobiologie, mais également, du point de vue informatique, en apprentissage artificiel. Dans certains modèles de réseaux de neurones artificiels, nous sommes confrontés au dilemme de la récupération de l’information sachant, sur la base de la performance du modèle, que cette information est effectivement stockée mais sous une forme inconnue ou trop complexe pour être facilement accessible. C’est le dilemme qui se pose pour les grands réseaux de neurones et auquel tente de répondre le paradigme du « reservoir computing ».Le « reservoir computing » est un courant de modèles qui a émergé en même temps que le modèle que nous présentons ici. Il s’agit de décomposer un réseau de neurones en (1) une couche d’entrée qui permet d’injecter les exemples d’apprentissage, (2) un « réservoir » composé de neurones connectés avec ou sans organisation particulière définie, et dans lequel il peut y avoir des mécanismes d’adaptation, (3) une couche de sortie, les « readout », sur laquelle un apprentissage supervisé est opéré. Nous apportons toutefois une particularité, qui est celle d’utiliser les délais axonaux, temps de propagation d’une information d’un neurone à un autre. Leur mise en oeuvre est un apport computationnel en même temps qu’un argument biologique pour la représentation de l’information. Nous montrons que notre modèle est capable d’un apprentissage artificiel efficace et prometteur même si encore perfectible. Sur la base de ce constat et dans le but d’améliorer les performances nous cherchons à comprendre les dynamiques internes du modèle. Plus précisément nous étudions comment la topologie du réservoir peut influencer sa dynamique. Nous nous aidons pour cela de la théorie des groupes polychrones. Nous avons développé, pour l’occasion, des algorithmes permettant de détecter ces structures topologico-dynamiques dans un réseau, et dans l’activité d’un réseau de topologie donnée.Si nous comprenons les liens entre topologie et dynamique, nous pourrons en tirer parti pour créer des réservoirs adaptés aux besoins de l’apprentissage. Finalement, nous avons mené une étude exhaustive de l’expressivité d’un réseau en termes de groupes polychrones, en fonction de différents types de topologies (aléatoire, régulière, petit-monde) et de nombreux paramètres (nombre de neurones, connectivité, etc.). Nous pouvons enfin formuler un certain nombre de recommandations pour créer un réseau dont la topologie peut être un support riche en représentations possibles. Nous tentons également de faire le lien avec la théorie cognitive de la mémoire à traces multiples qui peut, en principe, être implémentée et étudiée par le prisme des groupes polychrones. / How memory information is represented is still an open question in neurobiology, but also, from the computer science point of view, in machine learning. Some artificial neuron networks models have to face the problem of retrieving information, knowing that, in regard to the model performance, this information is actually stored but in an unknown form or too complex to be easily accessible. This is one of the problems met in large neuron networks and which « reservoir computing » intends to answer.« Reservoir computing » is a category of models that has emerged at the same period as, and has propoerties similar to the model we present here. It is composed of three parts that are (1) an input layer that allows to inject learning examples, (2) a « reservoir » composed of neurons connected with or without a particular predefined, and where there can be adaptation mecanisms, (3) an output layer, called « readout », on which a supervised learning if performed. We bring a particularity that consists in using axonal delays, the propagation time of information from one neuron to another through an axonal connexion. Using delays is a computational improvement in the light of machin learning but also a biological argument for information representation.We show that our model is capable of a improvable but efficient and promising artificial learning. Based on this observation and in the aim of improving performance we seek to understand the internal dynamics of the model. More precisely we study how the topology of the reservoir can influence the dynamics. To do so, we make use of the theory of polychronous groups. We have developped complexe algorithms allowing us to detect those topologicodynamic structures in a network, and in a network activity having a given topology.If we succeed in understanding the links between topology and dynamics, we may take advantage of it to be able to create reservoir with specific properties, suited for learning. Finally, we have conducted an exhaustive study of network expressivness in terms of polychronous groups, based on various types of topologies (random, regular, small-world) and different parameters (number of neurones, conectivity, etc.). We are able to formulate some recommandations to create a network whose topology can be rich in terms of possible representations. We propose to link with the cognitive theory of multiple trace memory that can, in principle, be implemented and studied in the light of polychronous groups.
39

Similarités de données textuelles pour l'apprentissage de textes courts d'opinions et la recherche de produits / Textual data similarities for learning short opinion texts and retrieving products

Trouvilliez, Benoît 13 May 2013 (has links)
Cette thèse porte sur l'établissement de similarités de données textuelles dans le domaine de la gestion de la relation client. Elle se décline en deux parties : - l'analyse automatique de messages courts en réponse à des questionnaires de satisfaction ; - la recherche de produits à partir de l'énonciation de critères au sein d'une conversation écrite mettant en jeu un humain et un programme agent. La première partie a pour objectif la production d'informations statistiques structurées extraites des réponses aux questions. Les idées exprimées dans les réponses sont identifiées, organisées selon une taxonomie et quantifiées. La seconde partie vise à transcrire les critères de recherche de produits en requêtes compréhensibles par un système de gestion de bases de données. Les critères étudiés vont de critères relativement simples comme la matière du produit jusqu'à des critères plus complexes comme le prix ou la couleur. Les deux parties se rejoignent sur la problématique d'établissement de similarités entre données textuelles par des techniques de TAL. Les principales difficultés à surmonter sont liées aux caractéristiques des textes, rédigés en langage naturel, courts, et comportant fréquemment des fautes d'orthographe ou des négations. L'établissement de similarités sémantiques entre mots (synonymie, antonymie, etc) et l'établissement de relations syntaxiques entre syntagmes (conjonction, opposition, etc) sont également des problématiques abordées. Nous étudions également dans cette thèse des méthodes de regroupements et de classification automatique de textes afin d'analyser les réponses aux questionnaires de satisfaction. / This Ph.D. thesis is about the establishment of textual data similarities in the client relation domain. Two subjects are mainly considered : - the automatic analysis of short messages in response of satisfaction surveys ; - the search of products given same criteria expressed in natural language by a human through a conversation with a program. The first subject concerns the statistical informations from the surveys answers. The ideas recognized in the answers are identified, organized according to a taxonomy and quantified. The second subject concerns the transcription of some criteria over products into queries to be interpreted by a database management system. The number of criteria under consideration is wide, from simplest criteria like material or brand, until most complex criteria like color or price. The two subjects meet on the problem of establishing textual data similarities thanks to NLP techniques. The main difficulties come from the fact that the texts to be processed, written in natural language, are short ones and with lots of spell checking errors and negations. Establishment of semantic similarities between words (synonymy, antonymy, ...) and syntactic relations between syntagms (conjunction, opposition, ...) are other issues considered in our work. We also study in this Ph. D. thesis automatic clustering and classification methods in order to analyse answers to satisfaction surveys.
40

Extraction d'information pour l'édition et la synthèse par l'exemple en rendu expressif / Information Extraction for Editing and By-Example Synthesis in Expressive Rendering

Landes, Pierre-Edouard 17 February 2011 (has links)
Cette thèse prend pour cadre la synthèse par l'exemple et l'édition de contenu graphique en infographie et propose une réflexion sur les possibles sources d'information utiles à ces fins. Contrairement aux techniques "procédurales", l'approche par l'exemple se distingue par sa grande simplicité d'utilisation : reviennent en effet à l'algorithme de synthèse l'identification, analyse et reproduction des éléments caractéristiques des exemples fournis en entrée par l'utilisateur. Ce mode de création de même que les techniques approfondies d'édition ont grandement contribué à la facilitation de la production à grande échelle de contenus graphiques convaincants et ainsi participé à l'adoption par la communauté des artistes des outils proposés par le support numérique. Mais pour être ainsi exploitées, celles-ci doivent également être hautement contrôlables tout en évitant l'écueil de n'être que le simple prolongement de la main de l'artiste. Nous explorons ici cette thématique dans le cadre de la création de rendus dits expressifs et étudions les interactions (collaboratives ou concurrentielles) entre les différentes sources d'information au cœur de ce processus. Ces dernières sont à notre sens au nombre de trois : l'analyse automatique des données d'entrée avant rendu ou traitement ; l'utilisation de modèles a priori en vue de leur compréhension ; et enfin le contrôle explicite par l'utilisateur. En les combinant au plus juste, nous proposons des techniques nouvelles dans divers domaines de la synthèse en rendu expressif. Au delà du réalisme photographique, le rendu expressif se caractérise par sa poursuite de critères plus difficilement quantifiables tels la facilité de compréhension ou le caractère artistique de ses résultats. La subjectivité de tels objectifs nous force donc ici plus qu'ailleurs à estimer avec soin les sources d'information à privilégier, le niveau d'implication à accorder à l'utilisateur (sans que ce choix ne s'opère au détriment de la qualité théorique de la méthode), ainsi que le possible recours à des modèles d'analyse (sans en compromettre la généralité). Trois principales instances de synthèse sont ici détaillés : la génération de textures, la désaturation d'images, et la représentation de maillages par le dessin au trait. La grande variété des données d'entrée (textures matricielles ou vectorielles, images complexes, géométries 3d), des modalités de synthèse (imitation, conversion, représentation alternative) et d'objectifs (reproduction de la signature visuelle d'une texture, restitution crédible de contrastes chromatiques, génération de dessins conformes au style de l'utilisateur) permettent l'examen de divers équilibres entre ces sources d'information et l'exploration de degrés plus ou moins élevés d'interaction avec l'utilisateur. / This thesis focuses on example-based synthesis and editing in Computer Graphics and reflects on the possible sources of information necessary for such goals. Unlike "procedural" techniques, synthesis by example stands out thanks to its extreme ease-of-use : indeed, tasks such as identification, analysis and reproduction of the distinguishing features of the user-provided examples are left to the method itself. Such approaches, along with today's intricate editing methods have greatly favored the production of compelling graphical content at a wide scale, and henceforth facilitated the adoption of computer-assisted tools by artists. But in order to meet with success, they also have to be highly controllable without being a mere extension of the artist's hand. We explore here such concerns in the context of expressive rendering and study the interactions, may they be collaborative or competitive, between the different sources of information at the core of such processes. In our opinion, there are three main sources of information: the automatic analysis of the inputs before processing; the use of prior knowledge through predetermined models; and users' explicit intervention. Through a clever combination of these sources, we propose new expressive synthesis techniques which satisfy the aforementioned usability. More than photographic realism, expressive rendering strives for the fulfillment of less easily quantifiable goals such as the intelligibility or the aesthetic value of its results. The subjectivity behind the assessment of such criteria thus forces us to attach much importance to the careful choice of the source of information to favor; the required amount of user intervention (without being detrimental to the method's theoretical value); and the possible resort to prior models (without endangering its generality). Three main synthesis instances are studied in this document: texture generation, image de-colorization, and artistic line rendering. The great disparity of inputs (raster and vector textures, complex images, 3d meshes), terms of synthesis (imitation, conversion, depiction) and objectives (preservation of a texture's visual signature, plausible restitution of chromatic contrasts, creation of drawings in accordance with users' styles) gives rise to distinct balances between those sources of information and requires the consideration of various modes of user interaction.

Page generated in 0.4964 seconds