• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Modélisation, reconstruction et animation de personnages virtuels 3D à partir de dessins manuels 2D

Triki-Bchir, Olfa 11 October 2005 (has links) (PDF)
La production de dessins animés 2D, qui suit actuellement un schéma mis en place dans les années 1920, fait intervenir un très nombre de compétences humaines et de métiers différents. Par opposition à ce mode de travail traditionnel, la production de films de synthèse 3D, en exploitant les technologies et outils les plus récents de modélisation et d'animation 3D, s'affranchit pour une bonne part de cette composante artisanale et vient concurrencer l'industrie du dessin animé tradtionnel en termes de délais et de coûts de fabrication.<br /><br />Les défis à relever par l'industrie du dessin animé 2D se formulent donc en termes de:<br /><br /> 1. Réutilisation des contenus selon le paradigme Create once, render many,<br /> 2. Facilité d'échange et de transmission des contenus, ce qui nécessite de disposer d'un unique format de représentation,<br /> 3. Production efficace et économique des contenus, requérant une animation automatisée par ordinateur. <br /><br />Dans ce contexte compétitif, ce travail de thèse, réalisé dans le cadre du projet industriel TOON financé par la société Quadraxis avec le support de l' Agence Nationale de Valorisation de la Recherche (Oséo-ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D pour les dessins animés 2D.<br /><br />Un état de l'art des méthodes et outils contribuant à la reconstruction de modèles 3D et à leur animation est présenté et discuté au regard des contraintes spécifiques des règles de création des dessins animés 2D et de la chaîne de fabrication traditionnelle. Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur :<br /><br /> * l'élaboration d'une méthode de reconstruction de personnages virtuels 3D à partir de dessins 2D,<br /> * la mise au point d'une procédure de reconstruction surfacique par NURBS dotée d'une capacité de déformation interactive 2D/3D,<br /> * la conception d'un module de modélisation 3D pour surfaces maillées, compatible avec le standard d'animation MPEG-4/AFX. <br /><br />Les développements réalisés, intégrés dans un prototype de la plate-forme TOON, montrent un gain en temps de 20% sur l'ensemble de la chaîne de production tout en garantissant une complète interopérabilité des applications via le standard MPEG-4.
192

Reconnaissance d'écriture manuscrite par des techniques markoviennes : une approche bidimensionnelle et générique

Chevalier, Sylvain 01 December 2004 (has links) (PDF)
Nous présentons une approche de reconnaissance d'écriture manuscrite à partir de champs de Markov cachés et fondée sur une analyse entièrement bidimensionnelle de l'écriture. Son originalité réside dans la combinaison d'une analyse fenêtrée de l'image, d'une modélisation markovienne et dans la mise en oeuvre de la programmation dynamique 2D qui permet un décodage rapide et optimal des champs de Markov. Un aspect important de ces travaux est la méthodologie de développement employée qui est centrée sur l'évaluation systématique des apports algorithmiques et des paramètres utilisés. Ces algorithmes sont en partie empruntés aux techniques utilisées dans le domaine de la reconnaissance de la parole et sont très génériques.<br /><br />L'approche proposée est validée sur deux applications correspondant à des bases de données standard et librement disponibles. L'application de cette méthode extrêmement générique à une tâche de reconnaissance de chiffres manuscrits a permis d'obtenir des résultats comparables à ceux de l'état de l'art. L'application à une tâche de reconnaissance de mots manuscrits a permis de confirmer que l'extension de cette approche à des tâches plus complexes était naturelle.<br /><br />L'ensemble de cette recherche a démontré la validité de l'approche développée qui apparaît comme candidate au statut d'approche standard pour plusieurs problèmes de vision. En outre, elle ouvre la voie à de très nombreux développements concernant la tâche de traitement de l'écriture manuscrite et des améliorations significatives pourraient encore être apportées en recourant à d'autres principes issus du traitement de la parole et du langage. D'autres tâches comme la segmentation d'image devraient tirer avantage de la robustesse et de la faculté d'apprentissage de la modélisation que nous proposons.
193

Approche markovienne bidimensionnelle d'analyse et de reconnaissance de documents manuscrits

Lemaitre, Melanie 16 November 2007 (has links) (PDF)
Dans cette thèse, nous présentons une approche bidimensionnelle markovienne générale pour l'analyse et la reconnaissance de documents manuscrits appelée AMBRES (Approche Markovienne Bidimensionnelle pour la Reconnaissance et la Segmentation d'images). Elle est fondée sur les champs de Markov, la programmation dynamique 2D et une analyse bidimensionnelle de l'image.<br /><br />AMBRES a été appliquée avec succès à des tâches aussi diverses que la reconnaissance de caractères et de mots manuscrits isolés, la structuration de documents manuscrits et la reconnaissance de logos et pourrait être étendue à d'autres problématiques du domaine de la vision.<br /><br />Des protocoles rigoureux ont été utilisés pour l'étude du système et de ses paramètres ainsi que pour l'évaluation des performances. En particulier, AMBRES a pu être validée au sein de la campagne d'évaluation RIMES (Reconnaissance et Indexation de données Manuscrites et de fac similES).
194

Aspects dynamiques de XML et spécification des interfaces de services web avec PEWS

Halfeld Ferrari Alves, Mirian 30 November 2007 (has links) (PDF)
Nous nous intéressons par le problème de la sémantique des mises à jour et de la cohérence des bases de données dans différents contextes comme les documents XML et les services web. En effet, des difficultés particulières sont à prévoir lors de la mise à jour d'une base ayant des contraintes à respecter, car, des données originalement cohérentes par rapport aux contraintes peuvent devenir incohérentes suite aux mises à jour. Dans une première partie de notre travail, nous considérons la mise à jour et le maintien de la cohérence d'une base de données XML par rapport au type (ou schéma) ainsi que par rapport aux contraintes d'intégrité. Nous abordons ce problème de différentes manières. Tout d'abord, nous proposons une procédure de validation incrémentale par rapport aux contraintes, évitant de revalider les parties du document qui n'ont pas été touchées par les mises à jour. Cette approche traite aussi bien le cas des contraintes de schéma que le cas des contraintes d'intégrité. Dans ce cadre, les listes de mises à jour qui violent la validité sont rejetées. Quand la validation incrémentale échoue, c'est-à-dire, quand une mise à jour viole le type, deux propositions de traitement sont faites\,: (A) Une routine de correction est activée pour adapter le document XML au type tout en prenant en compte la mise à jour. La mise à jour a donc une priorité par rapport aux données déjà stockées. (B) Une routine propose une adaptation du type du document, de façon à accepter le document mis à jour en préservant la validité des autres documents originalement valides et non soumis à la mise à jour. Dans ce cas, la mise à jour est prioritaire et les contraintes peuvent être modifiées. Une deuxième partie du travail considère la construction d'une plate-forme d'aide à la spécification, à l'implémentation et à la manipulation de services. L'idée de pouvoir spécifier et modifier des compositions de services nous a amené à la définition du langage PEWS (\textit{Path Expressions for Web Services}), ayant une sémantique formelle bien définie et permettant la spécification du comportement des interfaces des services web simples ou composés. Pour pouvoir tester statiquement des propriétés liées à la composition des services, nous proposons l'utilisation de la théorie des traces et les graphes de dépendances.
195

Modélisation formelle de systèmes Insensibles à la Latence et ordonnancement.

Boucaron, Julien 14 December 2007 (has links) (PDF)
Cette thèse présente de nouveaux résultats liant la théorie des systèmes dits insensibles à la latence, à une sous-classe des réseaux de Pétri dénommée Marked Event Graph et son extension dite Synchronous Data Flow. Ces travaux sont intimement associés avec le problème d'ordonnancement général dénommé problème central répétitif. Nous introduisons les modèles synchrones, Marked Event Graphs, Synchronous Data Flow (SDF) et Latency Insensitive. Après, nous discutons des liens existants entre les modèles synchrones, Marked Event Graphs et Latency Insensitive ; nous montrons que le modèle Latency Insensitive est un cas particulier du modèle Marked Event Graph. Nous présentons ensuite une implémentation vérifiée formellement de Latency Insensitive. Après, nous rappelons un résultat connu : tout Marked Event Graph ayant au moins une partie fortement connexe (et s'évaluant avec une règle d'exécution As Soon As Possible (ASAP)) a un comportement ultimement répétitif : c'est à dire qu'il existe un ordonnancement statique. À partir de ce résultat, nous construisons une technique d'ordonnancement particulière dénommée Égalisation qui altère virtuellement la topologie des communications du système afin de ralentir des chemins trop rapides en rajoutant des "registres", tout en conservant les performances en terme de débit du système originel. Enfin, nous introduisons une notion de contrôle limité au modèle Latency Insensitive, avec des noeuds appelés select et merge dont les conditions sont connueset indépendantes des flots de données, plus exactement les conditions d'aiguillage des données sont dirigées par des mots binaires ultimement périodiques (comme dans le cadre de l'ordonnancement statique). Nous effectuons ensuite une abstraction sur le modèle SDF afin de déterminer si le modèle accepte un ordonnancement où la taille de toute place est bornée. Nous pouvons vérifier ensuite la vivacité du système grâce à une simulation, si le modèle originel disposait d'au moins d'une partie fortement connexe. Finalement, nous concluons et discutons des possibilités de travaux futurs.
196

Une nouvelle approche fonctionnelle pour une assistance géométrique pendant les premières phases de conception de produits

Pallez, Denis 12 January 2000 (has links) (PDF)
Ce mémoire est relatif à la conception assistée par ordinateur et plus particulièrement à la conception fonctionnelle de produits manufacturiers. Notre objectif est de proposer une méthode informatique permettant de construire le plus automatiquement possible la forme d'un produit à partir de ses spécifications (ses fonctions).<br />Le premier chapitre s'intéresse aux outils et aux méthodes, informatiques ou manuelles, d'assistance à la conception fonctionnelle (SADT, FAST ...). Il montre que les spécifications d'un produit s'expriment principalement dans le langage naturel, ce qui rend difficile une quelconque automatisation de la conception à ce niveau. On ressent la nécessité de définir un modèle intermédiaire facilitant un passage moins brusque entre les fonctions et la forme du produit.<br />Le second chapitre traite de la modélisation géométrique du produit, puisque l'objectif principal est de construire sa forme. Il montre que les systèmes informatiques actuels de CAO ne fournissent pas d'assistance à la synthèse de formes. Nous identifions ensuite différentes approches de synthèse de la forme, des approches qui gèrent des informations d'un plus haut niveau sémantique que les habituelles méthodes associées aux modèles géométriques courants (B–Rep, CSG ...).<br />Le troisième chapitre propose une méthode permettant de construire automatiquement un ensemble de formes satisfaisant les spécifications du produit à la condition que ces dernières aient été traduites en un modèle dit intermédiaire. La méthode proposant plusieurs solutions, il est nécessaire de définir la notion d'estimation permettant de comparer les solutions entre elles. La comparaison des solutions permet d'appliquer des méthodes d'optimisation pour choisir les meilleures formes.<br />Le quatrième chapitre étaye l'approche en proposant d'une part une maquette informatique et d'autre part une application dans un cadre industriel : la conception assistée de moules de fonderie à partir d'une définition fonctionnelle du moule.
197

Mise en œuvre d'un langage à mobilité forte

Epardaud, Stephane 18 February 2008 (has links) (PDF)
Afin de résoudre les problèmes liés à l'intégration d'un nombre croissant d'appareils programmables, nous proposons un langage d'agents mobiles. Ces agents mobiles sont capables de migrer d'un appareil ou ordinateur à l'autre afin d'exploiter au mieux ses ressources, ce qui permet de profiter au mieux des capacités de chaque appareil à partir d'un unique programme. Ce langage est ULM: Un Langage pour la Mobilité. Nous présentons dans cette thèse ses fonctionnalités, ses particularités, ainsi que sa mise en œuvre. ULM est un dérivé du langage Scheme, auquel nous avons ajouté les fonctionnalités liées à la mobilité ainsi qu'à l'interaction entre les agents mobiles. ULM possède un ensemble de primitives permettant la création d'agents à mobilité forte, avec un ordonnancement coopératif déterministe, et des primitives de contrôles telles que la suspension ou la préemption faible. Nous présentons dans cette thèse l'intégration de ces primitives dans le langage Scheme, ainsi que leur interaction et l'ajout de certaines nouvelles primitives telles que la préemption forte ou la migration sûre. Nous présentons ensuite la sémantique dénotationnelle du langage et sa mise en œuvre au moyen d'un compilateur vers code-octet, et de deux machines virtuelles: une écrite en Bigloo Scheme pour exécution sur des ordinateurs traditionnels, l'autre écrite en Java ME pour les téléphones portables. Nous présentons ensuite l'utilisation possible d'ULM comme remplacement de programmes écrits pour des boucles d'évènements, l'interface entre ULM et des langages externes, quelques exemples d'utilisation d'ULM, puis les travaux futurs avant de conclure.
198

Contrast enhancement in digital imaging using histogram equalization

Gomes, David Menotti 18 June 2008 (has links) (PDF)
Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original
199

La présence en réalité virtuelle, une approche centrée utilisateur

Bouvier, Patrice 04 December 2009 (has links) (PDF)
Nous présentons une refondation théorique de la réalité virtuelle. Celle-ci est marquée par la conviction profonde de définir la réalité virtuelle comme une expérience médiatisée capable de susciter un sentiment de présence. Ce dernier est défini comme le sentiment authentique d'exister dans un monde autre que le monde physique où le corps se trouve. Nous proposons un éclairage nouveau et global sur le sentiment de présence. Cet éclairage consiste en une approche unifiée de la présence prenant en compte des considérations technologiques, psychologiques et écologiques. Nous avons élaboré un modèle qui identifie les processus menant au sentiment de présence. Selon notre modèle, deux phases inconscientes de jugement conditionnent l'émergence de la présence. Le premier jugement concerne la crédibilité de l'environnement, celle-ci dépend de la satisfaction des attentes intellectuelles et perceptives de l'utilisateur. Le deuxième jugement vise la crédibilité de l'expérience. Nous considérons que ce jugement est positif si un maximum des affordances perçues dans l'environnement est assumé, c'est-à-dire réalisable par l'intermédiaire des schémas d'interaction proposés à l'utilisateur. Nous avons mené une phase d'expérimentations pour valider la pertinence et la cohérence de notre modèle. Notre modèle a de multiples implications. Nous considérons par exemple qu'il peut constituer une grille d'analyse intéressante pour les jeux vidéo. De plus, il incite les concepteurs d'applications en réalité virtuelle à penser en terme d'affordances. Ce dernier point implique donc de faire entrer l'utilisateur très tôt dans la boucle de conception de l'application. Notre vision globale de la réalité virtuelle et de la présence a été mise en pratique notamment lors de la conception de dispositifs de réalité virtuelle transportables et à bas coûts. Sur la base de ce cadre théorique nous présentons un framework de conception d'applications en réalité virtuelle. Puisque l'objectif est la crédibilité et non le réalisme, nous nous intéressons à la réalité perçue de l'environnement et non pas à sa réalité physique. C'est pourquoi, le point de départ de notre framework consiste en un socle de connaissances sur la cognition humaine. Cette base de connaissances sert de vivier d'idées pour les quatre piliers sur lesquels peut s'appuyer le concepteur d'applications en réalité virtuelle. Ces piliers sont l'immersion, l'interaction, les émotions et un quatrième regroupant la boucle sensori-motrice et la multimodalité. Concernant le pilier immersion nous proposons un nouvel algorithme pour le calcul de la réverbération sonore dans un environnement complexe et dynamique. Notre méthode repose sur l'algorithme existant du lancer de frustum mais propose deux optimisations. La première exploite le socle de connaissances sur la cognition humaine pour déterminer une sphère d'acuité sonore. Celle-ci nous sert de cadre pour lancer les frusta depuis l'auditeur et non depuis les sources sonores. Cette deuxième optimisation réduit le nombre de calculs
200

Approches visuelles pour l'amélioration de la présence en réalité virtuelle

Sorbier De Pougnadoresse, François De 27 November 2008 (has links) (PDF)
Le sentiment de présence, but ultime de la réalité virtuelle, peut être atteint en stimulant ces quatre "piliers" que sont l'immersion, l'interaction, le maintien de la boucle action-perception et les émotions. Notre objectif est de proposer des méthodes visant à améliorer ce sentiment en s'intéressant plus particulièrement à la perception visuelle. Dans cette optique, nous proposons tout d'abord une solution appliquant le rendu stéréoscopique sur carte graphique. Traditionnellement effectué en deux passes, ce rendu se fait maintenant en une passe, grâce aux shaders et au regroupement de certaines phases de calculs. Nous étendons ce processus de rendu aux tout récents écrans auto-stéréoscopiques nécessitant plus de deux vues, améliorant d'autant plus les temps de calcul. Pour assurer l'immersion et l'interaction, voire l'émotion, nous avons aussi cherché à diminuer la fatigue oculaire induite par les images stéréoscopiques, en ajoutant un flou de profondeur de champ. Ce flou, obtenu en temps réel grâce aux shaders, permet également d'inviter l'observateur à focaliser son attention sur des objets précis au lieu de laisser son regard errer. Enfin, un objectif pour obtenir le sentiment de présence est de faire croire à l'utilisateur qu'il existe dans la scène virtuelle. Notre contribution à ce but, est d'intégrer de manière naturelle une représentation virtuelle de l'utilisateur. Pour cela, nous créons par visual hulls un avatar à l'aide de caméras. Finalement, cet avatar est employé pour illustrer la présence de l'utilisateur au travers de surfaces réfléchissantes virtuelles ou de la projection de son ombre

Page generated in 0.2683 seconds