• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modélisation et animation interactive de visages virtuels de dessins animés

Monjaux, Perrine 10 December 2007 (has links) (PDF)
La production de dessins animés 2D qui suit actuellement un schéma mis en place dans les années 1920 fait intervenir un très grand nombre de compétences humaines et de métiers différents. Par opposition à ce mode de travail traditionnel, la production de films de synthèse 3D, en exploitant les technologies et les outils les plus récents de modélisation et d'animation 3D, s'affranchit en bonne partie de cette composante artisanale et vient concurrencer l'industrie du dessin animé traditionnel en termes de temps et coûts de fabrication. <br />Les défis à relever par l'industrie du dessin animé 2D se posent donc en termes de :<br />1. Réutilisation des contenus selon le paradigme d'accès «Create once, render many»,<br />2. Facilité d'échange et de transmission des contenus ce qui nécessite de disposer d'un unique format de représentation,<br />3. Production efficace et économique des contenus requérant alors une animation automatisée par ordinateur.<br />Dans ce contexte compétitif, cette thèse, réalisée dans le cadre du projet industriel TOON financé par la société Quadraxis (www.quadraxis.com) et supporté par l'Agence Nationale de Valorisation de la Recherche (ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D de visages pour les dessins animés 2D. Vecteurs de la parole et des expressions, les visages nécessitent en effet une attention particulière quant à leur modélisation et animation conforme aux souhaits des créateurs de dessins animés. <br />Un état de l'art des méthodes, outils et systèmes contribuant à la création de modèles 3D faciaux et à leur animation est présenté et discuté au regard des contraintes spécifiques qui régissent les règles de création des dessins animés 2D et la chaîne de fabrication traditionnelle.<br />Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur :<br /> l'élaboration d'une méthode de conception de visages virtuels 3D à partir d'une part d'un modèle 3D de type seamless, adapté aux exigences d'animation sans rupture, et d'autre part d'un ensemble de dessins 2D représentant les caractéristiques faciales,<br /> la mise au point d'une procédure de création de poses clés, mettant en œuvre plusieurs méthodes de déformation non-rigide,<br /> la conception d'un module d'animation 3D compatible avec le standard MPEG-4/AFX. <br /><br />Les développements réalisés, intégrés dans un premier prototype de la plate-forme FaceTOON, montrent un gain en temps de 20% sur l'ensemble de la chaîne de production tout en assurant une complète interopérabilité des applications via le standard MPEG-4.
62

Automates cellulaires : dynamiques, simulations, traces

Guillon, Pierre 24 November 2008 (has links) (PDF)
Un automate cellulaire est un système dynamique discret qui modélise des objets ayant une évolution parallèle synchrone: l'espace est divisé en cellules ayant chacune un état et qui évoluent toutes selon une même règle locale, qui ne dépend que d'un nombre fini de cellules voisines. Malgré la simplicité de la formalisation de ce système, des comportements très complexes peuvent apparaître, qui en font notamment un modèle de calcul. Cette complexité a été rattachée à diverses théories: topologie, mesure, décidabilité, information...Nous adoptons ici une approche basée sur la dynamique symbolique, c'est à dire l'étude des mots infinis sur un alphabet donné auxquels on applique un décalage, suppression de la première lettre. À chaque automate cellulaire peut en effet être associé son tracé, l'ensemble des mots infinis représentant la séquence des états successifs pris par la cellule centrale de l'espace - ou un groupe de cellules centrales. On a alors une factorisation topologique: la lecture d'une lettre dans un de ces mots correspond exactement à une étape de l'évolution de l'automate. De nombreuses propriétés topologiques sont alors transmises par cette factorisation. Inversement, le fait que les cellules évoluent toutes de la même manière permet de déduire certaines propriétés de l'automate à partir de celles de son tracé. La première partie de la thèse est consacrée à ces nombreux liens. Une deuxième partie présente des conditions suffisantes pour qu'un ensemble de mots infinis soit le tracé d'un automate cellulaire. Enfin, une troisième partie donne un point de vue plus informatique, en récapitulant les principaux résultats d'indécidabilité sur le sujet et en prouvant que toutes les propriétés du tracé qui peuvent se voir infiniment tard sont indécidables
63

Quantification de variables conjuguées par états cohérents

García De León, Pedro Lenin 07 July 2008 (has links) (PDF)
Dans ce travail on se concentre sur une méthode alternative de quantification a travers des états cohérents. La méthode canonique associe un pair de variables conjuguées classiques et identifie leur crochet de Poisson au commutateur quantique de ses observables quantiques correspondantes. Les observables sont définies comme des opérateurs auto-adjoints agissant sur un espace de Hilbert particulier. Leurs valeurs physiques se trouvent dans leur résolution spectrale, et pourtant sont liés à une mesure à valeur projection (PV). Néanmoins, il existe un empêchement lorsqu'on impose des bornes sur les ces spectres. Cette restriction sur la définition des opérateurs est décrite par un théorème de W. Pauli et ouvre la voie vers la définition de méthodes alternatives de quantification. La quantification par états cohérents propose une définition d'observable quantique qui prend des valeurs à travers la valeur moyenne sur une famille " cohérente " non-orthogonale et surcomplète de vecteurs dans l'espace de Hilbert. Les états cohérents définis à cet effet partagent avec ceux de oscillateur harmonique la propriété d'être des résolutions de l'identité et d'être parametrisés par un indice discret et une variable complexe. Ceci les rend particulièrement utiles pour " traduire " des variables classiques en opérateurs quantiques bien définis. On a étudié trois cas particuliers ou la définition d'opérateurs auto-adjoints est compromise. En premier on propose une définition de l'opérateur de phase, correspondant à l'angle conjugué à l'action classique. En deuxième place on étudie la quantification du mouvement dans un puits infini de potentiel, notamment, l'opérateur d'impulsion problématique est défini proprement. Finalement ont propose un opérateur temps, conjugué au Hamiltonien, pour une particule libre en utilisant des états cohérents de type SU(1,1) sur des demi plans de Poincaré
64

Un modèle génératif pour le développement de serveurs Internet

Loyauté, Gautier 05 September 2008 (has links) (PDF)
Les serveurs Internet sont des logiciels particuliers. Ils doivent répondre aux demandes d'un grand nombre de clients distants, supporter leur évolution et être robustes car ils ne s'arrêtent jamais. Les modèles de concurrence permettent d'entrelacer les traitements d'un grand nombre de clients. Aucun consensus ne se dégage sur un meilleur modèle. Pour s'abstraire du modèle de concurrence, je propose un modèle de développement de serveurs Internet. Les outils de vérification formelle permettent d'accroître la sûreté des logiciels mais il est nécessaire de leur fournir un modèle simple du logiciel. Le modèle de développement que je propose est utilisé pour générer le serveur et son modèle formel. Le décodage d'une requête cliente dépend du modèle de concurrence. Je propose d'utiliser un générateur d'analyseur syntaxique qui s'abstrait de ce problème et automatise le développement du décodage
65

Infrastructure P2P pour la distribution de contenu

El Dick, Manal 21 January 2010 (has links) (PDF)
Le Web connaît ces dernières années un essor important qui implique la mise en place de nouvelles solutions de distribution de contenu répondant aux exigences de performance, passage à l'échelle et robustesse. De plus, le Web 2.0 a favorisé la participation et la collaboration entre les utilisateurs tout en mettant l'accent sur les systèmes P2P qui reposent sur un partage de ressources et une collaboration décentralisée. Nous avons visé, à travers cette thèse, la construction d'une infrastructure P2P pour la distribution de contenu. Toutefois, cette tâche est difficile étant donné le comportement dynamique et autonome des pairs ainsi que la nature des overlays P2P. Dans une première étape, nous nous intéressons au partage de fichiers en P2P. Nous abordons le problème de consommation de bande passante sous deux angles : l'inefficacité de la recherche et les transferts de fichiers longue distance. Notre solution Locaware consiste à mettre en cache des index de fichiers avec des informations sur leurs localités. Elle fournit également un support efficace pour les requêtes par mots clés qui sont courantes dans ce genre d'applications. Dans une deuxième étape, nous élaborons une infrastructure CDN P2P qui permet à tout site populaire et sous-provisionné de distribuer son contenu, par l'intermédiaire de sa communauté d'utilisateurs intéressés. Pour un routage efficace, l'infrastructure Flower-CDN combine intelligemment différents types d'overlays avec des protocoles épidémiques tout en exploitant les intérêts et les localités des pairs. PetalUp-CDN assure le passage à l'échelle alors que les protocoles de maintenance garantissent la robustesse face à la dynamicité des pairs. Nous évaluons nos solutions au travers de simulations intensives ; les résultats montrent des surcoûts acceptables et d'excellentes performances, en termes de taux de hit et de temps de réponse.
66

Formalisation Multi-Agents de la Sociologie de l'Action Organisée

Mailliard, Matthias 02 December 2008 (has links) (PDF)
Bien souvent utilisée comme outils d'intégration et d'échange entre les différentes parties de projets scientifiques interdisciplinaires, la simulation numérique est en plein essor dans les sciences sociales, et notamment la simulation multi-agents. En effet, la capacité de calcul de plus en plus puissante des ordinateurs et les méthodes de recherche individu-centrées en sciences sociales (micro-économie ou individualisme méthodologique, pour ne citée que celles-ci) ont suscité un intérêt croissant pour la représentation logicielle de processus interagissant les un avec les autres dans le cadre d'un phénomène qualifié de complexe. Notre thèse se positionne ainsi dans ce contexte, plus particulièrement au niveau des relations causales entre des comportements microscopiques en interaction et un phénomène macroscopique émergeant. Notre travail de recherche s'inscrit dans un projet mené en collaboration avec des sociologues qui vise à rendre compte de phénomènes organisationnels. Plutôt que de s'emparer de cas empiriques et de produire des modèles ad'hoc, nous proposons une démarche innovante consistant à formaliser une théorie sociologique : la Sociologie de l'Action Organisée (SAO) de M. Crozier et E. Friedberg. L'intérêt d'une telle modélisation est de disposer d'un méta-modèle sociologiquement fondé permettant de modéliser de façon formelle différentes organisations relevant de son champ d'expertise. Nous proposons de mettre en œuvre cette formalisation via un laboratoire virtuel, SocLab, permettant d'éditer le modèle d'une organisation puis de mener des expériences et tester nos hypothèses. Du méta-modèle de la SAO à l'outil d'expérimentation SocLab, notre thèse propose une démarche méthodologique pour l'analyse organisationnelle assistée par l'expérimentation virtuelle. Dans la perspective d'analyser la causalité émergente des processus organisationnels, nous avons défini une série d'indicateurs numériques qui servent de base aux interprétations indispensables à la vérification et la validation d'un modèle. Ces indicateurs permettent de caractériser acteurs, relations, et transactions dans les termes de la SAO et de comparer différents modèles, d'une même organisation ou d'organisations différentes. Nous présentons ensuite un modèle d'agent adaptatif à base de règles qui rend compte du comportement stratégique des acteurs dont la rationalité est orientée vers la coopération tel que le postule la SAO. Nous présentons par ailleurs une méthodologie de validation des modèles de rationalité. Enfin nous illustrons notre démarche avec un cas d'étude issu du corpus SAO, que nous modélisons, soumettons à diverses hypothèses, que nous interprétons et (in)validons par la simulation. Outre la démarche de formalisation de la SAO et le développement du laboratoire virtuel SocLab, la thèse présente de nombreuses originalités que ce soit au niveau des concepts développés autour de l'échange et de la coopération, au niveau du modèle d'agent stratégique-coopératif, ou au niveau des outils d'analyse produits ou mis en œuvre. L'intérêt principal réside dans le développement d'une démarche rigoureuse couvrant de nombreux aspects de l'utilisation de l'expérimentation virtuelle en sociologie qui devrait permettre au chercheur, à l'étudiant comme aux consultants en organisation de produire des raisonnements solides sur le /phénomène organisation/.
67

Structuration statistique de données multimédia pour la recherche d'information

Gelgon, Marc 30 November 2007 (has links) (PDF)
L'unité du travail réside en ce qu'on s'intéresse à la recherche de structure dans les données numériques (issues de données multimédia), en vue d'y faciliter la recherche d'information. Le cadre méthodologique de la résolution est que nous privilégions ici celui des modèles probabi- listes, en particulier les mélanges de lois, et de l'estimation statistique associée. La recherche de structure implique que le jeu de données étudié est composé de sous-populations de caracté- ristiques distinctes : il s'agit de séparer et de caractériser ces sous-populations, deux problèmes fortement imbriqués. Les entités extraites et les attributs qu'on en leur associe seront alors directement utiles pour la recherche d'information.
68

Apprentissage actif par modèles locaux

Bondu, Alexis 24 November 2008 (has links) (PDF)
Les méthodes d'apprentissage statistiques exploitent des exemples, pour enseigner un comportement à un modèle prédictif. La classification supervisée requiert des exemples étiquetés. En pratique, l'étiquetage des exemples peut se révélé coûteux. Dans certain cas, l'étiquetage implique un expert humain, un instrument de mesure, un temps de calcul élevé...etc. Les méthodes d'apprentissage actif réduisent le coût de préparation des données d'apprentissage. Ces méthodes cherchent à étiqueter uniquement les exemples les plus utiles à l'apprentissage d'un modèle. Les travaux présentés dans ce manuscrit sont réalisés dans le cadre de l'échantillonnage sélectif, qui n'autorise pas les stratégies actives à générer de nouveaux exemples d'apprentissage. Les stratégies actives de la littérature utilisent généralement des modèles globaux à l'espace des variables d'entrées. Nous proposons dans ce manuscrit une stratégie originale qui effectue un partitionnement dichotomique récursif de l'espace d'entrée. Cette stratégie met en compétition les modèles locaux à chacune des zones, pour choisir les exemples à étiqueter. Notre stratégie décide “quand” couper une zone et “où” la couper. Une amélioration possible consiste `a exploiter une méthode de discrétisation pour prendre ces deux décisions. L'extension de l'approche de discrétisation MODL au cas de l'apprentissage semi-supervisé constitue un des apports majeurs de cette thèse. Nous proposons une deuxième amélioration qui consiste à sélectionner, localement à la meilleure zone, l'exemple le plus utile à l'apprentissage du modèle local. Nous proposons une stratégie active originale, qui maximise la probabilité des modèles de discrétisation connaissant les données et l'exemple candidat à l'étiquetage.
69

Scheduling Pipelined Applications: Models, Algorithms and Complexity

Benoit, Anne 08 July 2009 (has links) (PDF)
In this document, I explore the problem of scheduling pipelined applications onto large-scale distributed platforms, in order to optimize several criteria. A particular attention is given to throughput maximization (i.e., the number of data sets that can be processed every time unit), latency minimization (i.e., the time required to process one data set entirely), and failure probability minimization. First, I accurately define the models and the scheduling problems, and exhibit surprising results, such as the difficulty to compute the optimal throughput and/or latency that can be obtained given a mapping. In particular, I detail the importance of the communication models, which induce quite different levels of difficulty. Second, I give an overview of complexity results for various cases, both for mono-criterion and for bi-criteria optimization problems. I illustrate the impact of the models on the problem complexity. Finally, I show some extensions of this work to different applicative contexts and to dynamic platforms.
70

Extraction de motifs séquentiels dans les flux de données

Marascu, Alice 14 September 2009 (has links) (PDF)
Ces dernières années ont vu apparaître de nombreuses applications traitant des données générées en continu et à de grandes vitesses. Ces données sont désormais connues sous le nom de flux de données. Leurs quantités de données potentiellement infinies ainsi que les contraintes qui en dérivent posent de nombreux problèmes de traitement. Parmi ces contraintes, citons par exemple l'impossibilité de bloquer un flux de données, ou encore le besoin de produire des résultats en temps réel. Néanmoins, les multiples domaines d'application de ces traitements (comme les transactions bancaires, l'usage du Web, la surveillance des réseaux, etc) ont suscité beaucoup d'intérêt tant dans les milieux industriels qu'académiques. Ces quantités potentiellement infinies de données interdisent tout espoir de stockage complet ; toutefois, on a besoin de pouvoir interroger l'historique des flux. Cela a conduit au compromis des « résumés » des flux de données et des résultats « approximatifs ». Aujourd'hui, un grand nombre de méthodes propose différents types de résumés des flux de données. Mais le développement incessant de la technologie et des applications afférentes demande un développement au moins équivalent des méthodes d'analyse et de résumé. De plus, l'extraction de motifs séquentiels y est encore peu étudiée: au commencement de cette thèse, il n'existait aucune méthode d'extraction de motifs séquentiels dans les flux de données. Motivés par ce contexte, nous nous sommes intéressés à une méthode qui résume les flux de données d'une manière efficace et fiable et qui permet principalement d'en extraire des motifs séquentiels. Dans cette thèse, nous proposons l'approche CLARA (CLAssification, Résumés et Anomalies). CLARA permet d'obtenir des clusters à partir d'un flux de séquences d'itemsets, de calculer et gérer des résumés de ces clusters et d'y détecter des anomalies. Les différentes contributions détaillées dans ce mémoire concernent: - La classification non supervisée de séquences d'itemsets sous forme de flux. A notre connaissance, cette technique est la première à permettre une telle classification. - Les résumés de flux de données à l'aide de l'extraction de motifs. Les résumés de CLARA sont composés de motifs séquentiels alignés représentant les clusters associés à leur historique dans le flux. L'ensemble de ces motifs permet de résumer le flux de manière fiable à un instant t. La gestion de l'historique de ces motifs est un point essentiel dans l'analyse des flux. CLARA introduit une nouvelle gestion de la granularité temporelle afin d'optimiser cet historique. - La détection d'anomalies. Cette détection, quand elle concerne les flux, doit être rapide et fiable. En particulier, les contraintes liées aux flux interdisent de consulter l'utilisateur final pour ajuster des paramètres (une anomalie détectée trop tard peut avoir de graves conséquences). Avec CLARA, cette détection est automatique et auto-adaptative. Nous proposerons également un cas d'étude sur des données réelles, réalisé en collaboration avec Orange Labs.

Page generated in 0.0834 seconds