• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 433
  • 286
  • 2
  • Tagged with
  • 1499
  • 1499
  • 1499
  • 1499
  • 662
  • 623
  • 245
  • 155
  • 152
  • 110
  • 104
  • 101
  • 99
  • 99
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Un système de maintenance de la vérité à propagation de contextes

Euzenat, Jérome 16 February 1990 (has links) (PDF)
Le raisonnement hypothétique consiste à compléter la connaissance<br />disponible afin de poursuivre un raisonnement. L'aide aux utilisateurs de systèmes de raisonnement hypothétique nécessite la conception d'algorithmes spécifiques, pour pouvoir gérer efficacement les hypothèses et leurs conséquences et pour permettre de poser automatiquement des hypothèses. Cette dernière exigence conduit à implémenter un raisonnement non monotone. Les systèmes de maintenance de la vérité enregistrent les inférences produites par un système de raisonnement sous forme d'un graphe de dépendances et se chargent de garantir la cohérence des formules présentes dans une base de connaissance. Deux types de systèmes de maintenance de la vérité ont été proposés:<br /><br />- Les systèmes à propagation acceptent des inférences non monotones et propagent la validité absolue au sein du graphe de dépendances. L'étiquetage obtenu représente une interprétation du graphe.<br /> <br />- Les systèmes à contextes n'acceptent que des inférences monotones mais propagent des étiquettes dénotant les contextes dans lesquels les formules doivent être présentes. Ils<br />permettent donc de raisonner sous plusieurs contextes<br />simultanément.<br />Le but de ce travail est de concevoir un système qui combine leurs<br />avantages. Il permet de raisonner simultanément sous plusieurs<br />contextes à l'aide d'inférences non monotones. Pour cela, des<br />environnements capables de tenir compte de l'absence d'hypothèses sont définis. Une interprétation est associée à ces environnements et est étendue aux noeuds du graphe de dépendances, en accord avec l'interprétation des systèmes à propagation. Cela permet d'établir la signification des étiquettes associées aux noeuds du graphe, et de proposer de multiples possibilités de soumettre des requêtes au systême. Un systême correspondant à cette caractérisation, le CP-TMS,<br />est implémenté comme une extension des systèmes de maintenance de la vérité à propagation. Cette implementation est décrite ici, puis critiquée.
182

Vers une intégration des systèmes graphiques et audiovisuels

Kuntz, Gilles 03 February 1989 (has links) (PDF)
L'objet du travail de cette thèse est d'apporter une contribution au rapprochement de l'informatique graphique<br />et de l'audiovisuel pour permettre l'utilisation directe des machines audiovisuelles dans les systèmes informatiques
183

Fiabiliser la réutilisation des patrons par une approche orientée complétude, variabilité et généricité des spécifications

Arnaud, Nicolas 13 October 2008 (has links) (PDF)
Les patrons d'ingénierie ont été introduits afin de capitaliser et de réutiliser des savoirs et savoir-faire. Dans l'ingénierie logicielle, leur usage est aujourd'hui reconnu, à tous les niveaux (analyse, conception, ...), comme un gage de qualité. Outre une solution, un patron comporte également de nombreuses informations, en langage naturel, décrivant des contraintes et/ou variantes. Dans cette thèse, nous nous intéressons à l'activité de réutilisation des patrons (que nous appelons « imitation ») d'analyse ou de conception pour lesquels la solution est donnée sous la forme de spécifications orientées objet. L'imitation consiste en une adaptation et une intégration de cette solution par l'ingénieur d'applications qui tiennent compte des autres informations contenues dans le patron. Ainsi, nous dégageons trois axes que nous considérons comme les piliers d'une bonne imitation : la complétude, la variabilité et la généricité des solutions.<br />Nous proposons une nouvelle forme de définition des solutions qui s'appuie sur l'utilisation de plusieurs vues (fonctionnelle, dynamique et statique) ainsi que sur l'utilisation d'un méta-modèle permettant d'une part d'exprimer à partir de la vue fonctionnelle, la variabilité de la solution (fonctionnalités obligatoires, facultatives, optionnelles ou alternatives) et d'autre part d'exprimer l' « essence » de la solution sous la forme de propriétés génériques définissant les bornes des adaptations permises lors de l'imitation. Un processus d'imitation dédié ainsi qu'un premier outillage basé sur l'approche IDM (Ingénierie Dirigée par les Modèles) sont également proposés aux ingénieurs d'applications.
184

Construction et simulation graphiques de comportements : le modèle des Icobjs

Brunette, Christian 20 October 2004 (has links) (PDF)
Intuitivement, une simulation graphique (monde virtuel, jeu,...) peut etre vue comme un espace borne dans lequel plusieurs entites, disposant chacune d'un comportement propre, evoluent en parallele. Il parait donc naturel d'utiliser des langages concurrents pour programmer ces comportements. Cependant, c'est rarement le cas pour des raisons de complexite de programmation et de deboguage, de non-determinisme et d'efficacite. Nous proposons d'utiliser l'Approche Reactive introduite par F. Boussinot qui permet de definir clairement les comportements d'entites graphiques. Nous avons enrichi les Icobjs qui est un modele d'objets reactifs graphiques. Il offre la possibilite a des non-specialistes de construire graphiquement des comportements complexes a partir de comportements simples et de constructeurs graphiques. Nous avons realise une implementation dont l'objet central est Icobj. Il definit une structure minimale dynamiquement extensible pour permettre une construction graphique generique. Un icobj particulier, le Workspace, execute et affiche les icobjs qu'il contient. Les comportements sont executes par un moteur reactif dedie aux Icobjs appele Reflex. Il reprend les principales primitives du formalisme Junior en modifiant la semantique de certaines instructions et en y ajoutant de nouvelles. Toutes les instructions sont formalisees par des regles de reecritures au format SOS. De plus, nous avons developpe un environnement qui permet d'interagir dynamiquement avec les simulations. Enfin, nous presentons quelques experimentations autour de l'utilisation des Icobjs dans le cadre de simulations distribuees, de simulations physiques ou de simulations multi-horloges.
185

Comprendre le fonctionnement de simulations sociales individus-centrées: application à des modèles de dynamiques d'opinions

Amblard, Frédéric 15 December 2003 (has links) (PDF)
Par l'utilisation de l'approche individus-centrée, en particulier pour la modélisation de systèmes sociaux, le modélisateur est souvent confronté au sein même de son modèle, à une des complexités majeures du système réel qu'il cherche à comprendre, à savoir la relation entre comportements individuels et comportements collectifs, qui présente dans le système réel se retrouve, par cette approche, présente également dans son modèle. Dès lors il se retrouve face à un modèle dont il ne peut que difficilement comprendre le fonctionnement même s'il en connaît les règles de fonctionnement au niveau individuel. Nous proposons ici le recours à une démarche expérimentale pour la compréhension de modèles de simulation sociale individus-centrés. De manière à cerner l'objet de cette démarche, nous exposons tout d'abord un cadre formel pour l'expression de modèles individus-centrés, qui nous permettra d'englober plusieurs grands types de modèles (automates cellulaires, microsimulation, simulation multi-agents notamment). Nous présenterons ensuite les modèles individus-centrés de l'influence sociale rencontrés dans la littérature en utilisant ce formalisme comme grille de lecture pour tenter de représenter le spectre des comportements possibles que l'on peut introduire dans le modèle. Dans une deuxième partie, nous nous intéresserons à la démarche expérimentale comme accompagnement pour la compréhension du modèle. Nous présenterons tout d'abord les différents points de vue sur le modèle que peut prendre le modélisateur (individuel, collectif, population de simulations notamment) et nous argumenterons sur la nécessaire complémentarité entre ces points de vue dans le but de comprendre le fonctionnement du modèle. Nous proposerons ensuite un environnement dédié à la gestion des plans d'expérience sur des modèles de simulation destiné à accompagner l'exploration systématique de l'espace des paramètres d'un modèle. Nous présenterons enfin une méthodologie incrémentale de construction des modèles pour nous permettre d'obtenir une compréhension construite et croissante du fonctionnement de modèles complexes envisagés comme une collection de modèles de complexité croissante. Dans une dernière partie, nous mettrons en pratique les éléments abordés précédemment en présentant une série de modèles de dynamiques d'opinions dont la compréhension est enrichie en étudiant tout d'abord des modèles très simples puis en complexifiant progressivement les modèles étudiés. Nous aborderons ainsi successivement un modèle d'interaction conditionnel en population homogène, nous ferons ensuite évoluer la dynamique des agents de ce modèle, puis nous introduirons de l'hétérogénéité dans le modèle pour finir par étudier son comportement lorsque l'on introduit un réseau social.
186

Une approche de l'édition structurée des documents

Quint, Vincent 04 May 1987 (has links) (PDF)
L'édition d'un document peut être vue comme la manipulation d'une structure abstraite qui représente<br />l'organisation logique des composants du document. A partir de ce principe, on propose un méta-modèle<br />qui permet la description des structures logiques de toutes sortes de documents et de différents types<br />d'objets fréquents dans les documents : formules mathématiques, tableaux, schémas, etc... on associe aux<br /> structures logiques des règles de présentation qui déterminent l'aspect graphique de leurs composants.<br /> On montre l'intérêt de cette approche en présentant deux systèmes interactifs construits sur ce modèle :<br /> l'éditeur de formules mathématiques Edimath et l'éditeur de documents Grif. La présentation de ces systèmes<br />s'appuie sur un état de l'art de la typographie informatique.
187

Techniques d'intervalles pour la résolution de systèmes d'équations

Chabert, Gilles 19 January 2007 (has links) (PDF)
Cette thèse porte sur la résolution numérique de systèmes d'équations non-linéaires. Elle présente des contributions dans trois sous-domaines utilisant le calcul par intervalles : l'analyse par intervalles, les intervalles modaux et la programmation par contraintes. Le traitement des systèmes linéaires est au centre de plusieurs des travaux. Il sert notamment de base à la résolution dans le cas non-linéaire. En analyse par intervalles, nous proposons une extension de la méthode de Hansen-Bliek pour l'approximation extérieure optimale de l'ensemble des solutions d'un système linéaire dont les coefficients varient dans des intervalles. L'extension proposée prend en compte la possibilité de choisir le quanticateur (existentiel ou universel) associé à certains coefficients du système. Cette liberté permet de modéliser un plus large éventail de problèmes linéaires, notamment ceux obtenus itérativement à partir de l'opérateur de Newton (intervalle) généralisé. Une généralisation de la décomposition LU exploitant l'arithmétique de Kaucher est également proposée. Sur les intervalles modaux, nous proposons une construction originale de la théorie qui s'articule autour de la notion d'image quantiée, généralisation naturelle de la notion d'image d'une fonction. La construction proposée présente certains avantages, comme celui de pouvoir donner un sens plus concret à l'arithmétique de Kaucher. En programmation par contraintes, nous étudions de nouvelles cohérences partielles reposant sur la structure d'unions d'intervalles. Cette structure peut être utilisée pour représenter plus nement le domaine des variables dans des systèmes de contraintes numériques. Nous montrons notamment dans quelle mesure, et à quel coût, la propriété d'arc-cohérence peut ainsi être obtenue grâce à cette nouvelle représentation.
188

Une approche qualitative spatiale pour une description sémantique des reliefs

Chevriaux, Yann 21 January 2008 (has links) (PDF)
L'objectif des travaux présentés dans cette thèse est de poser les fondements d'une formalisation qui permettrait, d'une part la description d'une représentation numérique de terrain dans un langage intelligible à destination d'observateurs localisés au sol et, d'autre part, de faciliter les échanges entre des communautés scientifiques disposant de corpus sémantiques différents.<br />Nous cherchons à décrire une silhouette - i.e., une coupe de terrain ou la séparation terre/ciel à l'horizon - selon la perception que peut en avoir un observateur. Nous introduisons un modèle, fondé sur une approche qualitative, qui consiste à décrire une silhouette par une séquence de symboles signifiants. L'utilisateur ayant la possibilité de définir ses propres catégories, le modèle possède la capacité de s'adapter à différents contextes.<br />L'originalité de notre modèle repose dans la méthode de détection des formes significatives. Nous nous ecartons volontairement des méthodes numériques généralement utilisées dans les systèmes de détection ou de reconnaissance de forme. Nous considérons que la perception d'une forme particulière de relief est contingente de la perception de saillances, définies ici comme des points qualitativement remarquables. La description d'une silhouette inclut les relations topologiques qui relient les formes de relief détectées. Afin de tenir compte de l'imprécision des frontières des formes de relief, nous proposons une extension de la méthode 9-intersection. Les relations méréologiques, quant à elles, nous sont utiles pour dériver des représentations à différents niveaux d'abstraction.<br />Nous avons implanté le modèle en Java. Le prototype réealisé permet de définir des catégories, d'analyser des silhouettes, de déterminer les relations topologiques qui lient les formes détectées et d'obtenir une description à différents niveaux d'abstraction.<br />Cette thèse a bénéficié du soutien financier de la Région Bretagne.
189

Un modèle général de recherche d?information :<br>Application à la recherche de documents techniques par des professionnels

Kefi-Khelif, Leila 27 October 2006 (has links) (PDF)
En recherche d'information, les particularités relatives au contexte de recherche de l'utilisateur induisent certains besoins qu'il est nécessaire de prendre en compte dans la modélisation du système de recherche. Dans notre travail de thèse, nous nous situons dans un contexte où l'utilisateur a une mémoire des documents qu'il désire retrouver : son besoin est alors une description d'un document idéal, reflet du souvenir qu'il a de ces documents. Dans ce contexte de recherche particulier, nous proposons un modèle de recherche d'information fondé sur (i) un langage complexe (des entités inter reliées avec utilisation multiple d'une même entité dans la description du document et du besoin), (ii) des critères d'obligation/option et de certitude/incertitude, rattachés aux éléments de la requête, qui reflètent les doutes de l'utilisateur quant au contenu des documents susceptibles de l'intéresser et (iii) une fonction de correspondance prenant en compte les contraintes liées à la représentation des documents et des requêtes ainsi qu'une approche pour la reformulation du besoin fondée sur les jugements de pertinence de l'utilisateur et sur les caractéristiques communes des documents retenus (par rapport aux critères rattachés à la requête). Ce modèle est par la suite appliqué dans le cadre concret d'une application : la recherche de graphiques dans les documents techniques par des utilisateurs professionnels. À travers cette application, nous validons notre approche (prise en compte des critères d'obligation/option et de certitude/incertitude) en comparant notre modèle aux modèles classiques existants.
190

Reconnaissance automatique de la parole non native

Tien Ping, Tan 03 July 2008 (has links) (PDF)
Les technologies de reconnaissance automatique de la parole sont désormais intégrées dans de nombreux systèmes. La performance des systèmes de reconnaissance vocale pour les locuteurs non natifs continue cependant à souffrir de taux d'erreur élevés, en raison de la différence entre la parole non native et les modèles entraînés. La réalisation d'enregistrements en grande quantité de parole non native est souvent difficile et peu réaliste pour représenter toutes les origines des locuteurs. <br />Dans cette thèse, nous proposons des approches pour adapter les modèles acoustiques et de prononciation sous différentes conditions de ressource pour les locuteurs non natifs. Un travail préliminaire sur l'identification d'accent a également proposé.<br />Ce travail de thèse repose sur le concept de modélisation acoustique translingue qui permet de représenter les locuteurs non natifs dans un espace multilingue sans utiliser (ou en utilisant très peu) de parole non native. Une approche hybride d'interpolation et de fusion est proposée pour l'adaptation des modèles en langue cible en utilisant une collection de modèles acoustiques multilingues. L'approche proposée est également utile pour la modélisation du contexte de prononciation. Si, en revanche, des corpus multilingues sont disponibles, des méthodes d'interpolation peuvent être utilisées pour l'adaptation à la parole non native. Deux d'entre elles sont proposées pour une adaptation supervisée et peuvent être employées avec seulement quelques phrases non natives.<br />En ce qui concerne la modélisation de la prononciation, deux approches existantes (l'une fondée sur la modification du dictionnaire de prononciation, l'autre fondée sur la définition d'un score de prononciation utilisé dans une phase de re-scoring) sont revisitées dans cette thèse et adaptées pour fonctionner sur une quantité de données limitée. Une nouvelle approche de groupement de locuteurs selon leurs habitudes de prononciation, est également présentée : nous l'appelons « analyse de prononciation latente ». Cette approche se révèle également utile pour améliorer le modèle de prononciation pour la reconnaissance automatique de la parole non native.<br />Enfin, une méthode d'identification d'accent est proposée. Elle nécessite une petite quantité de parole non native pour créer les modèles d'accents. Ceci est rendu possible en utilisant la capacité de généralisation des arbres de décision et en utilisant des ressources multilingues pour augmenter la performance du modèle d'accent.

Page generated in 0.1236 seconds