• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 433
  • 286
  • 2
  • Tagged with
  • 1499
  • 1499
  • 1499
  • 1499
  • 662
  • 623
  • 245
  • 155
  • 152
  • 110
  • 104
  • 101
  • 99
  • 99
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Lexicographie et dictionnaires électroniques. Des usages linguistiques aux bases de données lexicales

Monteleone, Mario 08 December 2003 (has links) (PDF)
La thèse de M. Mario Monteleone est intitulée Lexicographie et dictionnaires électroniques. Des usages linguistiques aux bases de donnés lexicales et concerne les rapports (existants et potentiels) entre la lexicographie classique et la linguistique informatique. En particulier, M. Monteleone essaie à établir si certaines limites analytiques de la lexicographie peuvent être dépassées par l'application des méthodes de recherche de la linguistique informatique. Dans ce but, M. Monteleone effectue une analyse détaillée soit des deux disciplines, soit des leurs instruments classiques, i.e. les dictionnaires papier et les dictionnaires électroniques, du point de vue de leurs méthodes de constructions et de leurs domaines d'application. Il en résulte un vade-mecum pour les lexicographes classiques et informatiques, focalisé sur le repérage et le classement des données linguistiques pour la réalisations de dictionnaires papier et électroniques.
302

Propriétés syntaxico-sémantiques des verbes à complément en -e en coréen

Kim, So-Yun 06 December 2010 (has links) (PDF)
Cette étude est une classification générale des constructions verbales et une description des propriétés syntaxico-sémantiques des verbes à complément essentiel introduit par la postposition e en coréen. Ce travail a pour modèle théorique le lexique-grammaire, qui a été élaboré par M. Gross (1975), sur la base des principes de Z. S. Harris (1968). Dans cette étude, nous avons examiné les propriétés syntaxico-sémantiques des 3000 verbes demandant ce complément et nous les avons regroupés en 8 classes. Ces propriétés constitueront des informations syntaxiques qui servent à l'analyse de structure d'une phrase et au traitement automatique des textes en coréen.
303

Délimitation et étiquetage des morphèmes en coréen par ressources linguistiques

Huh, Hyun Gue 28 June 2005 (has links) (PDF)
Nous présentons un système de délimitation morphologique des textes coréens par automates à états finis. Le Coréen est une langue agglutinante et notre système peut probablement être adapté aux autres langues agglutinantes à suffixes (hongrois, finnois, turc). Les textes coréens s'écrivent principalement avec l'alphabet Hangul qui est un ensemble de caractères syllabiques. Il est possible de les mélanger avec des idéogrammes et des caractères de l'alphabet latin. Nous utilisons le système de codage de caractères UNICODE dans lequel les syllabes coréennes sont rangées par ordre alphabétique. Pour certains traitements sur les syllable coréennes, nous décomposons chaque syllable en plusieurs caractères alphabétiques coréens. Les mots coréens reçoivent des affixes. Pour le nom, un mot peut avoir plusieurs suffixes sans compter les suffixes dérivés, le nombre maximal de combinaisons étant d'environ 1600. Notre première étape pour l'analyse des textes coréens est la description des morphèmes d'un mot pour le segmenter à l'aide des séparateurs : blanc et symboles. Et on segmente encore les segments en morphèmes. Pour pouvoir analyser les segments, nous construisons des dictionnaires de racines et de séquences de suffixes. Nous utilisons les transducteurs pour représenter les compatibilités entre des morphèmes : racines et suffixes avec l'interface graphique de UNITEX. Ils sont conçus de manière à être construits et maintenus manuellement. Notre méthode est fondée sur des ressources linguistiques alors que la plupart des systèmes d'analyse morphologique sont fondés sur des données statistiques. Nous intégrons automatiquement les dictionnaires de racines et les transducteurs des suffixes en un transducteur unique, qui remplit la fonction d'un dictionnaire. Le résultat de l'analyse d'un texte se présente sous la forme d'un automate pour rendre compte de l'ambiguité du découpage en morphèmes. Les transitions sont étiquetés par des morphèmes annotés d'informations linguistiques (forme canonique, forme fléchie et informations linguistiques).
304

Recensement et description des mots composés - méthodes et applications

Savary, Agata 14 December 2000 (has links) (PDF)
Ce mémoire décrit les recherches en informatique linguistique menées par l'auteur dans le domaine des mots composés, et plus spécialement de la composition nominale en anglais général et spécialisé. Le point de départ pour toutes les recherches présentées a été le système de traitement automatique de grands corpus, INTEX. Nous nous sommes penchée sur le problème du recensement des mots composés à grande échelle. Nous avons essayé de répondre aux questions suivantes : Comment ce recensement peut être effectué ? Est-il utile de le réaliser ? La réponse à la première question est donnée dans le contexte de la création de dictionnaires électroniques, sous formats disponibles dans le système INTEX. Nous analysons la morphologie flexionnelle des noms composés en trois langues : le français, l'anglais et le polonais. Nous proposons une méthode formelle de description du comportement flexionnel des composés, ainsi qu'un algorithme qui génère automatiquement leurs formes fléchies. Nous décrivons la construction de deux dictionnaires électroniques : l'un pour les mots composés de l'anglais général, l'autre pour les termes simples et composés anglais du domaine de l'informatique. Nous présentons une bibliothèque d'automates et de transducteurs finis pour la reconnaissance des déterminants numéraux cardinaux et ordinaux de l'anglais. L'intérêt de la création de bases lexicales pour les mots composés est vérifié dans deux types d'applications du TALN. Premièrement, nous présentons une méthode d'acquisition de terminologie, basée sur l'emploi de ressources terminologiques initiales. Deuxièmement, nous proposons un algorithme de correction orthographique des mots simples et composés, basé sur la consultation d'un dictionnaire sous format d'automate fini.
305

Une infrastructure pour l'optimisation de systèmes embarqués évolutifs à base de composants logiciels

Navas, Juan 06 May 2011 (has links) (PDF)
Concernant la partie logicielle des systèmes embarqués, on constate le besoin d'un modèle de la structuration du logiciel qui facilite le processus de développement, la capacité de faire évoluer le comportement du système lors de son exécution, afin de s'adapter aux changements de son environnement, et la prise en compte des limitations des ressources physiques des plates-formes d'exécution. L'utilisation de composants logiciels est une approche de conception qui, via l'abstraction des détails techniques, facilite la gestion de la complexité du logiciel. La question que nous nous posons est: comment les composants doivent être développés de façon à satisfaire les exigences liées aux fortes contraintes physiques et au besoin d'évolution du logiciel ? Pour y répondre, nous introduisons a notion de réification de composant. Une réification est une collection de données et de comportements qui encapsulent des aspects du composant à un moment précis de son cycle de vie. Nous proposons ensuite des techniques d'optimisation pour la génération du code "glue" qui assure l'interopérabilité des composants, afin de satisfaire les contraintes liées aux ressources limitées. Elles rendent possible la définition de niveaux d'optimisation pour chaque instance des entités du modèle à composants, ce qui nous permet de régler la performance du logiciel en fonction de ses besoins (extra) fonctionnels. Ensuite, nous définissons quatre profils d'évolution en fonction des caractéristiques d'évolution de chaque entité du modèle, et nous mettons en place des infrastructures d'évolution adaptées aux besoins d'évolution du système, couplées avec les exigences de performance du logiciel.
306

Typer la désérialisation sans sérialiser les types

Henry, Grégoire 17 June 2011 (has links) (PDF)
Le typage statique des langages de programmation garantit des propriétés de sûreté d'exécution des programmes et permet l'usage de représentations de données dénuées d'informations de types. En présence de primitives de (dé)sérialisation, ces données brutes peuvent invalider les propriétés apportées par le typage statique. Il est alors utile de pouvoir tester dynamiquement la compatibilité des données lues avec le type statique attendu. Cette thèse définit, dans le cadre des langages de programmation basés sur un système de types avec polymorphisme paramétrique et utilisant une représentation uniforme des données, une notion de compatibilité d'un graphe mémoire (désérialisé) avec un type ; cette notion s'exprime sous la forme de contraintes de types sur les nœuds du graphe mémoire. Cette formalisation permet de construire un mécanisme de résolution de contraintes par réécriture, puis un algorithme de vérification de compatibilité d'un graphe mémoire avec un type. Les propriétés de correction et de complétude de l'algorithme obtenu sont étudiées en présence de types algébriques, de données modifiables, de cycles et de valeurs fonctionnelles. Cette thèse propose également un prototype pour le compilateur OCaml.
307

Modéliser l'acquisition de la syntaxe du langage naturel via l'hypothèse de la primauté du sens

Tellier, Isabelle 08 December 2005 (has links) (PDF)
L'objet de ce travail est la modélisation informatique de la capacité d'apprentissage de la syntaxe de leur langue naturelle par les enfants. Une synthèse des connaissances psycho-linguistiques sur la question est donc tout d'abord proposée. Le point de vue adopté pour la modélisation accorde une place privilégiée à la sémantique, qui est supposée acquise avant la syntaxe. Le Principe de compositionnalité, éventuellement adapté, est mis à contribution pour formaliser les liens entre syntaxe et sémantique, et le modèle d'apprentissage ''à la limite'' par exemples positifs de Gold est choisi pour régir les conditions de l'apprentissage. Nous présentons dans ce contexte divers résultats d'apprenabilité de classes de grammaires catégorielles à partir de divers types de données qui véhiculent des informations sémantiques. Nous montrons que, dans tous les cas, la sémantique contribue à spécifier les structures sous-jacentes aux énoncés, et à réduire ainsi l'espace de recherche des algorithmes d'apprentissage.
308

Analyse cryptographique des altérations d'algorithmes

Berzati, Alexandre 29 September 2010 (has links) (PDF)
Avec l'avènement des attaques par canaux auxiliaires, à la fin des années 90, les preuves de sécurité algébriques ne sont plus suffisantes pour garantir la sécurité de crypto-systèmes embarqués. L'une de ces attaques, la Differential Fault Analysis, propose d'exploiter les perturbations malicieuses de composants cryptographiques pour en extraire des données secrètes. L'objet de cette thèse est d'étendre le champ d'application de l'analyse de perturbations en proposant de nouvelles attaques basées sur des modèles de faute innovants mais réalistes. Alors qu'il est rapidement devenu nécessaire de protéger les clés privées contre les perturbations, de récents travaux ont démontré que la perturbation d'éléments publics pouvait aussi engendrer une fuite d'information critique. Dans ce cadre, nous nous intéresserons particulièrement aux implantations classiques de deux crypto-systèmes asymétriques des plus répandus : le RSA et le DSA. Nous étudierons leur comportement vis-à-vis de perturbations intervenant pendant leur exécution, ce qui n'avait jamais été fait auparavant. Dans un second temps, nous avons suivi l'émergence de nouveaux algorithmes de chiffrement à flot. La structure mathématique de ces nouveaux algorithmes étant désormais plus forte, nous avons voulu évaluer la robustesse de leur implantation face aux perturbations. A ce titre, nous nous sommes intéressés à deux des finalistes du projet eSTREAM : Grain-128 et Rabbit. Enfin, cette thèse soulignera la difficulté de protéger les implantations de crypto-systèmes contre les perturbations en prenant l'exemple du RSA-CRT.
309

Terminaison à base de tailles: Sémantique et généralisations

Roux, Cody 14 June 2011 (has links) (PDF)
Ce manuscrit présente une réflexion sur la terminaison des systèmes de réécriture d'ordres supérieurs. Nous nous concentrons sur une méthode particulière, la terminaison à base de tailles. La terminaison à base de tailles utilise le typage pour donner une approximation syntaxique à la taille d'un élément du langage. Notre contribution est double: premièrement, nous permettons d'aborder de manière structurée le problème de la correction des approches à base de taille. Pour ce faire, nous montrons qu'elle peut être traitée par une version de la méthode des annotations sémantiques. Cette dernière utilise des annotations sur les termes calculés à partir de la sémantique des sous-termes dans un certain prémodèle équationnel. Nous montrons la correction de notre approche par annotations sémantiques, ainsi que du critère qui permet de traiter le système annoté, et nous construisons un prémodèle pour le système qui correspond intuitivement à la sémantique du système de réécriture. Nous montrons alors que le système annoté passe le critère de terminaison. D'un autre coté nous modifions l'approche classique de la terminaison à base de tailles et montrons que le système modifié permet une analyse fine du flot de contrôle dans un langage d'ordre supérieur. Ceci nous permet de construire un graphe, dit graphe de dépendance approximé, et nous pouvons montrer qu'un critère syntaxique sur ce graphe suffit à montrer la terminaison de tout terme bien typé.
310

Autonomisation des modèles pour les simulations participatives

De Loor, Pierre 05 December 2006 (has links) (PDF)
Ce texte est une étape de mon travail de recherche. Intrigué depuis longtemps par la notion d''autonomie, j''ai tenté, avec mes étudiants, de l''aborder dans le cadre de différentes applications de simulations interactives. Ces travaux, résumés dans la première partie de ce livre, illustrent les limites de l''approche "classique" et computationaliste de l''intelligence artificielle pour développer des comportements autonomes en environnements ouverts. La deuxième partie de l''ouvrage cherche dans d''autres courants des sciences cognitives, en particulier ceux se rapprochant de la biologie et de l'énaction - qui développent la notion d''autonomie forte - les pistes permettant de dépasser ces limites.

Page generated in 0.056 seconds