• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 107
  • 25
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 147
  • 69
  • 44
  • 42
  • 35
  • 22
  • 21
  • 20
  • 20
  • 19
  • 17
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Approches fonctionnelles de la programmation parallèle et des méta-ordinateurs. Sémantiques, implantations et certification.

Gava, Frédéric 12 December 2005 (has links) (PDF)
Certains problèmes nécessitent des performances que seules les machines massivement parallèles<br />ou les méta-ordinateurs peuvent offrir. L'écriture d'algorithmes pour ce type de machines demeure<br />plus difficile que pour celles strictement séquentielles et la conception de langages adaptés est un sujet de<br />recherche actif nonobstant la fréquente utilisation de la programmation concurrente. En effet, la conception<br />d'un langage de programmation est le résultat d'un compromis qui détermine l'équilibre entre les différentes<br />qualités du langage telles que l'expressivité, la sûreté, la prédiction des performances, l'efficacité ou<br />bien la simplicité de la sémantique.<br />Dans des travaux antérieurs à cette thèse, il a été entrepris d'approfondir la position intermédiaire que le<br />paradigme des patrons occupe. Toutefois il ne s'agissait pas de concevoir un ensemble a priori fixé d'opérations<br />puis de concevoir des méthodologies pour la prédiction des performances, mais de fixer un modèle<br />de parallélisme structuré (avec son modèle de coûts) puis de concevoir un ensemble universel d'opérations<br />permettant de programmer n'importe quel algorithme de ce modèle. L'objectif est donc le suivant : parvenir<br />à la conception de langages universels dans lesquels le programmeur peut se faire une idée du coût à partir<br />du code source.<br />Cette thèse s'inscrit dans le cadre du projet «CoordinAtion et Répartition des Applications Multiprocesseurs<br />en objective camL» (CARAML) de l'ACI GRID dont l'objectif était le développement de bibliothèques<br />pour le calcul haute-performance et globalisé autour du langage OCaml. Ce projet était organisé en trois<br />phases successives : sûreté et opérations data-parallèles irrégulières mono-utilisateur ; opérations de multitraitement<br />data-parallèle ; opérations globalisées pour la programmation de grilles de calcul.<br />Ce tapuscrit est organisé en 3 parties correspondant chacune aux contributions de l'auteur dans chacune<br />des phases du projet CARAML : une étude sémantique d'un langage fonctionnel pour la programmationBSP<br />et la certification des programmes écrits dans ce langage ; une présentation d'une primitive de composition<br />parallèle (et qui permet aussi la programmation d'algorithmes «diviser-pour-régner» parallèles), un exemple<br />d'application via l'utilisation et l'implantation de structures de données parallèles et une extension pour les<br />entrées/sorties parallèles en BSML ; l'adaption du langage pour le méta-calcul.
42

Nouvelles techniques pour la construction de modèles finis ou infinis en déduction automatique

Peltier, Nicolas 10 October 1997 (has links) (PDF)
Nous étudions des méthodes de recherche simultanée de refutation et de modèle. Nous proposons une méthode pour la construction de modèles finis réduisant de façon importante l'espace de recherche des approches existantes. Nous nous intéressons ensuite à la recherche de modèles infinis. Nous étendons les méthodes RAMC (Refutation And Model Construction) et RAMCET (Refutation And Model Construction with Equational Tableaux) définie par R. Caferra et N. Zabel en introduisant de nouvelles règles et stratégies. Ces extensions augmentent strictement les capacités de la méthode, à la fois pour la recherche de preuve et de contre-exemple. Nous montrons que les méthodes proposées sont des procédures de décision uniforme pour une large clase de formules logiques. Ensuite, nous proposons et étudions de nouveaux formalismes pour représenter les modèles: les termes avec exposants entiers et les automates d'arbres. Nous prouvons la décidabilité de la théorie du premier ordre sur les termes avec exposants. Nous proposons également une nouvelle approche pour la découverte et l'utilisation de l'analogie en recherche simultanée de preuve et de contre-exemple et nous montrons comment utiliser la méthode RAMC en Programmation Logique (pour étendre les capacités des interpréteurs, détecter, voire corriger des erreurs dans les programmes etc.). Enfin, nous décrivons le système RAMC-ATINF implémentant certaines des idées proposées et nous donnons quelques résultats expérimentaux.
43

Affinités syntaxiques et sémantiques entre mots : apports mutuels de la linguistique et du TAL

Fabre, Cécile 29 November 2010 (has links) (PDF)
Je présente un bilan des travaux que j'ai menés depuis mon recrutement à l'Université de Toulouse 2 - Le Mirail (1997) dans le domaine de la linguistique et du Traitement Automatique des Langues (TAL). J'ai exploré le lien entre ces deux disciplines de deux façons que j'estime complémentaires : tout d'abord, je considère le champ applicatif du TAL comme un terrain d'investigation important pour la linguistique. Le TAL, et de façon générale, les applications relevant du domaine de l'ingénierie des langues, sollicitent un renouvellement des objets d'étude de la linguistique et élargissent le champ de ses questionnements. En retour, la linguistique gagne à s'appuyer sur des procédures de découverte issues du TAL, basées sur le traitement de corpus numérisés et annotés et sur le recours à des techniques de quantification adaptées aux besoins de la description linguistique. Au sein de ce cadre général, les travaux que j'ai menés ont porté principalement sur deux thématiques de recherche que j'ai résumées sous les termes d'affinités sémantiques et syntaxiques. Le premier concerne la question du repérage des rapports de proximité sémantique entre différents types d'unités (mots, termes, structures prédicatives). Identifier sous la diversité des formulations des éléments de contenu similaire est un objectif crucial pour de nombreuses applications qui visent l'accès à l'information dans les textes. Dans cette perspective, j'ai cherché à considérer sur le plan linguistique cette question de la proximité sémantique, en faisant en particulier appel à des techniques d'analyse distributionnelle automatique qui visent à calculer les rapprochements sémantiques entre mots sur la base de la similarité de leur comportement syntaxique dans les corpus. Cette approche inductive des relations de sens déborde largement les limites des relations classiquement décrites en linguistique et sollicite des procédures nouvelles de description et de validation. Le second volet concerne la question des affinités syntaxiques entre mots : impliquée dans le projet de développement et d'exploitation d'un analyseur syntaxique automatique, syntex, je me suis intéressée à une question qui est au coeur des problèmes d'ambiguïté syntaxique, à savoir le rattachement des groupes prépositionnels. J'ai travaillé en particulier à la mise au point d'une méthode permettant de distinguer des types différents de rattachement prépositionnel, de nature argumentale ou adjonctive. Dans ce cas également, mon travail est guidé par un objectif qui relève du TAL (améliorer les performances d'un analyseur), et ce projet m'a amenée en retour à retravailler une question linguistique centrale en syntaxe, la distinction entre arguments et circonstants, et à développer des méthodes d'analyse de corpus qui permettent de substituer à une conception binaire de ces notions une appréciation plus graduelle de l'autonomie du groupe prépositionnel par rapport au verbe. Je propose donc de montrer comment les outils de TAL appliqués aux corpus offrent à la linguistique des instruments d'observation et d'expérimentation qui permettent d'aborder les faits langagiers par le biais de l'observation des usages et sous l'angle de la quantification. Ma conviction est que la linguistique ainsi outillée peut jouer un rôle plus important sur les nombreux terrains applicatifs qui nécessitent l'analyse de données langagières.
44

Apprentissage sur corpus de relations lexicales sémantiques - La linguistique et l'apprentissage au service d'applications du traitement automatique des langues

Sébillot, Pascale 13 December 2002 (has links) (PDF)
Le document présente une synthèse des recherches que nous avons menées sur le thème de l'acquisition de ressources lexicales à partir de corpus textuels. Plus particulièrement, ces travaux portent sur le développement de méthodes d'apprentissage automatique de relations lexicales sémantiques, ayant pour objectif d'enrichir la description de mots dans une double optique de désambiguïsation et de traitement de variantes sémantiques intra- et intercatégorielles, et susceptibles d'être utilisées au sein de différentes applications (recherche d'information, filtrage...). Nos études se caractérisent particulièrement par le fort couplage que nous recherchons entre les méthodes d'apprentissage développées et des théories linguistiques. Ces théories nous servent de cadres pour déterminer les relations lexicales pertinentes, valider ce qui est acquis, voire mettre au point la méthode d'apprentissage nécessaire à cette acquisition; de plus, les éléments appris doivent être linguistiquement motivés et significatifs. Ainsi, nous décrivons comment, en nous positionnant dans le cadre de la sémantique interprétative de F. Rastier, nous cherchons à apprendre, par des méthodes statistiques (en particulier de classification ascendante hiérarchique), des liens paradigmatiques intracatégoriels - antonymie, synonymie..., mais aussi d'autres liens plus fins de type sémique - à partir de corpus non spécialisés. D'autre part, nous expliquons comment, en contrôlant leur pertinence grâce au formalisme du Lexique génératif de J. Pustejovsky, nous acquérons par de l'apprentissage symbolique de type programmation logique inductive des liens transcatégoriels nomino-verbaux. Parmi les perspectives évoquées en conclusion, nous abordons en particulier les questions soulevées lorsque l'on s'intéresse à l'insertion des relations acquises dans un système de recherche d'information pour reformuler des requêtes, ainsi que celles concernant l'évaluation des apports de ces ressources lexicales. Nous discutons également de la pertinence de l'utilisation de méthodes d'apprentissage explicative pour acquérir des informations en corpus.
45

Evolution Structurelle dans les Architectures Logicielles à base de Composants

Sadou, Nassima 18 December 2007 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le cadre des architectures logicielles à base de composants. Une architecture logicielle offre une description d'un système à un niveau d'abstraction élevé en terme de composants et d'interactions entre ces composants. La problématique abordée relève de l'évolution structurelle dans les architectures logicielles à base de composants. L'évolution est une nécessité importante dans le monde du logiciel et des systèmes informatiques. Elle permet, dans le cadre des architectures logicielles, d'éviter que celles-ci ne restent figées et soient obsolètes par rapport aux besoins en perpétuels changements. Un autre objectif essentiel est la possibilité de pouvoir élargir les architectures logicielles et d'appliquer le passage à l'échelle, pour prendre en compte de nouveaux besoins ou des fonctionnalités plus complexes. Une architecture doit donc pouvoir être modifiée pour rester utilisable, réutilisable et disponible pour ses utilisateurs, et cela tout au long du cycle de vie du système. Notre contribution à cette problématique se scinde en trois axes : Le premier axe consiste en la proposition d'un modèle d'évolution dénommé SAEV (Software Architecture EVolution model) permettant l'abstraction, la spécification et la gestion de l'évolution des architectures logi- cielles. SAEV se veut un modèle générique, uniforme et indépendant de tout langage de description d'archi- tectures logicielles. Le deuxième axe s'appuie sur deux constats : le premier constat est que les architectures logicielles ne véhi- culent pas assez d'informations sur le degré de corrélation entre leurs éléments constitutifs, qui permettraient de déterminer et de propager automatiquement les impacts d'une évolution. Le deuxième constat est que les connecteurs, de par leur position d'intermédiaires entre les éléments architecturaux sont des supports idéaux pour véhiculer les changements entre ces éléments. C'est ainsi que nous proposons d'enrichir les connecteurs par des propriétés sémantiques qui exprimeraient alors la corrélation entre les éléments d'une architecture logicielle qu'ils relient. Le troisième axe illustre la prise en compte des propriétés sémantiques proposées dans le cadre de l'ADL COSA (Component-Object based Software Architecture). COSA est un ADL hybride qui réifie les concepts communément admis par la majorité des langages de description d'architectures logicielles. Cet axe montre aussi l'application du modèle SAEV sur des architectures logicielles décrites en COSA et en tenant compte des propriétés sémantiques définies.
46

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral

Pinault, Florian 24 November 2011 (has links) (PDF)
Les systèmes de dialogue homme machine actuellement utilisés dans l'industrie sont fortement limités par une forme de communication très rigide imposant à l'utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l'état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d'utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l'utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d'erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d'apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d'utiliser.Afin d'appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l'espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l'espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d'utiliser la distance d'édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l'adoption des POMDP pour le dialogue dans l'industrie.Dans le domaine du renseignement d'informations touristiques et de la réservation de chambres d'hôtel, les résultats sur des dialogues simulés montrent l'efficacité de l'approche par renforcement associée à un système de règles pour s'adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu'un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.
47

Recherche de réponses précises à des questions médicales : le système de questions-réponses MEANS

Ben Abacha, Asma 28 June 2012 (has links) (PDF)
La recherche de réponses précises à des questions formulées en langue naturelle renouvelle le champ de la recherche d'information. De nombreux travaux ont eu lieu sur la recherche de réponses à des questions factuelles en domaine ouvert. Moins de travaux ont porté sur la recherche de réponses en domaine de spécialité, en particulier dans le domaine médical ou biomédical. Plusieurs conditions différentes sont rencontrées en domaine de spécialité comme les lexiques et terminologies spécialisés, les types particuliers de questions, entités et relations du domaine ou les caractéristiques des documents ciblés. Dans une première partie, nous étudions les méthodes permettant d'analyser sémantiquement les questions posées par l'utilisateur ainsi que les textes utilisés pour trouver les réponses. Pour ce faire nous utilisons des méthodes hybrides pour deux tâches principales : (i) la reconnaissance des entités médicales et (ii) l'extraction de relations sémantiques. Ces méthodes combinent des règles et patrons construits manuellement, des connaissances du domaine et des techniques d'apprentissage statistique utilisant différents classifieurs. Ces méthodes hybrides, expérimentées sur différents corpus, permettent de pallier les inconvénients des deux types de méthodes d'extraction d'information, à savoir le manque de couverture potentiel des méthodes à base de règles et la dépendance aux données annotées des méthodes statistiques. Dans une seconde partie, nous étudions l'apport des technologies du web sémantique pour la portabilité et l'expressivité des systèmes de questions-réponses. Dans le cadre de notre approche, nous exploitons les technologies du web sémantique pour annoter les informations extraites en premier lieu et pour interroger sémantiquement ces annotations en second lieu. Enfin, nous présentons notre système de questions-réponses, appelé MEANS, qui utilise à la fois des techniques de TAL, des connaissances du domaine et les technologies du web sémantique pour répondre automatiquement aux questions médicales.
48

Adaptation d'architectures logicielles collaboratives dans les environnements ubiquitaires. Contribution à l'interopérabilité par la sémantique

Sancho, German 07 December 2010 (has links) (PDF)
Ce travail de thèse explore la conception d'applications collaboratives destinées a être exécutées dans des environnements ubiquitaires. Les applications collaboratives fournissent des moyens pour que des utilisateurs organisés dans des groupes puissent coopérer afin d'effectuer une tâche commune. Jusqu'à présent, ces applications ont été conçues pour une utilisation avec des systèmes de type "bureau". Dans ce travail nous proposons de faire profiter ces applications des possibilités offertes par les environnements issus de l'informatique ubiquitaire, notamment la sensibilité au contexte et l'adaptation. En premier lieu, un modèle sémantique de la collaboration, appelé GCO, est proposé afin de permettre l'expression des besoins de collaboration indépendamment du domaine d'application. Ce modèle est une ontologie de la collaboration incorporant des règles permettant d'effectuer d'inférences pour déduire un schéma de déploiement à partir des besoins de collaboration. En deuxième lieu, une approche de modélisation est proposée afin de faciliter la conception d'applications collaboratives ubiquitaires. Cette approche se base sur une décomposition multi-niveau permettant la mise en Suvre d'une adaptation de l'architecture du système aux changements du contexte haut niveau (exigences de l'application) et bas niveau (contraintes liées aux ressources). Ensuite, le framework FACUS, qui est une implantation de l'approche utilisant GCO comme modèle pivot pour l'interopérabilité entre les exigences et les contraintes, est proposé. Enfin, FACUS est évalué tant du point de vue fonctionnel que de celui des performances, montrant la faisabilité de notre approche.
49

Constitution d'une ressource sémantique arabe à partir d'un corpus multilingue aligné

Abdulhay, Authoul 23 November 2012 (has links) (PDF)
Cette thèse vise à la mise en œuvre et à l'évaluation de techniques d'extraction de relations sémantiques à partir d'un corpus multilingue aligné. Ces relations seront extraites par transitivité de l'équivalence traductionnelle, deux lexèmes possédant les mêmes équivalents dans une langue cible étant susceptibles de partager un même sens. D'abord, nos observations porteront sur la comparaison sémantique d'équivalents traductionnels dans des corpus multilingues alignés. A partir des équivalences, nous tâcherons d'extraire des "cliques", ou sous-graphes maximaux complets connexes, dont toutes les unités sont en interrelation, du fait d'une probable intersection sémantique. Ces cliques présentent l'intérêt de renseigner à la fois sur la synonymie et la polysémie des unités, et d'apporter une forme de désambiguïsation sémantique. Elles seront créées à partir de l'extraction automatique de correspondances lexicales, basée sur l'observation des occurrences et cooccurrences en corpus. Le recours à des techniques de lemmatisation sera envisagé. Ensuite nous tâcherons de relier ces cliques avec un lexique sémantique (de type Wordnet) afin d'évaluer la possibilité de récupérer pour les unités arabes des relations sémantiques définies pour des unités en anglais ou en français. Ces relations permettraient de construire automatiquement un réseau utile pour certaines applications de traitement de la langue arabe, comme les moteurs de question-réponse, la traduction automatique, les systèmes d'alignement, la recherche d'information, etc.
50

Fondation constitutive du milieu intermédiaire

Faure, Jean-Philippe 11 May 2012 (has links) (PDF)
Ce travail s'est construit en partant d'une déclaration de Ferdinand de Saussure présentant le langage comme un " milieu intermédiaire ". Ce propos de Saussure n'a d'abord existé que sous la forme orale, mais fut transcrit dans les notes de cours de ses auditeurs ; il figure finalement dans l'édition critique du Cours, due à Rudolf Engler (que l'on doit considérer comme le véritable éditeur de Saussure). Librement inspiré de la Généalogie de la morale de Nietzsche, cette étude poursuit le but d'enquêter généalogiquement sur les présupposés des principales écoles linguistiques du 20ème siècle (néo-grammairiens, structuralisme, grammaire générative, fonctionnalisme, cognitivisme à la manière de Rosch et Varela). L'enquête généalogique vise à montrer que la conception dite " théorie du reflet " a ses racines dans le pessimisme romantique. Ce nouveau positionnement devrait permettre d'élaborer une nouvelle orientation (justifiant la revendication d'une " fondation constitutive "), par le recours méthodique à la phénoménologie ainsi qu'à l'outil de la Gestalt, issue de la psychologie de même nom. Il faut voir le " milieu intermédiaire " comme métaphore équivalente aux champs sémantiques, ce qui conduit à intégrer dans ce travail un examen critique des précurseurs dans cette voie que sont Jost Trier et Els Oksaar.

Page generated in 0.1253 seconds