• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 5
  • 4
  • Tagged with
  • 41
  • 22
  • 14
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Acquisition de relations entre entités nommées à partir de corpus / Corpus-based recognition of relations between named entities

Ezzat, Mani 06 May 2014 (has links)
Les entités nommées ont été l’objet de nombreuses études durant les années 1990. Leur reconnaissance dans les textes a atteint un niveau de maturité suffisante, du moins pour les principaux types (personne, organisation et lieu), pour aller plus loin dans l’analyse, vers la reconnaissance de relations entre entités. Il est par exemple intéressant de savoir qu’un texte contient des occurrences des mots « Google » et « Youtube » ; mais l’analyse devient plus intéressante si le système est capable de détecter une relation entre ces deux éléments, voire de les typer comme étant une relation d’achat (Google ayant racheté Youtube en 2006). Notre contribution s’articule autour de deux grands axes : tracer un contour plus précis autour de la définition de la relation entre entités nommées, notamment au regard de la linguistique, et explorer des techniques pour l’élaboration de systèmes d’extraction automatique qui sollicitent des linguistes. / Named entities have been the topic of many researches during the 90’s. Their detection in texts has reached a high level of performance, at least for the main categories (person, organization and location). It becomes now possible to go further, toward relation between entities recognition. For instance, knowing that a text contains the words “Google” and “Youtube” can be relevant but being able to link them and detect an acquisition relation can be more interesting (Google has bought Youtube in 2006). Our work is focusing on two different aspects: to define a finer perimeter around the relation between named entities definition, with linguistic aspect in mind, and to explore new techniques that make use of linguists in order to build a relation between named entities recognition system.
12

An anonymizable entity finder in judicial decisions

Kazemi, Farzaneh January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
13

Représentation de connaissances complexes : Un formalisme à base de rôles sémantiques

Lotin, Paul 10 November 1995 (has links) (PDF)
Le travail présenté dans cette thèse se situe dans le domaine de la représentation des connaissances. Il s'intègre dans le projet AMICAL ( Architecture Multi-agents Interactive Compagnon pour l' Apprentissage de la Lecture) dont l'objectif est de de développer un environnement informatique d'aide à l'apprentissage de la lecture. Cette étude est centrée sur la recherche d'une représentation sémantique de textes utilisés dans des sessions d'apprentissage. La problématique est de trouver un formalisme de représentation de connaissances capable de répondre à une situation fonctionnelle particulière tout en prenant compte de contraintes de natures différentes. Trois possibilités nous sont offertes : retenir un formalisme de représentation de connaissances existant, faire coopérer des formalismes existants ou proposer un nouveau formalisme. C'est cette troisième solution qui a été retenue après avoir montré les difficultés rencontrées par quelques formalismes existants à remplir certaines contraintes formulées. Nous proposons dans ce mémoire un système de représentations de connaissances, basé sur des structures de de connaissances appelées DCAS (Description Composite A Signification). Elles sont les unités de base du raisonnement. Ces structures reposent sur un ensemble d'entités cognitives de types différents. Nous décrivons les rôles différents joués par ces entités au sein d'une DCAS, ainsi que les capacités représentationnelles et inférentielles d'un système basé sur ces notions. Nous terminons cette étude par l'application de ce formalisme dans la problématique définie dans AMICAL.
14

Modélisation électromagnétique in virtuo. Application aux problèmes de propagation en milieux complexes pour les systèmes de télécommunication.

Chenu, Sylvain 11 January 2011 (has links) (PDF)
Actuellement, la plupart des simulateurs électromagnétiques se basent sur une résolution des équations aux dérivées partielles ou leurs formes équivalentes. Ces simulateurs ont jusqu'à présent bénéficié d'une augmentation de la puissance informatique compensant les exigences de calcul nécessitées par la croissance de la complexité et de la dimension des objets à modéliser. Cependant la taille des problèmes cruciaux augmente beaucoup plus rapidement que la puissance informatique. Malgré les apports faits pour simplifier les calculs électromagnétiques, la difficulté à tenir compte de tels problèmes complexes nécessite un saut méthodologique important. La méthode dite " énactive ", proposée dans ces travaux, constitue une approche atypique pour la modélisation dynamique d'un environnement naturel et sa simulation en un système de réalité virtuelle. Issue de la modélisation des systèmes multi-agents, elle propose une méthode spécifique pour la modélisation de tels systèmes complexes où de nombreux phénomènes interagissent de nombreuses façons, à des échelles de temps et d'espace pouvant être très différentes. Nous cherchons à suivre l'évolution d'une onde électromagnétique et ses interactions éventuelles avec des objets d'un environnement in virtuo, i.e. à travers un laboratoire virtuel (virtuoscope). Dans ce contexte, cette thèse s'inscrit dans un cadre interdisciplinaire qui allie les outils et les techniques de la réalité virtuelle à la modélisation de phénomènes électromagnétiques. En outre, les phénomènes sont modélisés en tant qu'entités autonomes en interaction. Notre modèle doit donc reposer sur une définition rigoureuse des entités, à savoir les ondes et les milieux, et des interactions qui peuvent avoir lieu afin de reconstituer l'ensemble des phénomènes électromagnétiques " réels " au sein d'un environnement virtuel. Aussi, nous n'avons pas de moyens nous permettant de vérifier ni de valider autrement que par l'expérimentation notre modèle. En ce sens, nous faisons l'enjeu et le pari de parvenir à construire un tel système énactique électromagnétique. Pour cela, nous avons mis au point un ensemble de scénarios d'environnements électromagnétiques, suite au développement de deux modèles de propagation, l'un unidimensionnel et l'autre bidimensionnel. Les résultats seront comparés à des méthodes plus classiques appropriées voire à la théorie lorsque c'est possible.
15

Décomposition avancée de modèles numériques CAO pour le procédé de Stratoconception. Développement des outils associés

Houtmann, Yves 16 December 2007 (has links) (PDF)
La Stratoconception est un procédé breveté de prototypage rapide permettant de fabriquer directement par couches une pièce créée par CAO, sans rupture de la chaîne conception / fabrication. Le procédé de Stratoconception est développé au CIRTES depuis 1990 et a fait l'objet de nombreuses communications ainsi que de dépôts de brevets et de marques.<br />La Stratoconception consiste à décomposer (trancher) une pièce, en un ensemble de couches élémentaires simples, appelées strates, dans lesquelles sont introduits des renforts et inscris. Les pièces élémentaires sont identifiées puis fabriquées directement par micro-fraisage rapide 2.5 axes, à partir de matériaux en plaques. Ces pièces élémentaires sont ensuite assemblées pour reconstituer le produit final. L'assemblage est pris en compte dès la décomposition.<br />Ce travail est une continuation des travaux de thèse CIFRE n°642/99 de Geoffroy LAUVAUX effectués au sein de l'IFTS de Reims et soutenus en 2005.<br />La notion de décomposition de modèle numérique en entités a connu, et connaît encore, de nombreux développements et travaux. A l'origine, les entités de décomposition correspondaient à des entités élémentaires d'usinage (plan, cylindre, balayage...). Aujourd'hui, les travaux portant sur la décomposition de modèles sont principalement appliqués dans les domaines de l'imagerie multimédia, de la reconnaissance de similarités de modèles et de la création de nouveaux modèles à partir de bases de données de modèles existants.<br />Lorsque l'on cherche à appliquer la notion de décomposition à la Stratoconception, il apparaît que celle-ci n'est pas unique et qu'il est possible de définir trois types de décompositions adaptées à des problématiques bien distinctes : la décomposition en strates, en morceaux et en entités. Chacune de ces décompositions résout des problèmes d'accessibilté, de réduction de dimensions de modèles et d'optimisation de vitesse de réalisation.<br />Nous avons plus particulièrement travaillé sur l'optimisation de la phase de tranchage par l'utilisation de points caractéristiques (dits critiques) et sur l'utilisation de la ligne de reflet pour la décomposition et la réalisation de formes tubulaires. Nous avons également étudié un algorithme de décomposition en entités convexes approchées en dimensions 2 et 3.
16

An anonymizable entity finder in judicial decisions

Kazemi, Farzaneh January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
17

Amélioration des systèmes de traduction par analyse linguistique et thématique : Application à la traduction depuis l'arabe

Gahbiche-Braham, Souhir 30 September 2013 (has links) (PDF)
La traduction automatique des documents est considérée comme l'une des tâches les plus difficiles en traitement automatique des langues et de la parole. Les particularités linguistiques de certaines langues, comme la langue arabe, rendent la tâche de traduction automatique plus difficile. Notre objectif dans cette thèse est d'améliorer les systèmes de traduction de l'arabe vers le français et vers l'anglais. Nous proposons donc une étude détaillée sur ces systèmes. Les principales recherches portent à la fois sur la construction de corpus parallèles, le prétraitement de l'arabe et sur l'adaptation des modèles de traduction et de langue.Tout d'abord, un corpus comparable journalistique a été exploré pour en extraire automatiquement un corpus parallèle. Ensuite, différentes approches d'adaptation du modèle de traduction sont exploitées, soit en utilisant le corpus parallèle extrait automatiquement soit en utilisant un corpus parallèle construit automatiquement.Nous démontrons que l'adaptation des données du système de traduction permet d'améliorer la traduction. Un texte en arabe doit être prétraité avant de le traduire et ceci à cause du caractère agglutinatif de la langue arabe. Nous présentons notre outil de segmentation de l'arabe, SAPA (Segmentor and Part-of-speech tagger for Arabic), indépendant de toute ressource externe et permettant de réduire les temps de calcul. Cet outil permet de prédire simultanément l'étiquette morpho-syntaxique ainsi que les proclitiques (conjonctions, prépositions, etc.) pour chaque mot, ensuite de séparer les proclitiques du lemme (ou mot de base). Nous décrivons également dans cette thèse notre outil de détection des entités nommées, NERAr (Named Entity Recognition for Arabic), et nous examions l'impact de l'intégration de la détection des entités nommées dans la tâche de prétraitement et la pré-traduction de ces entités nommées en utilisant des dictionnaires bilingues. Nous présentons par la suite plusieurs méthodes pour l'adaptation thématique des modèles de traduction et de langue expérimentées sur une application réelle contenant un corpus constitué d'un ensemble de phrases multicatégoriques.Ces expériences ouvrent des perspectives importantes de recherche comme par exemple la combinaison de plusieurs systèmes lors de la traduction pour l'adaptation thématique. Il serait également intéressant d'effectuer une adaptation temporelle des modèles de traduction et de langue. Finalement, les systèmes de traduction améliorés arabe-français et arabe-anglais sont intégrés dans une plateforme d'analyse multimédia et montrent une amélioration des performances par rapport aux systèmes de traduction de base.
18

Recherche de réponses précises à des questions médicales : le système de questions-réponses MEANS

Ben Abacha, Asma 28 June 2012 (has links) (PDF)
La recherche de réponses précises à des questions formulées en langue naturelle renouvelle le champ de la recherche d'information. De nombreux travaux ont eu lieu sur la recherche de réponses à des questions factuelles en domaine ouvert. Moins de travaux ont porté sur la recherche de réponses en domaine de spécialité, en particulier dans le domaine médical ou biomédical. Plusieurs conditions différentes sont rencontrées en domaine de spécialité comme les lexiques et terminologies spécialisés, les types particuliers de questions, entités et relations du domaine ou les caractéristiques des documents ciblés. Dans une première partie, nous étudions les méthodes permettant d'analyser sémantiquement les questions posées par l'utilisateur ainsi que les textes utilisés pour trouver les réponses. Pour ce faire nous utilisons des méthodes hybrides pour deux tâches principales : (i) la reconnaissance des entités médicales et (ii) l'extraction de relations sémantiques. Ces méthodes combinent des règles et patrons construits manuellement, des connaissances du domaine et des techniques d'apprentissage statistique utilisant différents classifieurs. Ces méthodes hybrides, expérimentées sur différents corpus, permettent de pallier les inconvénients des deux types de méthodes d'extraction d'information, à savoir le manque de couverture potentiel des méthodes à base de règles et la dépendance aux données annotées des méthodes statistiques. Dans une seconde partie, nous étudions l'apport des technologies du web sémantique pour la portabilité et l'expressivité des systèmes de questions-réponses. Dans le cadre de notre approche, nous exploitons les technologies du web sémantique pour annoter les informations extraites en premier lieu et pour interroger sémantiquement ces annotations en second lieu. Enfin, nous présentons notre système de questions-réponses, appelé MEANS, qui utilise à la fois des techniques de TAL, des connaissances du domaine et les technologies du web sémantique pour répondre automatiquement aux questions médicales.
19

Immersion dans des documents scientifiques et techniques : unités, modèles théoriques et processus / Immersion in scientific and technical documents : units, theoretical models and processes

Andreani, Vanessa 23 September 2011 (has links)
Cette thèse aborde la problématique de l'accès à l'information scientifique et technique véhiculée par de grands ensembles documentaires. Pour permettre à l'utilisateur de trouver l'information qui lui est pertinente, nous avons oeuvré à la définition d'un modèle répondant à l'exigence de souplesse de notre contexte applicatif industriel ; nous postulons pour cela la nécessité de segmenter l'information tirée des documents en plans ontologiques. Le modèle résultant permet une immersion documentaire, et ce grâce à trois types de processus complémentaires : des processus endogènes (exploitant le corpus pour analyser le corpus), exogènes (faisant appel à des ressources externes) et anthropogènes (dans lesquels les compétences de l'utilisateur sont considérées comme ressource) sont combinés. Tous concourent à l'attribution d'une place centrale à l'utilisateur dans le système, en tant qu'agent interprétant de l'information et concepteur de ses connaissances, dès lors qu'il est placé dans un contexte industriel ou spécialisé. / This thesis adresses the issue of accessing scientific and technical information conveyed by large sets of documents. To enable the user to find his own relevant information, we worked on a model meeting the requirement of flexibility imposed by our industrial application context ; to do so, we postulated the necessity of segmenting information from documents into ontological facets. The resulting model enables a documentary immersion, thanks to three types of complementary processes : endogenous processes (exploiting the corpus to analyze the corpus), exogenous processes (using external resources) and anthropogenous ones (in which the user's skills are considered as a resource) are combined. They all contribute to granting the user a fundamental role in the system, as an interpreting agent and as a knowledge creator, provided that he is placed in an industrial or specialised context.
20

Recherche de réponses précises à des questions médicales : le système de questions-réponses MEANS / Finding precise answers to medical questions : the question-answering system MEANS

Ben Abacha, Asma 28 June 2012 (has links)
La recherche de réponses précises à des questions formulées en langue naturelle renouvelle le champ de la recherche d’information. De nombreux travaux ont eu lieu sur la recherche de réponses à des questions factuelles en domaine ouvert. Moins de travaux ont porté sur la recherche de réponses en domaine de spécialité, en particulier dans le domaine médical ou biomédical. Plusieurs conditions différentes sont rencontrées en domaine de spécialité comme les lexiques et terminologies spécialisés, les types particuliers de questions, entités et relations du domaine ou les caractéristiques des documents ciblés. Dans une première partie, nous étudions les méthodes permettant d’analyser sémantiquement les questions posées par l’utilisateur ainsi que les textes utilisés pour trouver les réponses. Pour ce faire nous utilisons des méthodes hybrides pour deux tâches principales : (i) la reconnaissance des entités médicales et (ii) l’extraction de relations sémantiques. Ces méthodes combinent des règles et patrons construits manuellement, des connaissances du domaine et des techniques d’apprentissage statistique utilisant différents classifieurs. Ces méthodes hybrides, expérimentées sur différents corpus, permettent de pallier les inconvénients des deux types de méthodes d’extraction d’information, à savoir le manque de couverture potentiel des méthodes à base de règles et la dépendance aux données annotées des méthodes statistiques. Dans une seconde partie, nous étudions l’apport des technologies du web sémantique pour la portabilité et l’expressivité des systèmes de questions-réponses. Dans le cadre de notre approche, nous exploitons les technologies du web sémantique pour annoter les informations extraites en premier lieu et pour interroger sémantiquement ces annotations en second lieu. Enfin, nous présentons notre système de questions-réponses, appelé MEANS, qui utilise à la fois des techniques de TAL, des connaissances du domaine et les technologies du web sémantique pour répondre automatiquement aux questions médicales. / With the dramatic growth of digital information, finding precise answers to natural language questions is more and more essential for retrieving domain knowledge in real time. Many research works tackled answer retrieval for factual questions in open domain. Less works were performed for domain-specific question answering such as the medical domain. Compared to the open domain, several different conditions are met in the medical domain such as specialized vocabularies, specific types of questions, different kinds of domain entities and relations. Document characteristics are also a matter of importance, as, for example, clinical texts may tend to use a lot of technical abbreviations while forum pages may use long “approximate” terms. We focus on finding precise answers to natural language questions in the medical field. A key process for this task is to analyze the questions and the source documents semantically and to use standard formalisms to represent the obtained annotations. We propose a medical question-answering approach based on: (i) NLP methods combing domain knowledge, rule-based methods and statistical ones to extract relevant information from questions and documents and (ii) Semantic Web technologies to represent and interrogate the extracted information.

Page generated in 0.0427 seconds