Spelling suggestions: "subject:"mémoire dde traduction"" "subject:"mémoire dee traduction""
1 |
Étude de la traduction automatique des bulletins météorologiquesLeplus, Thomas January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Découpage textuel dans la traduction assistée par les systèmes de mémoire de traduction / Text segmentation in human translation assisted by translation memory systemsPopis, Anna 13 December 2013 (has links)
L’objectif des études théoriques et expérimentales présentées dans ce travail était de cerner à l’aide des critères objectifs fiables un niveau optimum de découpage textuel pour la traduction spécialisée assistée par un système de mémoire de traduction (SMT) pour les langues française et polonaise. Afin de réaliser cet objectif, nous avons élaboré notre propre approche : une nouvelle combinaison des méthodes de recherche et des outils d’analyse proposés surtout dans les travaux de Simard (2003), Langlais et Simard (2001, 2003) et Dragsted (2004) visant l’amélioration de la viabilité des SMT à travers des modifications apportées à la segmentation phrastique considérée comme limitant cette viabilité. A la base des observations de quelques réalisations effectives du processus de découpage textuel dans la traduction spécialisée effectuée par l’homme sans aide informatique à la traduction, nous avons déterminé trois niveaux de segmentation potentiellement applicables dans les SMT tels que phrase, proposition, groupes verbal et nominal. Nous avons ensuite réalisé une analyse comparative des taux de réutilisabilité des MT du système WORDFAST et de l’utilité des traductions proposées par le système pour chacun de ces trois niveaux de découpage textuel sur un corpus de douze textes de spécialité. Cette analyse a permis de constater qu’il n’est pas possible de déterminer un seul niveau de segmentation textuelle dont l’application améliorerait la viabilité des SMT de façon incontestable. Deux niveaux de segmentation textuelle, notamment en phrases et en propositions, permettent en effet d’assurer une viabilité comparable des SMT. / The aim of the theoretical and experimental study presented in this work was to define with objective and reliable criterion an optimal level of textual segmentation for specialized translation from French into Polish assisted by a translation memory system (TMS). In this aim, we created our own approach based on research methods and analysis tools proposed particularly by Simard (2003), Langlais and Simard (2001, 2003) and Dragsted (2004). In order to increase the SMT performances, they proposed to eliminate a sentence segmentation level from SMT which is considered an obstacle to achieve satisfying SMT performances. On the basis of the observations of text segmentation process realized during a specialized translation made by a group of students without any computer aid, we defined three segmentation levels which can be potentially used in SMT such as sentences, clauses and noun and verb phrases. We realized then a comparative study of the influence of each of these levels on the reusability of WORDFAST translation memories and on the utility of translations proposed by the system for a group of twelve specialized texts. This study showed that it is not possible to define a unique text segmentation level which would unquestionably increase the SMT performances. Sentences and clauses are in fact two text segmentation levels which ensure the comparable SMT performances.
|
3 |
Vers une meilleure utilisabilité des mémoires de traduction, fondée sur un alignement sous-phrastiqueChenon, Christophe 28 October 2005 (has links) (PDF)
La traduction assistée par ordinateur a connu un grand essor dans les années 1990 avec l'arrivée des environnements à mémoires de traduction. Ces systèmes exploitent la redondance des textes techniques produits et traduits dans l'industrie, en proposant aux traducteurs de réutiliser des traductions archivées et d'accroître ainsi leur productivité. Ces mémoires utilisent, sans analyse, des segments de textes (le plus souvent des phrases entières) dont le découpage et l'alignement sont garantis par le traducteur.<br /><br />Pourtant ces mémoires recèlent des gisements d'information importants au niveau sous-phrastique dont les utilisateurs ne peuvent pas bénéficier. Le formalisme TransTree permet de représenter des correspondances sous-segmentales enchassées bilingues. Ces correspondances complexes (les amphigrammes) forment une structure arborescente exprimable en XML. Une transformation de surface conduit à une visualisation dynamique mettant en évidence les différents niveaux de correspondance entre sous-segments.<br /><br />TransTree s'accompagne d'une méthode générale de construction par voie statistique, fondée sur les arbres binaires de sécabilité. Cette méthode permet d'établir des amphigrammes à partir des correspondances entre mots typographiques. Il est possible d'abstraire des patrons de traduction (amphigrammes génériques) par classification des exemples rencontrés dans le corpus.<br /><br />Quelques expérimentations ont été effectuées pour valider le pouvoir d'expression du formalisme, explorer différentes options de construction et esquisser un algorithme de reconstitution d'un segment cible à partir d'un segment source inconnu avec la connaissance extraite des mémoires de traduction.
|
4 |
Alignement automatique de textes parallèles Français-JaponaisNakamura-Delloye, Yayoi 17 December 2007 (has links) (PDF)
L'alignement automatique consiste à trouver une correspondance entre des unités de textes parallèles. Nous nous intéressons plus particulièrement à la réalisation d'un système qui procède à l'alignement au niveau des propositions, unités profitables dans beaucoup d'applications.<br />La présente thèse est constituée de deux types de travaux : les travaux introducteurs et ceux constituant le noyau central. Ce dernier s'articule autour de la notion de proposition syntaxique.<br />Les travaux introducteurs comprennent l'étude des généralités sur l'alignement ainsi que des travaux consacrés à l'alignement des phrases. Ces travaux ont conduit à la réalisation d'un système d'alignement des phrases adapté au traitement des textes français et japonais.<br />Le noyau de la thèse est composé de deux types de travaux, études linguistiques et réalisations informatiques. Les études linguistiques se divisent elles-mêmes en deux sujets : la proposition en français et la proposition en japonais. Le but de nos études sur la proposition française est de définir une grammaire pour la détection des propositions. Pour cet effet, nous avons cherché à définir une typologie des propositions, basée sur des critères uniquement formels. Dans les études sur le japonais, nous définissons d'abord la phrase japonaise sur la base de l'opposition thème-rhème. Nous tentons ensuite d'élucider la notion de proposition.<br />Les réalisations informatiques comportent trois tâches composant ensemble au final l'opération d'alignement des propositions, incarnées par trois systèmes informatiques distincts : deux détecteurs de propositions (un pour le français et un pour le japonais), ainsi qu'un système d'alignement des propositions.
|
5 |
Alignement automatique de textes parallèles français-japonaisNakamura-Delloye, Yayoi 17 December 2007 (has links) (PDF)
L'alignement automatique consiste à trouver une correspondance entre des unités de textes parallèles. Nous nous intéressons plus particulièrement à la réalisation d'un système qui procède à l'alignement au niveau des propositions, unités profitables dans beaucoup d'applications.<br />La présente thèse est constituée de deux types de travaux : les travaux introducteurs et ceux constituant le noyau central. Ce dernier s'articule autour de la notion de proposition syntaxique.<br />Les travaux introducteurs comprennent l'étude des généralités sur l'alignement ainsi que des travaux consacrés à l'alignement des phrases. Ces travaux ont conduit à la réalisation d'un système d'alignement des phrases adapté au traitement des textes français et japonais.<br />Le noyau de la thèse est composé de deux types de travaux, études linguistiques et réalisations informatiques. Les études linguistiques se divisent elles-mêmes en deux sujets : la proposition en français et la proposition en japonais. Le but de nos études sur la proposition française est de définir une grammaire pour la détection des propositions. Pour cet effet, nous avons cherché à définir une typologie des propositions, basée sur des critères uniquement formels. Dans les études sur le japonais, nous définissons d'abord la phrase japonaise sur la base de l'opposition thème-rhème. Nous tentons ensuite d'élucider la notion de proposition.<br />Les réalisations informatiques comportent trois tâches composant ensemble au final l'opération d'alignement des propositions, incarnées par trois systèmes informatiques distincts : deux détecteurs de propositions (un pour le français et un pour le japonais), ainsi qu'un système d'alignement des propositions.
|
6 |
Comparaison de systèmes de traduction automatique pour la post édition des alertes météorologique d'Environnement Canadavan Beurden, Louis 08 1900 (has links)
Ce mémoire a pour but de déterminer la stratégie de traduction automatique des alertes
météorologiques produites par Environnement Canada, qui nécessite le moins d’efforts de
postédition de la part des correcteurs du bureau de la traduction. Nous commencerons
par constituer un corpus bilingue d’alertes météorologiques représentatives de la tâche de
traduction. Ensuite, ces données nous serviront à comparer les performances de différentes
approches de traduction automatique, de configurations de mémoires de traduction et de
systèmes hybrides. Nous comparerons les résultats de ces différents modèles avec le système
WATT, développé par le RALI pour Environnement Canada, ainsi qu’avec les systèmes de
l’industrie GoogleTranslate et DeepL. Nous étudierons enfin une approche de postédition
automatique. / The purpose of this paper is to determine the strategy for the automatic translation of
weather warnings produced by Environment Canada, which requires the least post-editing
effort by the proofreaders of the Translation Bureau. We will begin by developing a bilingual
corpus of weather warnings representative of this task. Then, this data will be used to
compare the performance of different approaches of machine translation, translation memory
configurations and hybrid systems. We will compare the results of these models with the
system WATT, the latest system provided by RALI for Environment Canada, as well as
with the industry systems GoogleTranslate and DeepL. Finaly, we will study an automatic
post-edition system.
|
7 |
Open source quality control tool for translation memory using artificial intelligenceBhardwaj, Shivendra 08 1900 (has links)
La mémoire de traduction (MT) joue un rôle décisif lors de la traduction et constitue une base
de données idéale pour la plupart des professionnels de la langue. Cependant, une MT est très
sujète au bruit et, en outre, il n’y a pas de source spécifique. Des efforts importants ont été
déployés pour nettoyer des MT, en particulier pour former un meilleur système de traduction
automatique. Dans cette thèse, nous essayons également de nettoyer la MT mais avec un objectif
plus large : maintenir sa qualité globale et la rendre suffisament robuste pour un usage interne
dans les institutions. Nous proposons un processus en deux étapes : d’abord nettoyer une MT
institutionnelle (presque propre), c’est-à-dire éliminer le bruit, puis détecter les textes traduits à
partir de systèmes neuronaux de traduction.
Pour la tâche d’élimination du bruit, nous proposons une architecture impliquant cinq approches
basées sur l’heuristique, l’ingénierie fonctionnelle et l’apprentissage profond. Nous évaluons cette
tâche à la fois par annotation manuelle et traduction automatique (TA). Nous signalons un gain
notable de +1,08 score BLEU par rapport à un système de nettoyage état de l’art. Nous proposons
également un outil Web qui annote automatiquement les traductions incorrectes, y compris mal
alignées, pour les institutions afin de maintenir une MT sans erreur.
Les modèles neuronaux profonds ont considérablement amélioré les systèmes MT, et ces systèmes
traduisent une immense quantité de texte chaque jour. Le matériel traduit par de tels systèmes
finissent par peuplet les MT, et le stockage de ces unités de traduction dans TM n’est pas
idéal. Nous proposons un module de détection sous deux conditions: une tâche bilingue et une
monolingue (pour ce dernier cas, le classificateur ne regarde que la traduction, pas la phrase
originale). Nous rapportons une précision moyenne d’environ 85 % en domaine et 75 % hors
domaine dans le cas bilingue et 81 % en domaine et 63 % hors domaine pour le cas monolingue
en utilisant des classificateurs d’apprentissage profond. / Translation Memory (TM) plays a decisive role during translation and is the go-to database for
most language professionals. However, they are highly prone to noise, and additionally, there is no
one specific source. There have been many significant efforts in cleaning the TM, especially for
training a better Machine Translation system. In this thesis, we also try to clean the TM but with a
broader goal of maintaining its overall quality and making it robust for internal use in institutions.
We propose a two-step process, first clean an almost clean TM, i.e. noise removal and then detect
texts translated from neural machine translation systems.
For the noise removal task, we propose an architecture involving five approaches based on heuristics, feature engineering, and deep-learning and evaluate this task by both manual annotation and
Machine Translation (MT). We report a notable gain of +1.08 BLEU score over a state-of-the-art,
off-the-shelf TM cleaning system. We also propose a web-based tool “OSTI: An Open-Source
Translation-memory Instrument” that automatically annotates the incorrect translations (including
misaligned) for the institutions to maintain an error-free TM.
Deep neural models tremendously improved MT systems, and these systems are translating an
immense amount of text every day. The automatically translated text finds a way to TM, and
storing these translation units in TM is not ideal. We propose a detection module under two
settings: a monolingual task, in which the classifier only looks at the translation; and a bilingual
task, in which the source text is also taken into consideration. We report a mean accuracy of around
85% in-domain and 75% out-of-domain for bilingual and 81% in-domain and 63% out-of-domain
from monolingual tasks using deep-learning classifiers.
|
Page generated in 0.091 seconds