• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 136
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1579
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 145
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

Theory and algorithms for learning metrics with controlled behaviour / Théorie et algorithmes pour l'apprentissage de métriques à comportement contrôlé

Perrot, Michaël 13 December 2016 (has links)
De nombreux algorithmes en Apprentissage Automatique utilisent une notion de distance ou de similarité entre les exemples pour résoudre divers problèmes tels que la classification, le partitionnement ou l'adaptation de domaine. En fonction des tâches considérées ces métriques devraient avoir des propriétés différentes mais les choisir manuellement peut-être fastidieux et difficile. Une solution naturelle est alors d'adapter automatiquement ces métriques à la tâche considérée. Il s'agit alors d'un problème connu sous le nom d'Apprentissage de Métriques et où le but est principalement de trouver les meilleurs paramètres d'une métrique respectant des contraintes spécifiques. Les approches classiques dans ce domaine se focalisent habituellement sur l'apprentissage de distances de Mahalanobis ou de similarités bilinéaires et l'une des principales limitations est le fait que le contrôle du comportement de ces métriques est souvent limité. De plus, si des travaux théoriques existent pour justifier de la capacité de généralisation des modèles appris, la plupart des approches ne présentent pas de telles garanties. Dans cette thèse nous proposons de nouveaux algorithmes pour apprendre des métriques à comportement contrôlé et nous mettons l'accent sur les propriétés théoriques de ceux-ci. Nous proposons quatre contributions distinctes qui peuvent être séparées en deux parties: (i) contrôler la métrique apprise en utilisant une métrique de référence et (ii) contrôler la transformation induite par la métrique apprise. Notre première contribution est une approche locale d'apprentissage de métriques où le but est de régresser une distance proportionnelle à la perception humaine des couleurs. Notre approche est justifiée théoriquement par des garanties en généralisation sur les métriques apprises. Dans notre deuxième contribution nous nous sommes intéressés à l'analyse théorique de l'intérêt d'utiliser une métrique de référence dans un terme de régularisation biaisé pour aider lors du processus d'apprentissage. Nous proposons d'utiliser trois cadres théoriques différents qui nous permettent de dériver trois mesures différentes de l'apport de la métrique de référence. Ces mesures nous donnent un aperçu de l'impact de la métrique de référence sur celle apprise. Dans notre troisième contribution nous proposons un algorithme d'apprentissage de métriques où la transformation induite est contrôlée. L'idée est que, plutôt que d'utiliser des contraintes de similarité et de dissimilarité, chaque exemple est associé à un point virtuel qui appartient déjà à l'espace induit par la métrique apprise. D'un point de vue théorique nous montrons que les métriques apprises de cette façon généralisent bien mais aussi que notre approche est liée à une méthode plus classique d'apprentissage de métriques basée sur des contraintes de paires. Dans notre quatrième contribution nous essayons aussi de contrôler la transformation induite par une métrique apprise. Cependant, plutôt que considérer un contrôle individuel pour chaque exemple, nous proposons une approche plus globale en forçant la transformation à suivre une transformation géométrique associée à un problème de transport optimal. D'un point de vue théorique nous proposons une discussion sur le lien entre la transformation associée à la métrique apprise et la transformation associée au problème de transport optimal. D'un point de vue plus pratique nous montrons l'intérêt de notre approche pour l'adaptation de domaine mais aussi pour l'édition d'images / Many Machine Learning algorithms make use of a notion of distance or similarity between examples to solve various problems such as classification, clustering or domain adaptation. Depending on the tasks considered these metrics should have different properties but manually choosing an adapted comparison function can be tedious and difficult. A natural trend is then to automatically tailor such metrics to the task at hand. This is known as Metric Learning and the goal is mainly to find the best parameters of a metric under some specific constraints. Standard approaches in this field usually focus on learning Mahalanobis distances or Bilinear similarities and one of the main limitations is that the control over the behaviour of the learned metrics is often limited. Furthermore if some theoretical works exist to justify the generalization ability of the learned models, most of the approaches do not come with such guarantees. In this thesis we propose new algorithms to learn metrics with a controlled behaviour and we put a particular emphasis on the theoretical properties of these algorithms. We propose four distinct contributions which can be separated in two parts, namely (i) controlling the metric with respect to a reference metric and (ii) controlling the underlying transformation corresponding to the learned metric. Our first contribution is a local metric learning method where the goal is to regress a distance proportional to the human perception of colors. Our approach is backed up by theoretical guarantees on the generalization ability of the learned metrics. In our second contribution we are interested in theoretically studying the interest of using a reference metric in a biased regularization term to help during the learning process. We propose to use three different theoretical frameworks allowing us to derive three different measures of goodness for the reference metric. These measures give us some insights on the impact of the reference metric on the learned one. In our third contribution we propose a metric learning algorithm where the underlying transformation is controlled. The idea is that instead of using similarity and dissimilarity constraints we associate each learning example to a so-called virtual point belonging to the output space associated with the learned metric. We theoretically show that metrics learned in this way generalize well but also that our approach is linked to a classic metric learning method based on pairs constraints. In our fourth contribution we also try to control the underlying transformation of a learned metric. However instead of considering a point-wise control we consider a global one by forcing the transformation to follow the geometrical transformation associated to an optimal transport problem. From a theoretical standpoint we propose a discussion on the link between the transformation associated with the learned metric and the transformation associated with the optimal transport problem. On a more practical side we show the interest of our approach for domain adaptation but also for a task of seamless copy in images
662

Apprentissage profond pour l'analyse de l'EEG continu / Deep learning for continuous EEG analysis

Sors, Arnaud 27 February 2018 (has links)
Ces travaux de recherche visent à développer des méthodes d’apprentissage automatique pour l’analyse de l’électroencéphalogramme (EEG) continu. L’EEG continu est une modalité avantageuse pour l’évaluation fonctionnelle des états cérébraux en réanimation ou pour d’autres applications. Cependant son utilisation aujourd’hui demeure plus restreinte qu’elle ne pourrait l’être, car dans la plupart des cas l’interprétation est effectuée visuellement par des spécialistes.Les sous-parties de ce travail s’articulent autour de l’évaluation pronostique du coma post-anoxique, choisie comme application pilote. Un petit nombre d’enregistrement longue durée a été réalisé, et des enregistrements existants ont été récupérés au CHU Grenoble.Nous commençons par valider l’efficacité des réseaux de neurones profonds pour l’analyse EEG d’échantillons bruts. Nous choisissons à cet effet de travailler sur la classification de stades de sommeil. Nous utilisons un réseau de neurones convolutionnel adapté pour l’EEG que nous entrainons et évaluons sur le jeu de données SHHS (Sleep Heart Health Study). Cela constitue le premier system neuronal à cette échelle (5000 patients) pour l’analyse du sommeil. Les performances de classification atteignent ou dépassent l’état de l’art.En utilisation réelle, pour la plupart des applications cliniques le défi principal est le manque d’annotations adéquates sur les patterns EEG ou sur de court segments de données (et la difficulté d’en établir). Les annotations disponibles sont généralement haut niveau (par exemple, le devenir clinique) est sont donc peu nombreuses. Nous recherchons comment apprendre des représentations compactes de séquences EEG de façon non-supervisée/semi-supervisée. Le domaine de l’apprentissage non supervisé est encore jeune. Pour se comparer aux travaux existants nous commençons avec des données de type image, et investiguons l’utilisation de réseaux adversaires génératifs (GANs) pour l’apprentissage adversaire non-supervisé de représentations. La qualité et la stabilité de différentes variantes sont évaluées. Nous appliquons ensuite un GAN de Wasserstein avec pénalité sur les gradients à la génération de séquences EEG. Le système, entrainé sur des séquences mono-piste de patients en coma post anoxique, est capable de générer des séquences réalistes. Nous développons et discutons aussi des idées originales pour l’apprentissage de représentations en alignant des distributions dans l’espace de sortie du réseau représentatif.Pour finir, les signaux EEG multipistes ont des spécificités qu’il est souhaitable de prendre en compte dans les architectures de caractérisation. Chaque échantillon d’EEG est un mélange instantané des activités d’un certain nombre de sources. Partant de ce constat nous proposons un système d’analyse composé d’un sous-système d’analyse spatiale suivi d’un sous-système d’analyse temporelle. Le sous-système d’analyse spatiale est une extension de méthodes de séparation de sources construite à l’aide de couches neuronales avec des poids adaptatifs pour la recombinaison des pistes, c’est à dire que ces poids ne sont pas appris mais dépendent de caractéristiques du signal d’entrée. Nous montrons que cette architecture peut apprendre à réaliser une analyse en composantes indépendantes, si elle est entrainée sur une mesure de non-gaussianité. Pour l’analyse temporelle, des réseaux convolutionnels classiques utilisés séparément sur les pistes recombinées peuvent être utilisés. / The objective of this research is to explore and develop machine learning methods for the analysis of continuous electroencephalogram (EEG). Continuous EEG is an interesting modality for functional evaluation of cerebral state in the intensive care unit and beyond. Today its clinical use remains more limited that it could be because interpretation is still mostly performed visually by trained experts. In this work we develop automated analysis tools based on deep neural models.The subparts of this work hinge around post-anoxic coma prognostication, chosen as pilot application. A small number of long-duration records were performed and available existing data was gathered from CHU Grenoble. Different components of a semi-supervised architecture that addresses the application are imagined, developed, and validated on surrogate tasks.First, we validate the effectiveness of deep neural networks for EEG analysis from raw samples. For this we choose the supervised task of sleep stage classification from single-channel EEG. We use a convolutional neural network adapted for EEG and we train and evaluate the system on the SHHS (Sleep Heart Health Study) dataset. This constitutes the first neural sleep scoring system at this scale (5000 patients). Classification performance reaches or surpasses the state of the art.In real use for most clinical applications, the main challenge is the lack of (and difficulty of establishing) suitable annotations on patterns or short EEG segments. Available annotations are high-level (for example, clinical outcome) and therefore they are few. We search how to learn compact EEG representations in an unsupervised/semi-supervised manner. The field of unsupervised learning using deep neural networks is still young. To compare to existing work we start with image data and investigate the use of generative adversarial networks (GANs) for unsupervised adversarial representation learning. The quality and stability of different variants are evaluated. We then apply Gradient-penalized Wasserstein GANs on EEG sequences generation. The system is trained on single channel sequences from post-anoxic coma patients and is able to generate realistic synthetic sequences. We also explore and discuss original ideas for learning representations through matching distributions in the output space of representative networks.Finally, multichannel EEG signals have specificities that should be accounted for in characterization architectures. Each EEG sample is an instantaneous mixture of the activities of a number of sources. Based on this statement we propose an analysis system made of a spatial analysis subsystem followed by a temporal analysis subsystem. The spatial analysis subsystem is an extension of source separation methods built with a neural architecture with adaptive recombination weights, i.e. weights that are not learned but depend on features of the input. We show that this architecture learns to perform Independent Component Analysis if it is trained on a measure of non-gaussianity. For temporal analysis, standard (shared) convolutional neural networks applied on separate recomposed channels can be used.
663

Modélisation statistique des associations et des interactions entre des parasites transmis par des vecteurs, à partir de données issues d'études transversales / Statistical modelling of associations and interactions between vector borne parasites, using data from cross-sectional studies

Vaumourin, Elise 26 September 2014 (has links)
Le multiparasitisme et surtout les associations qui en découlent, ont une grande influence sur l’écologie des parasites concernés. Elle est d’autant plus grande que les parasites peuvent interagir et ainsi modifier leurs effets sur les hôtes. Cependant, l’identification des associations et interactions de parasites est complexe au niveau populationnel. Notre objectif était de modéliser les associations et les interactions multiparasitaires, notamment dans le cadre des parasites d’importance médicale, vétérinaire ou agronomique. Nous avons tout d’abord réalisé une revue bibliographique sur les différentes causes et conséquences du multiparasitisme ainsi que sur les méthodes et outils disponibles pour comprendre les phénomènes qui le génèrent. Dans un second temps, nous nous sommes intéressés tout particulièrement à la détection des associations multiparasitaires. Nous avons développé une nouvelle méthode « de screening des associations » pour tester statistiquement la présence d’associations de parasites à une échelle globale. Nous avons utilisé cette méthode pour identifier les associations et pour révéler précisément les parasites associés au sein de diverses populations d’hôtes. Puis, nous avons étudié les interactions entre les parasites. Nous avons développé un modèle pour identifier les interactions entre deux parasites vectorisés et persistants chez un hôte, à partir de données issues d’études transversales. L’une des voies de progression de la connaissance sur les interactions est la prise en compte des facteurs de risque communs. La prise en compte des interactions contribue à améliorer le diagnostic, les traitements et la prévention des maladies infectieuses. / Multiparasitism and specifically statistical associations among parasites, have a strong influence on the ecology of parasites. This influence reinforced when parasites interact and thus modify their effect on hosts. However, the identification of associations and interactions between parasites is complex at the population level. Our aim was to model multi-parasite associations and interactions, in particular for parasites of medical, veterinary or agricultural importance. We first present a review of the literature on the different causes and consequences of multiparasitism and the methods and tools available to better understand the phenomena that generate them. In a second step we worked on the detection of multi-parasite associations. We developed a new approach « association screening » to statistically test the presence of multi-parasite associations on a global scale. We used this method to identify associations and to reveal precisely associated parasites in different host populations. Then, we focused on the study of interactions between parasites. We developed a model to identify the interactions between two vector-borne and persistent parasites in a host, using data from cross-sectional studies. One way to increase our capacity to detect parasite interactions in populations is the taking into account common risk factors. Taking into account interactions increases diagnosis, treatments and prevention of infectious diseases.
664

Sur quelques problèmes d'apprentissage supervisé et non supervisé

Laloë, Thomas 27 November 2009 (has links) (PDF)
L'objectif de cette Thèse est d'apporter une contribution au problème de l'apprentissage statistique, notamment en développant des méthodes pour prendre en compte des données fonctionnelles. Dans la première partie, nous développons une approche de type plus proches voisins pour la régression fonctionnelle. Dans la deuxième, nous étudions les propriétés de la méthode de quantification dans des espaces de dimension infinie. Nous appliquons ensuite cette méthode pour réaliser une étude comportementale de bancs d'anchois. Enfin, la dernière partie est dédiée au problème de l'estimation des ensembles de niveaux de la fonction de régression dans un cadre multivarié.
665

Déploiement du tolérancement inertiel dans la relation client fournisseur.

Denimal, Dimitri 19 November 2009 (has links) (PDF)
Lors de la phase d'industrialisation, l'allocation des tolérances fait partie des étapes clés qui permettront de produire des assemblages dont les performances sont conformes et homogènes à l'ensemble des exigences fonctionnelles spécifiées par le cahier des charges. Depuis toujours, l'approche traditionnelle des tolérances et de leur allocation sous la forme d'une bilimite présente certaines incohérences. En 2002, Pr M.Pillet a suggéré une solution à ces incohérences, l'inertie. Ce travail de thèse est une continuation à ceux de Pr M Pillet et de PA Adragna. Ce travail s'articule en cinq chapitres. Le premier chapitre revient sur l'apport de l'inertie et introduit les travaux développés dans la thèse. Le second propose une analyse de la performance de la carte de contrôle inertielle avec dérive et formalise les conditions d'utilisation des différentes variantes dans un contexte industriel. Le troisième chapitre aborde l'inertie dans un contexte 3D en comparant les trois définitions de l'inertie 3D proposées dans les travaux antérieurs. Le quatrième développe une nouvelle approche de tolérancement de surface, appelée inertie totale et propose en cohérence avec cette définition un outil permettant de donner les réglages optimums pour minimiser l'inertie totale d'une pièce. Le dernier chapitre conclut par une proposition de tolérancement d'un assemblage de surface par une approche inertielle statistique. Ce dernier suppose une variation rigide des défauts des surfaces, et n'intègre pas la notion de jeu de l'assemblage. Il porte explicitement sur la notion de variance et de covariance liée à la structure du mécanisme et introduit un indicateur de capabilité de dimensions n
666

Stratégies de recherche optimales et marches aléatoires intermittentes : de l'enzyme de restriction au vol de l'albatros

Loverdo, Claude 10 December 2009 (has links) (PDF)
Cette thèse concerne les stratégies de recherches de cible dites intermittentes, qui alternent des phases lentes permettant la détection de la cible, et des phases rapides sans détection. Un exemple à l'échelle macroscopique est celui d'animaux en quête de nourriture. Nous en proposons un modèle, alternatif aux célèbres stratégies de Lévy, et montrons analytiquement que le temps moyen de recherche peut être minimisé en fonction des durées moyennes de chaque phase. Un premier exemple à l'échelle microscopique est celui de la recherche par des protéines de cibles sur l'ADN. Nous calculons analytiquement la distribution de la distance parcourue le long de l'ADN lors d'une excursion 3D, l'adaptons à une expérience de molécule unique et montrons que les trajectoires observées combinent des diffusions 1D et 3D. Un autre exemple cellulaire concerne le transport actif de vésicules, qui diffusent ou se lient à des moteurs assurant un déplacement balistique. Nous optimisons la constante cinétique dans un modèle général de réaction limitée par ce type de transport. Finalement, ces stratégies intermittentes pourraient constituer un mécanisme de recherche générique. Nous étudions de manière systématique l'influence de la modélisation de la phase de détection et de la dimension de l'espace, et montrons que l'optimalité des stratégies intermittentes est un résultat robuste.
667

Estimation Statistique En Grande Dimension, Parcimonie et Inégalités D'Oracle

Lounici, Karim 24 November 2009 (has links) (PDF)
Dans cette thèse nous traitons deux sujets. Le premier sujet concerne l'apprentissage statistique en grande dimension, i.e. les problèmes où le nombre de paramètres potentiels est beaucoup plus grand que le nombre de données à disposition. Dans ce contexte, l'hypothèse généralement adoptée est que le nombre de paramètres intervenant effectivement dans le modèle est petit par rapport au nombre total de paramètres potentiels et aussi par rapport au nombre de données. Cette hypothèse est appelée ``\emph{sparsity assumption}''. Nous étudions les propriétés statistiques de deux types de procédures : les procédures basées sur la minimisation du risque empirique muni d'une pénalité $l_{1}$ sur l'ensemble des paramètres potentiels et les procédures à poids exponentiels. Le second sujet que nous abordons concerne l'étude de procédures d'agrégation dans un modèle de densité. Nous établissons des inégalités oracles pour la norme $L^{\pi}$, $1\leqslant \pi \leqslant \infty$. Nous proposons ensuite une application à l'estimation minimax et adaptative en la régularité de la densité.
668

Technique alternative de test pour les interrupteurs MEMS RF

Nguyen, H.N. 06 July 2009 (has links) (PDF)
Ce travail vise à trouver une technique de test rapide et peu onéreuse pour les interrupteurs MEMS RF embarqués dans les SiPs (System-in-Package). La complexité des SiPs RF exige une stratégie de conception en vue du test (DFT, Design-for-Test) afin d'éviter l'utilisation d'équipements sophistiqués de test, aussi bien que de surmonter les difficultés d'accès aux points de mesure embarqués. L'approche proposée utilise le principe du test alternatif qui remplace des procédures de test à base des spécifications conventionnelles. L'idée de base est d'extraire les performances haute fréquence de l'interrupteur à partir des caractéristiques basse fréquence du signal d'enveloppe de la réponse. Ces caractéristiques, qui incluent le temps de montée, le temps de descente, ou les amplitudes maximales du signal dans les états ON et OFF, sont alors utilisées dans un processus de régression pour prédire des spécifications RF comme les paramètres /S/. Un banc de test a été configuré et utilisé pour évaluer une dizaine d'échantillons d'un commutateur commercial. Des mesures expérimentales ont été réalisées avec un kit d'évaluation développé par notre partenaire industriel et un kit d'évaluation du développeur. Les mesures de basse fréquence comme le temps de transition ON/OFF et les amplitudes RF de la sortie sont utilisées comme régresseurs pour l'algorithme de régression multivariée qui construit une liaison non-linéaire entre les caractéristiques de basse fréquence et les performances RF de l'interrupteur. Ainsi, des performances conventionnelles comme les paramètres /S/ sont prédites à partir de ces mesures par la régression non-linéaire. Les résultats ont exposé une bonne corrélation entre les performances RF et les mesures de basse fréquence. La validation expérimentale a seulement été réalisée pour un petit échantillon d'interrupteurs. Les résultats de simulation ont aussi été utilisés pour évaluer cette corrélation.
669

Vers une description efficace du contenu visuel pour l'annotation automatique d'images

Hervé, Nicolas 08 June 2009 (has links) (PDF)
Les progrès technologiques récents en matière d'acquisition de données multimédia ont conduit à une croissance exponentielle du nombre de contenus numériques disponibles. Pour l'utilisateur de ce type de bases de données, la recherche d'informations est très problématique car elle suppose que les contenus soient correctement annotés. Face au rythme de croissance de ces volumes, l'annotation manuelle présente aujourd'hui un coût prohibitif. Dans cette thèse, nous nous intéressons aux approches produisant des annotations automatiques qui tentent d'apporter une réponse à ce problème. Nous nous intéressons aux bases d'images généralistes (agences photo, collections personnelles), c'est à dire que nous ne disposons d'aucun a priori sur leur contenu visuel. Contrairement aux nombreuses bases spécialisées (médicales, satellitaires, biométriques, ...) pour lesquelles il est important de tenir compte de leur spécificité lors de l'élaboration d'algorithmes d'annotation automatique, nous restons dans un cadre générique pour lequel l'approche choisie est facilement extensible à tout type de contenu.<br /><br />Pour commencer, nous avons revisité une approche standard basée sur des SVM et examiné chacune des étapes de l'annotation automatique. Nous avons évalué leur impact sur les performances globales et proposé plusieurs améliorations. La description visuelle du contenu et sa représentation sont sans doute les étapes les plus importantes puisqu'elles conditionnent l'ensemble du processus. Dans le cadre de la détection de concepts visuels globaux, nous montrons la qualité des descripteurs de l'équipe Imedia et proposons le nouveau descripteur de formes LEOH. D'autre part, nous utilisons une représentation par sacs de mots visuels pour décrire localement les images et détecter des concepts plus fins. Nous montrons que, parmi les différentes stratégies existantes de sélection de patches, l'utilisation d'un échantillonnage dense est plus efficace. Nous étudions différents algorithmes de création du vocabulaire visuel nécessaire à ce type d'approche et observons les liens existants avec les descripteurs utilisés ainsi que l'impact de l'introduction de connaissance à cette étape. Dans ce cadre, nous proposons une nouvelle approche utilisant des paires de mots visuels permettant ainsi la prise en compte de contraintes géométriques souples qui ont été, par nature, ignorées dans les approches de type sacs de mots. Nous utilisons une stratégie d'apprentissage statistique basée sur des SVM. Nous montrons que l'utilisation d'un noyau triangulaire offre de très bonnes performances et permet, de plus, de réduire les temps de calcul lors des phases d'apprentissage et de prédiction par rapport aux noyaux plus largement utilisés dans la littérature. La faisabilité de l'annotation automatique n'est envisageable que s'il existe une base suffisamment annotée pour l'apprentissage des modèles. Dans le cas contraire, l'utilisation du bouclage de pertinence, faisant intervenir l'utilisateur, est une approche efficace pour la création de modèles sur des concepts visuels inconnus jusque là, ou en vue de l'annotation de masse d'une base. Dans ce cadre, nous introduisons une nouvelle stratégie permettant de mixer les descriptions visuelles globales et par sac de mots.<br /><br />Tous ces travaux ont été évalués sur des bases d'images qui correspondent aux conditions d'utilisation réalistes de tels systèmes dans le monde professionnel. Nous avons en effet montré que la plupart des bases d'images utilisées par les académiques de notre domaine sont souvent trop simples et ne reflètent pas la diversité des bases réelles. Ces expérimentations ont mis en avant la pertinence des améliorations proposées. Certaines d'entre elles ont permis à notre approche d'obtenir les meilleures performances lors de la campagne d'évaluation ImagEVAL.
670

Amélioration de l'alignement et de la traduction statistique par utilisation de corpus parallèles multilingues

Ignat, Camelia 16 June 2009 (has links) (PDF)
Cette thèse porte sur la constitution d'un corpus parallèle multilingue (JRC-Acquis) et son application à l'amélioration de l'alignement et de la traduction statistique par triangulation, processus de traduction d'une langue source vers une langue cible par le biais d'une langue tierce. Dans ce cadre, nous avons développé des approches basées sur l'utilisation de corpus parallèles multilingues alignés au niveau des phrases dans plusieurs langues dites ‘pivots'. Les deux méthodes principales proposées par notre étude permettent de générer un modèle de traduction par combinaison de plusieurs systèmes créés pour différentes langues pivots. Nous démontrons ainsi que des textes parallèles multilingues en vingt-deux langues peuvent améliorer sensiblement la traduction automatique.

Page generated in 0.0866 seconds