Spelling suggestions: "subject:"comparable""
11 |
La combinatoire des verbes d'affect : analyse sémantique, syntaxique et discursive français-arabe / Affective verbs’ combinations : semantic, syntactic and dicursive analysis in French and ArabicZouaidi, Safa 09 December 2016 (has links)
Le principal enjeu de notre recherche est d’aboutir à un modèle intégratif fonctionnel pour l’analyse des verbes d’affect en français et en arabe. Nous avons choisi d’étudier quatre V_affect : deux verbes d’émotion (étonner et énerver en français et leurs équivalents [ʔadhaʃa], [ʕaɣḍaba] en arabe]) et deux verbes de sentiment (admirer et envier et leurs équivalents [ʔaʕʒaba] et [ħasada]) appartenant aux champs sémantiques de la surprise, la colère, l’admiration et la jalousie. Plus concrètement, l’analyse se situe :– au niveau sémantique et syntaxique : les dimensions sémantiques véhiculées par les collocatifs verbaux comme étonner tellement, énerver prodigieusement, en français, et [ʔaʕʒaba ʔiʕʒāban kabīran] (admirer admiration grand) , [ɣaḍaba ɣaḍabaan ʃadīdan] (énerver colère sévère), en arabe, sont systématiquement reliées à la syntaxe (les constructions grammaticales récurrentes) (Hoey, 2005).– au niveau syntaxique et discursif : les emplois actifs, passifs, et pronominaux des V_affect sont étudiés dans la perspective des dynamiques informationnelles au sein de la phrase (Van Valin et LaPolla, 1997).D’un point de vue méthodologique, l’étude s’appuie sur une démarche quantitative et qualitative de la combinatoire verbale et privilégie la démarche contrastive. Elle est fondée sur le corpus journalistique français de la base de données EmoBase (projet Emolex 100 M de mots) et du corpus journalistique ArabiCorpus (137 M de mots).La thèse contribue ainsi à l’étude des valeurs sémantiques, du comportement syntaxique et discursif de la combinatoire des V_affect, en arabe et en français, ce qui permet de mieux structurer le champ lexical des affects par rapport à ce que proposent les études existantes en lexicologie. Les principaux résultats de l’étude peuvent être appliqués en didactique des langues, en traductologie et en traitement automatisé du lexique des affects dans les deux langues comparées. / The paramount stake of this research is to achieve an integrative functional model for the analysis of affective verbs in French and Arabic. I have chosen four affective verbs: two verbs of emotion (to astonish and to rage in French and their equivalent in Arabic) and two verbs of sentiment (to admire and to envy in French and their equivalent [ʔadhaʃa], [ʔaɣḍaba] in Arabic) they belong to semantic dictions of Surprise, Anger, Admiration, and Jealousy. More concretely, the analysis is shaped:- On the semantic and syntactic level: the semantic dimensions carried by verbal collocations such as to extremely astonish, to rage prodigiously in French, and [ʔaʕʒaba ʔiʕʒāban kabīran] (admire admiration big)*, [ɣaḍaba ɣaḍabaan ʃadīdan] (to rage rage extreme), and in Arabic are systematically linked to syntax (the recurrent grammatical constructions) (Hoey 2005).- On the syntactic and discursive level: the usage of passive, active and reflexive forms of affective verbs are dealt with from the perspective of informational dynamics in the sentence. (Van Valin et LaPolla 1997).From a methodological point of view, the study is based on the quantitative and qualitative approach of the verbal combination and favours the contrastive one. It is founded on the French journalistic corpus of Emobase Database (Emolex project 100 M of words) and the journalistic corpus Arabicorpus) (137 M of words).Furthermore, the thesis participates in the studies of semantic values, the syntactic and the discursive behavior of affective verbs’combinations, in Arabic and in French, which will enable to better structure the diction of emotions in relation to what is proposed by current studies in lexicography. The main results of the study can be applied in language teaching, translation, and automated processing of emotions' lexicon in the two compared languages.
|
12 |
Méthode d'enrichissement et d'élargissement d'une ontologie à partir de corpus de spécialité multilingues / Method of ontology enrichment and population from multilingual comparable domain specific corpusKorenchuk, Yuliya 11 July 2017 (has links)
Cette thèse propose une méthode pour alimenter une ontologie, une structure de concepts liés par des relations sémantiques, par des termes français, anglais et allemands à partir de corpus spécialisés comparables. Son apport principal est le développement des méthodes d'extraction utilisant des ressources endogènes apprises à partir de corpus et d'ontologie. Exploitant des n-grammes de caractères, elles sont disponibles et indépendantes vis-à-vis de la langue et du domaine. La première contribution porte sur l'utilisation des ressources morphologiques et morphosyntaxiques endogènes pour extraire des termes mono- et polylexicaux à partir de corpus. La deuxième contribution vise à exploiter des ressources endogènes pour identifier leurs traductions. La troisième contribution concerne la construction des familles morphologiques endogènes servant à alimenter l'ontologie. / This thesis proposes a method of enrichment and population of an ontology, a structure of concepts linked by semantic relations, by terms in French, English and German from comparable domain-specific corpora. Our main contribution is the development of extraction methods based on endogenous resources, learned from the corpus and the ontology being analyzed. Using caracter n-grams, these resources are available and independent of a particular language or domain. The first contribution concerns the use of endogenous morphological and morphosyntactic resources for mono- and polylexical terms extraction from the corpus. The second contribution aims to use endogenous resources to identify translations for these terms. The third contribution concerns the construction of endogenous morphological families designed to enrich and populate the ontology.
|
13 |
Enterprise Value/Monthly Active Users: A Valid Sector Specific Multiple for the Valuation of Social Media Firms?Haught, Christopher M. 21 July 2017 (has links)
No description available.
|
14 |
L’extraction de phrases en relation de traduction dans WikipédiaRebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction.
L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues.
Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension.
L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites.
Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences.
The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair.
It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic.
The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations.
We make both the aligned data and the extracted corpus available to the scientific community.
|
15 |
Propositions pour l'amélioration de la pertinence de la méthode des multiples en évaluation d'entreprise. / Proposals for improving the relevance of the multiple-based business valuation methodChastenet de Castaing, Edouard 31 March 2011 (has links)
Notre recherche s’intéresse plus particulièrement aux critères de sélection à retenir pour améliorer la pertinence de la méthode des multiples en ce qui concerne la sélection des multiples de référence, la sélection des sociétés comparables ou la combinaison de multiples.Nous confirmons que les multiples de valeur d’entreprise fondés des résultats (Ebitda ou Ebit) relatifs à des exercices prospectifs (par rapport à l’exercice réalisé) sont généralement les plus pertinents. En absence de résultats relatifs à des exercices prospectifs, disponibles au moment de l’évaluation, notre étude montre que les multiples d’Ebitda sont généralement plus pertinents.Nous confirmons que les taux de croissance anticipés de l’Ebitda et de l’Ebit sont généralement des indicateurs de performance pertinents pour identifier les sociétés les plus comparables au sein d’un groupe de pairs initialement constitué, en ce qui concerne les multiples d’Ebitda et d’Ebit relatifs à l’exercice réalisé.Notre étude montre que la combinaison des multiples de Capitaux employés et d’Ebit, d’une part, et d’Ebitda et d’Ebit, d’autre part (selon des coefficients de pondération spécifiques à chaque secteur d’activité), sont de nature à améliorer la pertinence de la méthode, par rapport à l’utilisation de ces multiples seuls.La démarche mise en œuvre dans cette recherche est susceptible d’être reproduite par les praticiens afin d’identifier au cas par cas les multiples simples ou combinés les plus pertinents pour chaque groupe de pairs sectoriels constitué. / Our research focuses more specifically on the selection criteria to be used to improve the relevance of the multiple-Based valuation method regarding the selection of reference multiples, the selection of comparable companies or the combination of multiples.We confirm that the Enterprise Value multiples based on prospective Ebit and Ebitda (versus actual) are generally the most relevant. In the absence of prospective data, available at the date of valuation, our study shows that Ebitda multiples are generally more relevant.We confirm that the expected growth rates of Ebitda or Ebit are generally relevant performance indicators to identify the most comparable companies among industry-Based peer groups, considering actual Ebitda and Ebit-Based multiples.Our study shows that the combination of Capital employed and Ebit-Based multiples, on the one hand, and of Ebitda and Ebit-Based multiples, on the other hand (based on weighted factors specific to each sector), are likely to improve the relevance of the method, compared to the use of these multiples, alone.The approach implemented in this research may be reproduced by practitioners to identify case by case single and combined multiples that are the most relevant for each industry-Based peer group.
|
16 |
La terminologie bilingue (Arabe-Français) de la surdité : analyse du discours textuelle et socioterminologique / The bilingual terminology (Arabic-French) of deafness discours analysis : textual and socioterminologicalTajo, Kinda 18 December 2013 (has links)
Le texte spécialisé dans le domaine de la surdité est un phénomène complexe où les termes ont une fonction sémantique très importante. Le discours actualise le sens des termes et donne suite à de nouvelles significations dynamiques. Le corpus bilingue (français, arabe) est représentatif de différents types de discours et de niveaux de spécialisation notamment lorsqu’il s’agit de comparer la terminologie de la surdité entre les pays arabes (Liban, Syrie et Jordanie). Les termes, qui sont responsables de transmettre les connaissances relatives à une spécialité, constituent aujourd'hui un objet d'étude central pour la terminologie. Leur extraction s’effectue non seulement par la méthode manuelle mais aussi à travers les nouveaux logiciels d’extraction automatique. Cette thèse prend en considération les besoins linguistiques des usagers qui sont dorénavant les vrais consommateurs de terminologie. Elle a pour objectif de faire une approche socioterminologique et textuelle du domaine de la surdité en mettant la lumière sur les phénomènes étudiés comme la synonymie, la variation terminologique, la vulgarisation, la métaphore, la traduction et autres. Sa retombée étant la constitution d’une base de données terminologique trilingue qui répond aux exigences des spécialistes et des non-spécialistes. / The specialized text in the domain of deafness is a complex phenomenon where terms have important semantic functions. The discourse updates the meaning of terms and brings up new dynamic significations. The bilingual corpus (French, Arabic) is representative of different types of discourse and levels of specialization especially when it comes to comparing the terminology of deafness in the three Arab countries (Lebanon, Syria, Jordan). Terms in charge of transmitting knowledge of special fields represent nowadays a central object of study for terminology. The extraction of terms can be made manually but also by means of new automatic term extraction software. Our doctoral thesis takes into consideration the linguistic needs of language users that are considered from now on the real consumers of terminology. This thesis is intended for socioterminological and textual approaches of the domain of deafness. It highlights the studied phenomena such as synonymy, terminology variation, scientific popularization, metaphor, translation and many other phenomena. The result of the thesis research being the construction of a trilingual terminological data base, it meets the requirements of specialists and non-specialists.
|
17 |
L’extraction de phrases en relation de traduction dans WikipédiaRebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction.
L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues.
Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension.
L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites.
Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences.
The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair.
It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic.
The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations.
We make both the aligned data and the extracted corpus available to the scientific community.
|
18 |
Traduction assistée par ordinateur et corpus comparables : contributions à la traduction compositionnelleDelpech, Estelle 02 July 2013 (has links) (PDF)
Notre travail concerne l'extraction de lexiques bilingues à partir de corpus comparables, avec une application à la traduction spécialisée. Nous avons d'abord évalué les méthodes classiques d'acquisition de lexiques en corpus comparables (basées l'hypothèse distributionnelle : plus deux termes apparaissent dans des contextes similaires, plus il y a de chances qu'ils soient des traductions) d'un point de vue applicatif. L'évaluation a montré que les traducteurs sont mal à l'aise avec les lexiques extraits : la traduction correcte est trop souvent noyée dans une liste de traductions candidates et ils préfèreraient utiliser un lexique plus petit mais plus précis. Partant de ce constat, nous nous sommes orientés vers une autre approche qui a fait récemment ses preuves pour l'exploitation des corpus comparables et produit des lexiques plus adaptés aux besoins des traducteurs : la traduction compositionnelle (la traduction du terme source est fonction de la traduction de ses parties). Nous nous sommes concentrés sur la traduction d'unités monolexicales : le terme source est découpé en morphèmes, les morphèmes sont traduits puis recomposés en un terme cible. Dans ce cadre, nous avons poursuivi trois axes de recherche : la génération de traductions fertiles (cas où le terme cible contient plus de mots lexicaux que le terme source), l'indépendance aux structures morphologiques et l'ordonnancement des traductions candidates.
|
19 |
Caractérisation différentielle de forums de discussion sur le VIH en vietnamien et en français : Éléments pour la fouille comportementale du web social / Differential characterization of discussion forums on HIV in Vietnamese and French : Elements for behaviour mining on the social webHô Dinh, Océane 22 December 2017 (has links)
Les discours normés que produisent les institutions sont concurrencés par les discours informels ou faiblement formalisés issus du web social. La démocratisation de la prise de parole redistribue l’autorité en matière de connaissance et modifie les processus de construction des savoirs. Ces discours spontanés sont accessibles par tous et dans des volumes exponentiels, ce qui offre aux sciences humaines et sociales de nouvelles possibilités d’exploration. Pourtant elles manquent encore de méthodologies pour appréhender ces données complexes et encore peu décrites. L’objectif de la thèse est de montrer dans quelle mesure les discours du web social peuvent compléter les discours institutionnels. Nous y développons une méthodologie de collecte et d’analyse adaptée aux spécificités des discours natifs du numérique (massivité, anonymat, volatilité, caractéristiques structurelles, etc.). Nous portons notre attention sur les forums de discussion comme environnements d’élaboration de ces discours et appliquons la méthodologie développée à une problématique sociale définie : celle de l’épidémie du VIH/SIDA au Viêt Nam. Ce terrain applicatif recouvre plusieurs enjeux de société : sanitaire et social, évolutions des moeurs, concurrence des discours. L’étude est complétée par l’analyse d’un corpus comparable de langue française, relevant des mêmes thématique, genre et discours que le corpus vietnamien, de manière à mettre en évidence les spécificités de contextes socioculturels distincts. / The standard discourse produced by official organisations is confronted with the unofficial or informal discourse of the social web. Empowering people to express themselves results in a new balance of authority, when it comes to knowledge and changes the way people learn. Social web discourse is available to each and everyone and its size is growing fast, which opens up new fields for both humanities and social sciences to investigate. The latter, however, are not equipped to engage with such complex and little-analysed data. The aim of this dissertation is to investigate how far social web discourse can help supplement official discourse. In it we set out a method to collect and analyse data that is in line with the characteristics of a digital environment, namely data size, anonymity, transience, structure. We focus on forums, where such discourse is built, and test our method on a specific social issue, ie the HIV/AIDS epidemic in Vietnam. This field of investigation encompasses several related questions that have to do with health, society, the evolution of morals, the mismatch between different kinds of discourse. Our study is also grounded in the analysis of a comparable French corpus dealing with the same topic, whose genre and discourse characteristics are equivalent to those of the Vietnamese one: this two-pronged research highlights the specific features of different socio-cultural environments.
|
Page generated in 0.0674 seconds