Spelling suggestions: "subject:"traitement dde texto"" "subject:"traitement dde texts""
1 |
Une Approche pour la conception de systèmes de traitement de textes extensibles et interconnectables.Tantawy, Magda Mourad, January 1900 (has links)
Th. doct.-ing.--Inform.--Nancy--I.N.P.L., 1982.
|
2 |
L'enseignement de stratégies d'écriture en français langue seconde, combiné à l'utilisation du traitement de texte /Chabot, Carole. January 1997 (has links)
Thèse (M. A.)--Université Laval, 1997. / Bibliogr.: f. 130-138. Publié aussi en version électronique.
|
3 |
Traitement des contraintes formelles liées au genre et au medium de production par des scripteurs novices : étude didactique / How "novice" writers deal with the formal exigencies relative to genre and means of production : a didactic studyLafourcade, Bernadette 20 November 2008 (has links)
Cette recherche s'intéresse à l'écriture en tant que système de contraintes avec pour objectif d'étudier le fonctionnement des contraintes liées au genre et au médium de production dans une perspective didactique. S'appuyant sur l'approche bakhtinienne de la notion de genre et sur les analyses psycholinguistiques de l'écriture, elle s'est proposé d'observer en recourant aux méthodes issues de la critique génétique la manière dont les scripteurs novices traitents ces deux contraintes à travers trois expérimentations, deux menées auprès de lycéens en 2003-2004 et 2004-2005 et une menée auprès de scripteurs experts, des professeurs des écoles stagiaires en 2004-2005. La tâche consistait à produire, en écriture manuscrite ou sur traitement de texte, des textes à partir de l'incipit puis de l'excipit d'une nouvelle aux indices génériques flous ou contradictoires, afin de permettre au chercheur de mesurer d'une part l'impact de la préhension des marques de généricité, d'autre part l'impact du médium de producxtion sur la cohérence macrostructurelle et la "qualité" des suites de texte produites. Les constats opérés ont donné lieu à des propositions concernant les activités d'écriture à mettre en place au lycée pour apporter une aide efficace aux adolescents, notamment pour les initier à l'écriture de textes ou de métatextes conformes à ceux qu'ils devront produire à l'épreuve de français au baccalauréat (EAF). Loin d'épuiser le sujet, la recherche a permis de confirmer certaines avancées issues de travaux de linguistes, psycholinguistes, généticiens et didactitiens et surtout de montrer comment elles s'appliquent aux écrits des scripteurs en formation que sont les lycéens / This study which deals with the writing process as a system of formal exigencies, aims at analysing those relative to genre and those relative to the means of production. Taking Bakhtin's approach to the notion of genre along with the findings from psycholinguistic studies of written production, using genetic critic methodology, it was observed in three experiments - two of then carried out in 2003-2004 and 2004-2005 amonf "novice" writers and another among trainee primary teatchers ("expert" writers) - how first year pupils deal with these two formal exigencies. Their task was to produce hand written or word processed texts first from the "incipit", then from the "excipit" content of a novel with vague or contradictory indications of genre, in order to allow the researcher to evaluate, on the one hand, how effectively they aprrehend characteristics pertaining to genre and, on the other, whether the means of production have an impact on macrostructural cohesion and "quality" of the series of texts produced. The results question which type of writing activities should be put into practice in high schools to effectively help adolescents, especially in introducing them to writing the type of texts or metatexts which they will have to produce for their baccalaureat French language exam (EAF). Although not an exaustive study these findings have nonetheless confirmed some of the research results of linguists, psycholinguists, geneticists and researchers on Composition Theory and, most significantly, have shown how there results can be useful in analysing the texts of learner writers
|
4 |
Modèle de traduction statistique à fragments enrichi par la syntaxeNikoulina, Vassilina 19 March 2010 (has links) (PDF)
Les modèles de traduction automatique probabiliste traditionnel ignorent la structure syntaxique des phrases source et cible. Le choix des unités lexicales cible et de leur ordre est contrôlé uniquement par des statistiques de surface sur le corpus d'entraînement. La connaissance de la structure linguistique peut-être bénéfique, car elle fournit des informations génériques compensant la pauvreté des données directement observables. Nos travaux ont pour but d'étudier l'impact des informations syntaxiques sur un modèle de traduction probabiliste de base, fondé sur des fragments, dans le cadre d'un analyseur dépendanciel particulier, XIP, dont la performance est bien adaptée à nos besoins. Nous étudions d'abord l'intégration des informations syntaxiques dans un but de reclassement des traductions proposées par le modèle de base? Nous définissons un ensemble de traits mesurant la similarité entre les structures de dépendance source et cible, et des traits de cohérence linguistique (basés sur l'analyse cible). L'apprentissage automatique des poids de ces traits permet de détecter leurs importance. L'évaluation manuelle des différents modèles de reclassement nous a permis de montrer le potentiel de ces traits pour améliorer la qualité des traductions proposées par le modèle de base. Ensuite, nous avons proposé un modèle pour réduire la taille du graphe des hypothèses exploré par le modèle de base à l'aide de connaissances sur la structure syntaxique source. Nous avons également proposé une procédure de décomposition d'une phrase source initiale en sous-phrases pour simplifier la tâche de traduction. Les évaluations initiales de ces modèles se sont montrées prometteuses.
|
5 |
Modélisation différentielle du texte, de la linguistique aux algorithmesLucas, Nadine 23 June 2009 (has links) (PDF)
Le mémoire " Modélisation différentielle du texte, de la linguistique aux algorithmes " porte sur mon positionnement épistémologique et spécialement sur l'interface entre modélisation en linguistique théorique et modélisation en informatique. Dès le départ j'ai pris l'étude des corpus et le multilinguisme comme base de travail. Les méthodes utilisées se placent dans la filiation de l'école de Prague (Jakobson, mais aussi les informaticiens) et elles ont une parenté avec d'autres recherches au Japon et dans les pays nordiques. Alors que la plupart des travaux du TAL concernent la syntaxe ou le lexique, j'ai pris le point de vue de l'analyse du discours écrit dans son intégralité et d'un point de vue relationnel, endogène, pour trouver les moyens de traiter automatiquement des textes entiers et des corpus de textes. La première dimension originale est le multilinguisme conçu comme hypothèse normale de travail, et non comme nécessité de cumul de pratiques monolingues. La seconde dimension est l'angle de vision multi échelle, qui permet d'analyser les collections et les documents avec leur mise en forme matérielle, en repérant les marques qui structurent les textes indépendamment de la langue, en posant des observations sur les grains d'analyse pertinents. Le mémoire contient de nombreux exemples d'applications, décrits en profondeur, avec les enjeux, les techniques utilisées et des illustrations des résultats obtenus.
|
6 |
Etude et connexion de terminaux aux logiciels de traitement de texteTantawi, Ahmed 10 December 1980 (has links) (PDF)
Idées générales sur la bureautique. Etat actuel de la recherche, ses axes futurs. Définition des caracteristiques des terminaux de bureau et du poste de travail dans un bureau automatisé. Etude du probleme de la connexion des terminaux à un systeme bureautique. Après avoir étudié les solutions de ce probleme dans le domaine plus general de l'informatique, on propose d'étendre la notion de terminal virtuel à celle de terminal virtuel specialisé dans une application. On définit un langage d'E/S pour le traitement de texte, puis un terminal virtuel spécialise basé sur ce langage. Description des réalisations expérimentales faites dans le laboratoire pour prouver la faisabilité des propositions faites, et pour réaliser un terminal intelligent de traitement de textes.
|
7 |
Extraction de lexiques bilingues à partir de corpus comparablesHazem, Amir 11 October 2013 (has links) (PDF)
La plupart des travaux en acquisition de lexiques bilingues à partir de corpus comparables reposent sur l'hypothèse distributionnelle qui a été étendue au scénario bilingue. Deux mots ont de fortes chances d'être en relation de traduction s'ils apparaissent dans les mêmes contextes lexicaux. Ce postulat suppose donc une définition claire et rigoureuse du contexte et une connaissance parfaite des indices contextuels. Or, la complexité et les spécificités de chaque langue font qu'il n'est pas aisé d'énoncer une telle définition qui garantisse une extraction de couples de traductions, efficace dans tous les cas de figure. Toute la difficulté réside dans la manière de définir, d'extraire et de comparer ces contextes dans le but de construire des lexiques bilingues fiables. Nous nous efforcerons tout au long des différents chapitres de cette thèse à essayer de mieux comprendre cette notion de contexte, pour ensuite l'étendre et l'adapter afin d'améliorer la qualité des lexiques bilingues. Une première partie des contributions vise à améliorer l'approche directe qui fait office de référence dans la communauté. Nous proposerons plusieurs manières d'aborder le contexte des mots pour mieux les caractériser. Dans la deuxième partie des contributions, nous commencerons par présenter une approche qui vise à améliorer l'approche par similarité inter-langue. Ensuite, une méthode nommée Q-Align, directement inspirée des systèmes de question/réponse sera présentée. Enfin, nous présenterons plusieurs transformations mathématiques et donc plusieurs représentations vectorielles, pour nous concentrer essentiellement sur celles que nous aurons choisi pour développer une nouvelle méthode d'alignement.
|
8 |
Localisation interne et en contexte des logiciels commerciaux et libresFraisse, Amel 10 June 2010 (has links) (PDF)
Nous proposons une méthode novatrice pour permettre la localisation en contexte de la majorité des logiciels commerciaux et libres, ceux programmés en Java et en C++/C#. Actuellement, la traduction des documents techniques ainsi que celle des éléments d'interface des logiciels commerciaux est confiée uniquement à des professionnels, ce qui allonge le processus de traduction, le rend coûteux, et quelquefois aboutit à une mauvaise qualité car les traducteurs professionnels n'ont pas accès au contexte d'utilisation des éléments textuels. Dès que l'on sort du petit ensemble des quelques langues les mieux dotées, et que lon veut localiser un logiciel pour des " langues peu dotées ", ce processus n'est plus viable pour des raisons de coût et surtout de rareté, de cherté, ou d'absence de traducteurs professionnels. Notre méthode consiste à faire participer de façon efficace et dynamique les bêta-testeurs et les utilisateurs finals au processus de localisation : pendant qu'ils utilisent l'application, les utilisateurs connaissant la langue originale du logiciel (souvent mais pas toujours l'anglais) peuvent intervenir sur les éléments textuels d'interface que l'application leur présente dans leur contexte d'utilisation courant. Ils peuvent ainsi traduire en contexte les boutons, les menus, les étiquettes, les onglets, etc., ou améliorer la traduction proposée par des systèmes de traduction automatique (TA) ou des mémoires de traductions (MT). Afin de mettre en place ce nouveau paradigme, nous avons besoin d'intervenir très localement sur le code source du logiciel : il s'agit donc aussi d'un paradigme de localisation interne. La mise en place d'une telle approche de localisation a nécessité l'intégration d'un gestionnaire de flot de traductions " SECTra_w ". Ainsi, nous avons un nouveau processus de localisation tripartite dont les trois parties sont l'utilisateur, l'éditeur du logiciel et le site collaboratif SECTra_w. Nous avons effectué une expérimentation complète du nouveau processus de localisation sur deux logiciels libres à code source ouvert : Notepad-plus-plus et Vuze.
|
9 |
Méthodes et modèles de construction automatisée d'ontologies pour des domaines spécialisés / Methods and models for the learning the domain ontologyGoncharova, Olena 23 February 2017 (has links)
La thèse est préparée dans le cadre d’une convention de cotutelle sous la direction des Professeurs Jean-Hugues Chauchat (ERIC-Lyon2) et N.V. Charonova (Université Nationale Polytechnique de Kharkov en Ukraine).1. Les résultats obtenus peuvent se résumer ainsi : Rétrospective des fondations théoriques sur la formalisation des connaissances et langue naturelle en tant que précurseurs de l’ingénierie des ontologies. Actualisation de l’état de l’art sur les approches générales dans le domaine de l’apprentissage d’ontologie, et sur les méthodes d’extraction des termes et des relations sémantiques. Panorama des plateformes et outils de construction et d’apprentissage des ontologies ; répertoire des ressources lexicales disponibles en ligne et susceptibles d’appuyer l’apprentissage d’ontologie (apprentissage des concepts et relation). 2. Propositions méthodologiques : Une méthode d’apprentissage des patrons morphosyntaxiques et d’installation de taxonomies partielles de termes. Une méthode de formation de classes sémantiques représentant les concepts et les relations pour le domaine de la sécurité radiologique. Un cadre (famework) d’organisation des étapes de travaux menant à la construction de l’ontologie du domaine de la sécurité radiologique.3. Implémentation et expérimentations : Installation de deux corpus spécialisés dans le domaine de la protection radiologique, en français et en russe, comprenant respectivement 1 500 000 et 600 000 unités lexicales. Implémentation des trois méthodes proposées et analyse des résultats obtenus. Les résultats ont été présentés dans 13 publications, revues et actes de conférences nationales et internationales, entre 2010 et 2016, notamment IMS-2012, TIA-2013, TOTH-2014, Eastern-European Journal of Eenterprise Technologies, Bionica Intellecta (Бионика интеллекта), Herald of the NTU «~KhPI~» (Вестник НТУ «~ХПИ~»). / The thesis has been prepared within a co-supervision agreement with the Professors Jean-Hugues Chauchat (ERIC-Lyon2) and N.V. Charonova (National Polytechnic University of Kharkov in Ukraine).The results obtained can be summarized as follows:1. State of the art:Retrospective of theoretical foundations concerning the formalization of knowledge and natural language as precursors of ontology engineering.Update of the state of the art on general approaches in the field of ontology learning, and on methods for extracting terms and semantic relations.Overview of platforms and tools for ontology construction and learning; list of lexical resources available online able to support ontology learning (concept learning and relationship).2. Methodological proposals:Learning morphosyntactic patterns and implementing partial taxonomies of terms.Finding semantic classes representing concepts and relationships for the field of radiological safety.Building a frame for the various stages of the work leading to the construction of the ontology in the field of radiological safety.3. Implementation and experiments:Loading of two corpuses specialized in radiological protection, in French and Russian, with 1,500,000 and 600,000 lexical units respectively.Implementation of the three previous methods and analysis of the results obtained.The results have been published in 13 national and international journals and proceedings, between 2010 and 2016, including IMS-2012, TIA-2013, TOTH-2014, Bionica Intellecta (Бионика интеллекта) , Herald of the NTU "~ KhPI ~" (Вестник НТУ "~ ХПИ ~").
|
10 |
L’impact de l’utilisation du traitement de texte sur la qualité de l’écriture d’élèves québécois du secondaireGrégoire, Pascal 03 1900 (has links)
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif. / The supposed decline of writing skills in Quebecois students’ during the last decades has raised vigorous debates. Admittedly, their competencies show deficiencies. Indeed, reports by the Ministry of Education (Jalbert, 2006; Ouellet, 1984) and research, both scientific and governmental (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984), reveal their incapacity to appropriate the writing process. ICT might well be part of the solution : it is a well-known fact that they encourage scholastic achievement in certain contexts (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, et al., 2003). However, do they modify the writing process so as to facilitate its learning? This question is at the heart of the current research project. Writing process models, such as those of Hayes and Flower (1981; 1995; 1980), remind us that ICT are a part of the Context component; as such, they influence the quality of the texts as much as cognitive processes and motivation. They unburden the cognitive process by taking on certain functions such as calligraphy (Daiute, 1983). Consequently, the writer may concentrate on more complex tasks. Meta-analyses (Bangert-Drowns, 1993; Goldberg, et al., 2003) show that the use of word processors has a small yet statistically significant effect on the quality of writing. That being said, they are mainly linked to surface changes (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Research projects that explore the impact of word processors on the writing process and its various dimensions simultaneously are rare, even more so since the last twenty years. To satisfy this research gap, the present thesis aims at 1) measuring ICT effect upon the quality of writing; 2) describe ICT impact on the cognitive processes of translating and reviewing; 3) measure ICT impact on motivation to write. To this objective, we utilize a mixed methodology. On one hand, a quasi-experimental design allows for a comparison of technological writers to traditional writers; on the other, a qualitative approach provides access to the thoughts and perceptions of computer users. The three articles that constitute the heart of this thesis relate the results pertaining to the stated research objectives. In the first text, we measured the effects of word processing on the quality of writing. The statistical analysis of the dataset allowed us to observe an improvement in spelling, but not grammatical spelling. In comparison, students of the control group showed improvements in their texts’ logical coherence and grammatical orthography. The second article intends to shed light on these results. The impact of ICT on the cognitive processes of translating and reviewing is studied to that effect. This aspect, which is based on a qualitative approach, is largely based on video observation. First, are highlighted the many errors committed when word processing is used. Then, is underlined the poor use of spell checking tools, that oftentimes provide inappropriate diagnostics or that are simply ignored by users. However, group interviews have shown positive perceptions vis-à-vis ICT, despite their poor use. Indeed, they are considered motivating and their benefits, although recognized, do not seem to have an impact. The motivating factor is at the heart of the last article, which measures the impact of writing methods on the motivation to write. A quantitative analysis is used to that effect. The participants’ motivation was measured using a motivational scale. The statistical analysis of the dataset demonstrates that technological students are intrinsically motivated by ICT, whereas their peers of the control group are amotivated. In the concluding chapter, we put theses results in relation with one another so as to explain the impact of ICT on the writing process as a whole. Lastly, we hope to provide possible recommendations to practitioners and decision makers within the educational system.
|
Page generated in 0.0783 seconds