• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 15
  • 5
  • 1
  • Tagged with
  • 47
  • 47
  • 38
  • 36
  • 35
  • 35
  • 35
  • 34
  • 33
  • 15
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Conception et réalisation d'une machine traitement de texte

Boughlam, Abdelkader 12 September 1979 (has links) (PDF)
On présente les machines-applications, c'est-à-dire les machines supportant une seule application donnée. On décrit les fonctions classiques d'un système de traitement de texte. On aborde ensuite l'application effective des phases de conception et de réalisation pour la construction de la machine REDAK. On développe les problèmes rencontres dans la réalisation d'une machine-application en utilisant le système d'exploitation d'une machine orientée système. On présente les fonctions du système de traitement de texte REDAK et on décrié le systeme d'exploitation utilisé.
12

Utilisation des progiciels - identification d'obstacles et stratégies de formation.

André, Bernard 04 December 2006 (has links) (PDF)
La finalité du système constituéd'un utilisateur et d'un système de traitement de texte est de produire des documents visibles et lisibles pour un lecteur humain. L'analyse de l'évolution des progiciels de traitement de texte révèle une complexité fortement croissante. Contrairement à l'idée répandue de leur facilité d'usage, nous constatons qu'ils posent des problèmes récurrents aux utilisateurs (éditeurs ou lecteurs) attestés par une étude informatisée des traces laissées dans un ensemble contrasté de fichiers : les objets abstraits sont peu utilisés et le plus souvent indépendamment de leur fonction de structuration hiérarchique ou sémantique. La mise en perspective des facteurs métier, économique et technique dans la genèse de ce système montre la nécessité de passer de l'étude du traitement DE texte à celle du traitement DU texte .Cette approche nouvelle conduit à proposer d'autres orientations de recherche dans l'élaboration de curriculums.
13

Alignement inter-modalités de corpus comparable monolingue

Shrestha, Prajol 10 October 2013 (has links) (PDF)
L'augmentation de la production des documents électroniques disponibles sous forme du texte ou d'audio (journaux, radio, enregistrements audio de télévision, etc.) nécessite le développement d'outils automatisés pour le suivi et la navigation. Il devrait être possible, par exemple, lors de la lecture d'un article d'un journal en ligne, d'accéder à des émissions radio correspondant à la lecture en cours. Cette navigation fine entre les différents médias exige l'alignement des "passages" avec un contenu similaire dans des documents issus de différentes modalités monolingues et comparables. Notre travail se concentre sur ce problème d'alignement de textes courts dans un contexte comparable monolingue et multimodal. Le problème consiste à trouver des similitudes entre le texte court et comment extraire les caractéristiques de ces textes pour nous aider à trouver les similarités pour le processus d'alignement. Nous contributions à ce problème en trois parties. La première partie tente de définir la similitude qui est la base du processus d'alignement. La deuxième partie vise à développer une nouvelle représentation de texte afin de faciliter la création du corpus de référence qui va servir à évaluer les méthodes d'alignement. Enfin, la troisième contribution est d'étudier différentes méthodes d'alignement et l'effet de ses composants sur le processus d'alignement. Ces composants comprennent différentes représentations textuelles, des poids et des mesures de similarité.
14

Acquisition de grammaire catégorielle de dépendances de grande envergure

Alfared, Ramadan 18 December 2012 (has links) (PDF)
Ce travail est une étude qui s'inscrit dans le cadre de la création d'un lexique complet d'une grammaire catégorielle de dépendance du français (CDG) et s'inscrit aussi dans le cadre de l'analyse mixte stochastique-déterministe des grammaires de dépendances de grande envergure. En particulier, nous élaborons des algorithmes pour améliorer le lexique de base de la CDG du français. Nous résolvons plusieurs problèmes pour l'analyse avec cette grammaire à savoir l'absence de solution proposée par l'analyseur pour certaines phrases. Nous présentons un algorithme proto-déverb qui permet de compléter le lexique de la CDG du français en plaçant les déverbaux dans les classes lexicales qui correspondent à leurs cadres de sous-catégorisation déduits de ceux des verbes correspondants. Le second problème auquel nous nous intéressons provient du fait que l'analyseur de CDG donne actuellement toutes les solutions compatibles avec une CDG. Nous proposons une approche de filtrage qui consiste à utiliser un étiqueteur morphosyntaxique pour choisir les classes grammaticales les plus probables des unités lexicales. Notre approche permet de réduire de manière significative le taux d'ambiguïtés fallacieuses de la CDG. Notre étude conclue que la qualité de cette solution est basée principalement sur la compatibilité entre les unités lexicales qui sont définies par les étiqueteurs morpho-syntaxiques et la grammaire de dépendance.
15

L’impact de l’utilisation du traitement de texte sur la qualité de l’écriture d’élèves québécois du secondaire

Grégoire, Pascal 03 1900 (has links)
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif. / The supposed decline of writing skills in Quebecois students’ during the last decades has raised vigorous debates. Admittedly, their competencies show deficiencies. Indeed, reports by the Ministry of Education (Jalbert, 2006; Ouellet, 1984) and research, both scientific and governmental (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984), reveal their incapacity to appropriate the writing process. ICT might well be part of the solution : it is a well-known fact that they encourage scholastic achievement in certain contexts (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, et al., 2003). However, do they modify the writing process so as to facilitate its learning? This question is at the heart of the current research project. Writing process models, such as those of Hayes and Flower (1981; 1995; 1980), remind us that ICT are a part of the Context component; as such, they influence the quality of the texts as much as cognitive processes and motivation. They unburden the cognitive process by taking on certain functions such as calligraphy (Daiute, 1983). Consequently, the writer may concentrate on more complex tasks. Meta-analyses (Bangert-Drowns, 1993; Goldberg, et al., 2003) show that the use of word processors has a small yet statistically significant effect on the quality of writing. That being said, they are mainly linked to surface changes (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Research projects that explore the impact of word processors on the writing process and its various dimensions simultaneously are rare, even more so since the last twenty years. To satisfy this research gap, the present thesis aims at 1) measuring ICT effect upon the quality of writing; 2) describe ICT impact on the cognitive processes of translating and reviewing; 3) measure ICT impact on motivation to write. To this objective, we utilize a mixed methodology. On one hand, a quasi-experimental design allows for a comparison of technological writers to traditional writers; on the other, a qualitative approach provides access to the thoughts and perceptions of computer users. The three articles that constitute the heart of this thesis relate the results pertaining to the stated research objectives. In the first text, we measured the effects of word processing on the quality of writing. The statistical analysis of the dataset allowed us to observe an improvement in spelling, but not grammatical spelling. In comparison, students of the control group showed improvements in their texts’ logical coherence and grammatical orthography. The second article intends to shed light on these results. The impact of ICT on the cognitive processes of translating and reviewing is studied to that effect. This aspect, which is based on a qualitative approach, is largely based on video observation. First, are highlighted the many errors committed when word processing is used. Then, is underlined the poor use of spell checking tools, that oftentimes provide inappropriate diagnostics or that are simply ignored by users. However, group interviews have shown positive perceptions vis-à-vis ICT, despite their poor use. Indeed, they are considered motivating and their benefits, although recognized, do not seem to have an impact. The motivating factor is at the heart of the last article, which measures the impact of writing methods on the motivation to write. A quantitative analysis is used to that effect. The participants’ motivation was measured using a motivational scale. The statistical analysis of the dataset demonstrates that technological students are intrinsically motivated by ICT, whereas their peers of the control group are amotivated. In the concluding chapter, we put theses results in relation with one another so as to explain the impact of ICT on the writing process as a whole. Lastly, we hope to provide possible recommendations to practitioners and decision makers within the educational system.
16

Approche hybride pour le résumé automatique de textes. Application à la langue arabe.

Maaloul, Mohamed Hedi 18 December 2012 (has links) (PDF)
Cette thèse s'intègre dans le cadre du traitement automatique du langage naturel. La problématique du résumé automatique de documents arabes qui a été abordée, dans cette thèse, s'est cristallisée autour de deux points. Le premier point concerne les critères utilisés pour décider du contenu essentiel à extraire. Le deuxième point se focalise sur les moyens qui permettent d'exprimer le contenu essentiel extrait sous la forme d'un texte ciblant les besoins potentiels d'un utilisateur. Afin de montrer la faisabilité de notre approche, nous avons développé le système "L.A.E", basé sur une approche hybride qui combine une analyse symbolique avec un traitement numérique. Les résultats d'évaluation de ce système sont encourageants et prouvent la performance de l'approche hybride proposée. Ces résultats, ont montré, en premier lieu, l'applicabilité de l'approche dans le contexte de documents sans restriction quant à leur thème (Éducation, Sport, Science, Politique, Reportage, etc.), leur contenu et leur volume. Ils ont aussi montré l'importance de l'apprentissage dans la phase de classement et sélection des phrases forment l'extrait final.
17

Étude des phénomènes itératifs en langue : Inscription discursive et Calcul aspectuo-temporel, vers un traitement automatisé

Lebranchu, Julien 15 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le domaine du traitement automatique des langues, et concerne l'étude des phénomènes itératifs en langue. Il s'agit notamment de rendre compte de la sémantique de procès exprimant une répétition (d'événements ou d'états) au sein d'un même texte, tant du point de vue de l'aspect que du temps. Nous avons mené nos travaux dans le cadre d'un travail d'équipe pluridisciplinaire couvrant des orientations linguistiques, logiques et informatiques. Ces travaux reposent sur une double appréhension commune d'un énoncé itératif : une entité événementielle en quelque sorte générique qui est présentée comme répétée dans le temps, d'une part ; l'itération proprement dite, conçue comme ensemble des occurrences du modèle, d'autre part. Nous nous focalisons pour notre part sur deux facettes : l'inscription discursive, en nous reposant sur une modélisation objet de la construction du sens des itérations (Mathet, 2007) ; et le calcul aspectuo-temporel au travers de la Sémantique de la temporalité (SdT) (Gosselin, 2011). Nous menons en premier lieu une étude de corpus, sur des articles de journaux et des œuvres littéraires, qui vise à caractériser l'inscription discursive des phénomènes itératifs. Nous exposons sur cette base leurs propriétés discursives dans la perspective de circonscrire automatiquement les itérations, c'est-à-dire repérer la borne initiale et finale du segment textuel correspondant. Nous établissons également un modèle d'annotation pour cette automatisation permettant in fine d'instancier les itérations au sein du modèle objet. Dans un second temps, nous abordons les phénomènes itératifs sous l'angle du calcul aspectuo-temporel. Fondé sur les travaux de Laurent Gosselin sur le calcul aspectuel des procès semelfactifs, nous étudions les ajustements nécessaires pour l'appliquer aux procès itératifs, en intégrant la notion de double visée aspectuelle issue de la SdT, dans la perspective de l'automatisation du calcul. Enfin, nous complétons ces deux aspects de notre travail par l'intégration de nos résultats au sein de TimeML, un formalisme XML de structuration des connaissances temporelles.
18

Extraction, Exploitation and Evaluation of Document-based Knowledge

Doucet, Antoine 30 April 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire gravitent autour du document numérique : Extraction de connaissances, utilisation de connaissances et évaluation des connaissances extraites, d'un point de vue théorique aussi bien qu'expérimental. Le fil directeur de mes travaux de recherche est la généricité des méthodes produites, avec une attention particulière apportée à la question du passage à l'échelle. Ceci implique que les algorithmes, principalement appliqués au texte dans ce mémoire, fonctionnent en réalité pour tout type de donnée séquentielle. Sur le matériau textuel, la généricité et la robustesse algorithmique des méthodes permettent d'obtenir des approches endogènes, fonctionnant pour toute langue, pour tout genre et pour tout type de document (et de collection de documents). Le matériau expérimental couvre ainsi des langues utilisant différents alphabets, et des langues appartenant à différentes familles linguistiques. Les traitements peuvent d'ailleurs être appliqués de la même manière au grain phrase, mot, ou même caractère. Les collections traitées vont des dépêches d'agence de presse aux ouvrages numérisés, en passant par les articles scientifiques. Ce mémoire présente mes travaux en fonction des différentes étapes du pipeline de traitement des documents, de leur appréhension à l'évaluation applicative. Le document est ainsi organisé en trois parties décrivant des contributions en : extraction de connaissances (fouille de données séquentielle et veille multilingue) ; exploitation des connaissances acquises, par des applications en recherche d'information, classification et détection de synonymes via un algorithme efficace d'alignement de paraphrases ; méthodologie d'évaluation des systèmes d'information dans un contexte de données massives, notamment l'évaluation des performances des systèmes de recherche d'information sur des bibliothèques numérisées.
19

Lexique et analyse sémantique de textes - structures, acquisitions, calculs, et jeux de mots

Lafourcade, Mathieu 07 December 2011 (has links) (PDF)
L'analyse sémantique de textes nécessite en préalable la construction d'objets relevant de la sémantique lexicale. Les vecteurs d'idées et les réseaux lexicaux semblent de bons candidats et constituent ensemble des structures complémentaires. Toutefois, faut-il encore être capable dans la pratique de les construire. Les vecteurs d'idées peuvent être calculés à partir de corpus de définitions de dictionnaires, de thésaurus ou encore de textes. Ils peuvent se décliner en des vecteurs conceptuels, des vecteurs anonymes ou des vecteurs lexicaux - chaque type présentant un équilibre différent entre précision, couverture et praticité. Quant aux réseaux lexicaux, ils peuvent être acquis efficacement via des jeux, et c'est précisément l'objet du projet JeuxDeMots. L'analyse sémantique peut être abordée par l'analyse thématique, et ainsi servir de moyen de calcul à des vecteurs d'idées (bouclage). Nous pouvons modéliser l'analyse comme un problème d'activation et de propagation. La multiplicité des critères pouvant intervenir dans une analyse sémantique, et la difficulté inhérente à définir une fonction de contrôle satisfaisante, nous amène à explorer l'usage de métaheuristiques bio-inspirées. Plus précisément, nous introduisons un modèle d'analyse par colonies de fourmis artificielles. A partir d'un texte, l'analyse vise a construire un graphe contenant les objets du texte (les mots), des objets identifiés comme pertinents (des syntagmes, des concepts) ainsi que des relations pondérées et typées entre ces objets.
20

Sydonie : modèle de document et ingénierie du Web

Lecarpentier, Jean-Marc 05 December 2011 (has links) (PDF)
Cette thèse de doctorat est articulée autour des ré flexions sur les évolutions du web et de l'approche des documents numériques. Elle se concrétise dans la mise au point d'un framework reprenant nos propositions de modèle de document, d'interactions et d'ingénierie du web. Nous appelons ce framework Sydonie pour SYstème de gestion de DOcuments Numériques pour l'Internet et l'édition. Il est distribué en logiciel libre. Nous proposons un modèle de document inspiré des spécifications fonctionnelles des notices bibliographiques, consignées dans le rapport sur les FRBR (Functional Requirements for Bibliographic Records). Notre modèle propose de regrouper, sous la forme d'un arbre, les différentes versions linguistiques et divers formats de fichier d'un même document. Ce modèle règle élégamment la sélection de la vue du document la plus appropriée à un utilisateur grâce à la négociation de contenu. Pour un document composite, il permet, de plus, d'inclure les composants sous la forme la plus appropriée. Notre réflexion sur les processus mis en oeuvre pour le développement d'applications web, complétée par les études réalisées dans le domaine de l'ingénierie du web, nous permettent de proposer, au sein du framework Sydonie, une architecture logicielle qui apporte des solutions souples et extensibles pour le développement d'applications web. Enfin, nous avons étudié les mécanismes à proposer pour rendre la gestion des métadonnées plus accessible aux développeurs web. Nous utilisons le modèle de document sous forme d'arbre pour proposer un modèle de gestion des métadonnées au sein des applications web.

Page generated in 0.0884 seconds