• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 23
  • 6
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 116
  • 52
  • 25
  • 19
  • 16
  • 16
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Apprentissage de représentations en imagerie fonctionnelle / Learning representations from functional MRI data

Mensch, Arthur 28 September 2018 (has links)
Grâce aux avancées technologiques dans le domaine de l'imagerie fonctionnelle cérébrale, les neurosciences cognitives accumulent une grande quantité de cartes spatiales décrivant de manière quantitative l'activité neuronale suscitée dans le cerveau humain en réponse à des tâches ou des stimuli spécifiques, ou de manière spontanée. Dans cette thèse, nous nous intéressons particulièrement aux données issues de l'imagerie par résonance magnétique fonctionnelle (IRMf), que nous étudions dans un cadre d'apprentissage statistique. Notre objectif est d'apprendre des modèles d'activité cérébrale à partir des données. Nous proposons différentes nouvelles manières de profiter de la grande quantité de données IRMf disponible. Tout d'abord, nous considérons les données d'IRMf de repos, que nous traitons grâce à des méthodes de factorisation de matrices. Nous présentons de nouvelles méthodes pour calculer en un temps raisonnable une factorisation parcimonieuse de matrices constituées de centaines d'enregistrements d'IRMf. Cela nous permet d'extraire des réseaux fonctionnels à partir de données d'une envergure inédite. Notre méthode principale introduit une réduction aléatoire de la dimension des données dans une boucle d'apprentissage en ligne. L'algorithme proposé converge plus de 10 fois plus vite que les meilleures méthodes existantes, pour différentes configurations et sur plusieurs jeux de données. Nous effectuons une vaste validation expérimentale de notre approche de sous-échantillonnage aléatoire. Nous proposons une étude théorique des propriétés de convergence de notre algorithme. Dans un second temps, nous nous intéressons aux données d'IRMf d'activation. Nous démontrons comment agréger différents études acquises suivant des protocoles distincts afin d'apprendre des modèles joints de décodage plus justes et interprétables. Notre modèle multi-études apprend à réduire la dimension des images cérébrales en entrée en même temps qu'il apprend à les classifier, pour chacune des études, à partir de leurs représentations réduites. Cela suscite un transfert d'information entre les études. En conséquence, notre modèle multi-étude est plus performant que les modèles de décodage appris sur chaque étude séparément. Notre approche identifie une représentation universellement pertinente de l'activité cérébrale, supportée par un petit nombre de réseaux optimisés pour l'identification de tâches. / Thanks to the advent of functional brain-imaging technologies, cognitive neuroscience is accumulating maps of neural activity responses to specific tasks or stimuli, or of spontaneous activity. In this work, we consider data from functional Magnetic Resonance Imaging (fMRI), that we study in a machine learning setting: we learn a model of brain activity that should generalize on unseen data. After reviewing the standard fMRI data analysis techniques, we propose new methods and models to benefit from the recently released large fMRI data repositories. Our goal is to learn richer representations of brain activity. We first focus on unsupervised analysis of terabyte-scale fMRI data acquired on subjects at rest (resting-state fMRI). We perform this analysis using matrix factorization. We present new methods for running sparse matrix factorization/dictionary learning on hundreds of fMRI records in reasonable time. Our leading approach relies on introducing randomness in stochastic optimization loops and provides speed-up of an order of magnitude on a variety of settings and datasets. We provide an extended empirical validation of our stochastic subsampling approach, for datasets from fMRI, hyperspectral imaging and collaborative filtering. We derive convergence properties for our algorithm, in a theoretical analysis that reaches beyond the matrix factorization problem. We then turn to work with fMRI data acquired on subject undergoing behavioral protocols (task fMRI). We investigate how to aggregate data from many source studies, acquired with many different protocols, in order to learn more accurate and interpretable decoding models, that predicts stimuli or tasks from brain maps. Our multi-study shared-layer model learns to reduce the dimensionality of input brain images, simultaneously to learning to decode these images from their reduced representation. This fosters transfer learning in between studies, as we learn the undocumented cognitive common aspects that the many fMRI studies share. As a consequence, our multi-study model performs better than single-study decoding. Our approach identifies universally relevant representation of brain activity, supported by a few task-optimized networks learned during model fitting. Finally, on a related topic, we show how to use dynamic programming within end-to-end trained deep networks, with applications in natural language processing.
72

Les officiers français des 2e et 5e bureaux de l’état-major de l’armée (août 1919-juin 1919) / The french officers of the 2e and 5e bureaux in the headquarters of the War Office 1914, August - 1919, June

Bourlet, Michaël 21 November 2009 (has links)
Au début du XXe siècle, le 2e bureau incarne le renseignement militaire à l’état-major de l’armée à Paris. Entre août 1914 et juin 1919, 366 officiers servent dans cette administration secrète du ministère de la Guerre. Ce travail, qui a pour objet une histoire des services dits spéciaux à travers le prisme des dossiers individuels, comprend trois axes : une étude institutionnelle, une étude prosopographique et un dictionnaire biographique. En moins de quatre années, le dispositif de renseignement à l’EMA étend ses activités à des champs nouveaux (économie, politique, diplomatie, coopération interalliée). Ce développement passe par plusieurs réformes structurelles profondes. Pour mener à bien ces activités, le renseignement à l’EMA connaît un accroissement inédit de son personnel et un élargissement du recrutement, qui concerne en particulier les officiers de réserve. Les élites intellectuelles et économiques de la Nation occupent alors une place de choix dans cette organisation. Une fois la guerre terminée, le 2e bureau retrouve sa spécificité militaire. / At the beginning of the 20th century, the “2e bureau” embodied military intelligence at the headquarters of the War Office in Paris. Between August 1914 and June 1919, 366 officers served in this secret administration of the War Office. Through individual files and with the aim of relating the history of services known as special services, this thesis is made up of three main lines: first, an institutional study, then a prosopographic study and finally a biographical dictionary. In less than four years, the intelligence plan set up at the EMA (État-major de l’armée) opened to new fields (economy, politics, diplomacy, inter-allied cooperation). This development went through deep structural reforms. In order to bring its activities to a successful conclusion, the “2e bureau” increased personnel and recruitment, which applied to reserve officers in particular. The intellectual and economic elites of the Nation would then occupy a place of choice in this organisation. Once the war was over, the “2e bureau” was back in charge of purely military matters.
73

Architecture under the knife : Viollet-le-Duc's illustrations for the Dictionnaire Raisonné and the anatomical representation of architectural knowledge

Vinegar, Aron January 1995 (has links)
No description available.
74

La macrostructure et la microstructure des dictionnaires historiques : etude analytique et comparative de la macrostructure et de la microstructure des dictionnaires historiques français, anglais et arabe / The macrostructure and microstructure of historical dictionaries : an analytic and comparative study of the macrostructure and microstructure of French, English and Arabic historical dictionaries

Mabrak, Sami 30 November 2018 (has links)
Notre thèse relève du domaine de la lexicographie et plus précisément de la lexicographie contemporaine. Notre étude analyse les dictionnaires historiques comme objet de recherche. Quant à notre problématique de recherche, elle porte sur la constitution de la macrostructure et sur l’élaboration de la microstructure des dictionnaires historiques que sont le Dictionnaire Historique de la Langue Française (le RH), le Dictionnaire Historique de la Langue Anglaise (l’OED) et le Dictionnaire Historique de la Langue Arabe (le DHLA). Les deux premiers dictionnaires historiques sont déjà publiés, alors que le dernier est en cours de compilation.Notre étude comporte deux objectifs principaux. Tout d’abord, elle analyse les éléments de divergence et les éléments de convergence entre la macrostructure et la microstructure des deux dictionnaires historiques, que sont le RH et l’OED. Ensuite, elle examine ces éléments et détermine ceux qui sont applicables dans la constitution de la macrostructure et l’élaboration de la microstructure du DHLA. Pour ce faire, nous avons opté pour l’analyse d’un corpus issu principalement des dictionnaires - le RH et l’OED. Nous avons fait appel également à un corpus secondaire constitué à partir des dictionnaires français, anglais et arabe de langue générale.Notre étude a permis de confirmer que les trois dictionnaires historiques adoptent trois approches différentes dans la constitution de leur macrostructure. Le RH adopte une approche étymologique. Quant à l’OED, il utilise une approche lexicale. Enfin, le DHLA a opté pour une approche complexe. En revanche, ces trois approches sont mises en œuvre en appliquant trois critères, à savoir, tout d‘abord un critère diachronique, puis un critère orthographique et enfin un critère étymologique. En outre, notre étude a permis de confirmer également que la mise en ordre des entrées principales impacte directement la mise en ordre des entrées secondaires.Quant à la microstructure, les trois dictionnaires élaborent la définition de leurs entrées en adoptant relativement le même modèle. En dernière instance, il s’agit d’un modèle construit à partir de trois types d’informations : des informations d’ordre morphologique, des informations d’ordre sémantique et enfin des informations contextuelles. / Our thesis is part of the field of lexicography and more precisely of contemporary lexicography. Our study analyses historical dictionaries as a research object. As for the subject of the thesis, it concerns the constitution of the macrostructure and the development of the microstructure for historical dictionaries, which are: the French Historical Dictionary (RH), the English Historical Dictionary (OED) and the Arabic Historical Dictionary (DHLA). The first two are alread published while the third is in progress.Our study has two main goals. First of all it analyses the divergent and convergent elements between macrostructure and microstructure of both RH and OED historical dictionaries. Then it examines these elements and determines those which are applicable in the constitution of macrostructure and the development of DHLA microstructure. To do this, we have chosen the analysis of a corpus mainly from RH and OED dictionaries. We have also appealed to a secondary corpus constituted from general language dictionaries.Our study has affirmed that the three historical dictionaries adopt three different approaches to constitute their macrostructure: etymological for the RH and lexical for the OED, while the DHLA has opted for a complex approach. However these three approaches are implemented by applying three criteria namely, diachronic criterion, orthographical criterion, and etymological criterion. Our study also confirmed that putting main entrances in order directly impacts on the secondary entrances order.As for the microstructure, the three dictionaries elaborate the definition of their entrances by adopting a relatively similar model, built upon three types of information: morphological information, semantic information and contextual information.
75

Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA / Learning with sparsity and uncertainty by Difference of Convex functions optimization

Vo, Xuan Thanh 15 October 2015 (has links)
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes. / In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
76

Dictionnaire des hapax dans la poésie archaïque, d'Homère à Eschyle / Dictionary of hapax legomena in early Greek poetry, from Homer to Aeschylus

Kozak, Alexandra 07 April 2018 (has links)
Le Dictionnaire des hapax dans la poésie grecque archaïque, d'Homère à Eschyle vise à inventorier les hapax absolus (mots uniques) de la poésie archaïque. Chaque entrée du dictionnaire offre une traduction du lemme, son analyse morphologique et lexicale ainsi que sa situation en contexte, pour expliquer son sémantisme et son étiologie. Des remarques métriques viennent compléter ces explications. Ce dictionnaire peut servir de référence ouverte à tous ceux qui s’intéressent à la création lexicale de près ou de loin, à la fois pour des travaux stylistiques et métriques, mais aussi des travaux de traduction, de papyrologie ou d’épigraphie. Il représente un outil précieux pour favoriser la recherche sur la création lexicale pour tous les linguistes. Il peut être utile aux spécialistes de littérature dans toutes les langues car il constitue une base de travail pour une véritable réflexion sur la création poétique. Un volume de commentaire au dictionnaire, Hapax legomena dans la poésie archaïque, offre une définition précise et une réflexion sur la notion d’hapax absolu, une analyse des caractéristiques majeures de la création deshapax chez les auteurs archaïques, un inventaire thématique des principaux morphèmes préfixaux et suffixaux mais aussi des lexèmes les plus récurrents en composition. Enfin, la question de la réception des hapax en synchronie, par les spectateurs ou auditeurs anciens mais aussi par les scholiastes et lexicographes, comme en diachronie, à cause des difficultés d’interprétation de certaines leçons dans les manuscrits, est traitée. / The Dictionary of hapax legomena in early Greek poetry, from Homer to Aeschylus, aims to inventory the absolute hapax unique words) in archaic poetry. Each entry in the dictionary offers a translation of the lemma, its morphological and lexical analysis as well as its situation in context, to explain its semantics and etiology. Metric remarks complete these explanations. This dictionary can serve as an open reference for all those interested in lexical creation from near and far, both for stylistic and metrical work, but also works of translation, papyrology or epigraphy. It is a valuable tool for promoting lexical creation research for all linguists. It can be useful to literary specialists in all languages as it provides a basis for a real reflection on poetic creation. A volume of commentary on the dictionary, Hapax legomena in early poetry, offers a precise definition and a reflection about the notion of absolute hapax, an analysis of the major features of hapax creation in archaic authors, a thematic inventory of the main prefix and suffixal morphemes, but also the most recurrent lexemes in composition. Finally, the question of the reception of the hapax is treated, first in synchrony, by the spectators or listeners but also by scholiasts and lexicographers, then in diachronic, because of the difficulties of interpretation of some lessons in the manuscripts.
77

Vers la résolution "optimale" de problèmes inverses non linéaires parcimonieux grâce à l'exploitation de variables binaires sur dictionnaires continus : applications en astrophysique / Towards an "optimal" solution for nonlinear sparse inverse problems using binary variables on continuous dictionaries : applications in Astrophysics

Boudineau, Mégane 01 February 2019 (has links)
Cette thèse s'intéresse à la résolution de problèmes inverses non linéaires exploitant un a priori de parcimonie ; plus particulièrement, des problèmes où les données se modélisent comme la combinaison linéaire d'un faible nombre de fonctions non linéaires en un paramètre dit de " localisation " (par exemple la fréquence en analyse spectrale ou le décalage temporel en déconvolution impulsionnelle). Ces problèmes se reformulent classiquement en un problème d'approximation parcimonieuse linéaire (APL) en évaluant les fonctions non linéaires sur une grille de discrétisation arbitrairement fine du paramètre de localisation, formant ainsi un " dictionnaire discret ". Cependant, une telle approche se heurte à deux difficultés majeures. D'une part, le dictionnaire provenant d'une telle discrétisation est fortement corrélé et met en échec les méthodes de résolution sous-optimales classiques comme la pénalisation L1 ou les algorithmes gloutons. D'autre part, l'estimation du paramètre de localisation, appartenant nécessairement à la grille de discrétisation, se fait de manière discrète, ce qui entraîne une erreur de modélisation. Dans ce travail nous proposons des solutions pour faire face à ces deux enjeux, d'une part via la prise en compte de la parcimonie de façon exacte en introduisant un ensemble de variables binaires, et d'autre part via la résolution " optimale " de tels problèmes sur " dictionnaire continu " permettant l'estimation continue du paramètre de localisation. Deux axes de recherches ont été suivis, et l'utilisation des algorithmes proposés est illustrée sur des problèmes de type déconvolution impulsionnelle et analyse spectrale de signaux irrégulièrement échantillonnés. Le premier axe de ce travail exploite le principe " d'interpolation de dictionnaire ", consistant en une linéarisation du dictionnaire continu pour obtenir un problème d'APL sous contraintes. L'introduction des variables binaires nous permet de reformuler ce problème sous forme de " programmation mixte en nombres entiers " (Mixed Integer Programming - MIP) et ainsi de modéliser de façon exacte la parcimonie sous la forme de la " pseudo-norme L0 ". Différents types d'interpolation de dictionnaires et de relaxation des contraintes sont étudiés afin de résoudre de façon optimale le problème grâce à des algorithmes classiques de type MIP. Le second axe se place dans le cadre probabiliste Bayésien, où les variables binaires nous permettent de modéliser la parcimonie en exploitant un modèle de type Bernoulli-Gaussien. Ce modèle est étendu (modèle BGE) pour la prise en compte de la variable de localisation continue. L'estimation des paramètres est alors effectuée à partir d'échantillons tirés avec des algorithmes de type Monte Carlo par Chaîne de Markov. Plus précisément, nous montrons que la marginalisation des amplitudes permet une accélération de l'algorithme de Gibbs dans le cas supervisé (hyperparamètres du modèle connu). De plus, nous proposons de bénéficier d'une telle marginalisation dans le cas non supervisé via une approche de type " Partially Collapsed Gibbs Sampler. " Enfin, nous avons adapté le modèle BGE et les algorithmes associés à un problème d'actualité en astrophysique : la détection d'exoplanètes par la méthode des vitesses radiales. Son efficacité sera illustrée sur des données simulées ainsi que sur des données réelles. / This thesis deals with solutions of nonlinear inverse problems using a sparsity prior; more specifically when the data can be modelled as a linear combination of a few functions, which depend non-linearly on a "location" parameter, i.e. frequencies for spectral analysis or time-delay for spike train deconvolution. These problems are generally reformulated as linear sparse approximation problems, thanks to an evaluation of the nonlinear functions at location parameters discretised on a thin grid, building a "discrete dictionary". However, such an approach has two major drawbacks. On the one hand, the discrete dictionary is highly correlated; classical sub-optimal methods such as L1- penalisation or greedy algorithms can then fail. On the other hand, the estimated location parameter, which belongs to the discretisation grid, is necessarily discrete and that leads to model errors. To deal with these issues, we propose in this work an exact sparsity model, thanks to the introduction of binary variables, and an optimal solution of the problem with a "continuous dictionary" allowing a continuous estimation of the location parameter. We focus on two research axes, which we illustrate with problems such as spike train deconvolution and spectral analysis of unevenly sampled data. The first axis focusses on the "dictionary interpolation" principle, which consists in a linearisation of the continuous dictionary in order to get a constrained linear sparse approximation problem. The introduction of binary variables allows us to reformulate this problem as a "Mixed Integer Program" (MIP) and to exactly model the sparsity thanks to the "pseudo-norm L0". We study different kinds of dictionary interpolation and constraints relaxation, in order to solve the problem optimally thanks to MIP classical algorithms. For the second axis, in a Bayesian framework, the binary variables are supposed random with a Bernoulli distribution and we model the sparsity through a Bernoulli-Gaussian prior. This model is extended to take into account continuous location parameters (BGE model). We then estimate the parameters from samples drawn using Markov chain Monte Carlo algorithms. In particular, we show that marginalising the amplitudes allows us to improve the sampling of a Gibbs algorithm in a supervised case (when the model's hyperparameters are known). In an unsupervised case, we propose to take advantage of such a marginalisation through a "Partially Collapsed Gibbs Sampler." Finally, we adapt the BGE model and associated samplers to a topical science case in Astrophysics: the detection of exoplanets from radial velocity measurements. The efficiency of our method will be illustrated with simulated data, as well as actual astrophysical data.
78

Sublim : un systeme universel de bases lexicales multilingues et Nadia : sa specialisation aux bases lexicales interlingues par acceptions

Serasset, Gilles 08 December 1994 (has links) (PDF)
Le but de cette these est de definir et developper un systeme de bases lexicales multilingues independant des applications et des theories linguistiques. Elle debute donc par une etude des dictionnaires (imprimes ou electroniques) et des outils de gestion de bases lexicales, avec, notamment, le projet ESPRIT MULTILEX, considere comme l'effort le plus avance, mais qui presente quelques faiblesses (architecture lexicale par transfert, structures linguistiques codees sous forme de structures de traits types.). La deuxieme partie de cette these est consacree a la definition de SUBLIM, un systeme de gestion de bases lexicales multilingues qui permet de specifier l'architecture lexicale (organisation des dictionnaires) et l'architecture linguistique (organisation des informations linguistiques des unites des dictionnaires), sans imposer de contraintes ni sur les types de dictionnaires choisis, ni sur les structures linguistiques utilisees. La troisieme et derniere partie de cette these presente une specialisation de ce systeme generique en un systeme dedie a la gestion de bases lexicales multilingues fondees sur les acceptions interlingues : NADIA. Cette approche generalise certaines methodes interlingues comme celle du projet de traduction multilingue ULTRA, et permet la definition de bases lexicales multilingues ne se basant pas sur une approche par connaissances.
79

Ressources et activités pédagogiques dans un environnement d'aide à l'apprentissage lexical du français langue seconde

Selva, Thierry 29 October 1999 (has links) (PDF)
La nature même du média informatique tend à privilégier l'autonomie de l'apprenant lors de l'apprentissage d'une langue étrangère. L'examen des environnements lexicaux existants montre que l'autonomie passe par l'incorporation de ressources lexicales en tant que matériaux d'apprentissage et outils d'aide. La partie centrale de ce travail a été de concevoir les ressources adaptées à cet apprentissage et la manière dont celles-ci s'articulent. L'environnement ALEXIA se compose d'un corpus de textes, d'un dictionnaire comme outil d'aide, d'un dictionnaire personnalisé et d'un module d'activités lexicales. Le corpus, constitué de textes récents comprenant plusieurs niveaux de langue, est centré sur un domaine du français courant maîtrisé par tout natif (travail, emploi, chômage). La modélisation de la base de données lexicales s'appuie sur les résultats des recherches en psycholinguistique, montrant que le lexique mental semble être composé de mots reliés entre eux par des liens de nature sémantique et contextuelle. L'interface pour visualiser ces données tient compte des problèmes d'accès lexicaux et tire parti des possibilités du support informatique pour la présentation des différentes informations nécessaires aux apprenants. Corpus et dictionnaire servent de matériaux pour la génération d'activités lexicales : à base de concordances, elles mettent en jeu les relations sémantiques du dictionnaire. Pour cela, il est nécessaire d'effectuer au préalable un étiquetage morpho-syntaxique et sémantique du corpus. Un système d'aide donne des indications pour permettre à l'apprenant de résoudre les exercices et renforce ainsi le rôle pédagogique de l'environnement. Le dictionnaire personnalisé permet d'organiser les mots sélectionnés par l'apprenant dans les textes lors de lectures. Le travail de catégorisation effectué renforce les liens du lexique mental et favorise ainsi la rétention.
80

Elaboration de ressources électroniques pour les noms composés de type N (E+DET=G) N=G du grec moderne

Kyriakopoulou, Anthoula 25 March 2011 (has links) (PDF)
L'objectif de cette recherche est la construction manuelle de ressources lexicales pour les noms composés grecs qui sont définis par la structure morphosyntaxique : Nom (E+Déterminant au génitif) Nom au génitif, notés N (E+DET:G) N:G (e.g. ζώνη ασφαλείας/ceinture de sécurité). Les ressources élaborées peuvent être utilisées pour leur reconnaissance lexicale automatique dans les textes écrits et dans d'autres applications du TAL. Notre travail s'inscrit dans la perspective de l'élaboration du lexique-grammaire général du grec moderne en vue de l'analyse automatique des textes écrits. Le cadre théorique et méthodologique de cette étude est celui du lexique-grammaire (M. Gross 1975, 1977), qui s'appuie sur la grammaire transformationnelle harisienne.Notre travail s'organise en cinq parties. Dans la première partie, nous délimitons l'objet de notre travail tout en essayant de définir la notion fondamentale qui régit notre étude, à savoir celle de figement. Dans la deuxième partie, nous présentons la méthodologie utilisée pour le recensement de nos données lexicales et nous étudions les phénomènes de variation observés au sein des noms composés de type N (E+DET:G) N:G. La troisième partie est consacrée à la présentation des différentes sous-catégories des N (E+DET:G) N:G identifiées lors de l'étape du recensement et à l'étude de leur structure lexicale interne. La quatrième partie porte sur l'étude syntaxico-sémantique des N (E+DET:G) N:G. Enfin, dans la cinquième partie, nous présentons les différentes méthodes de représentation formalisée que nous proposons pour nos données lexicales en vue de leur reconnaissance lexicale automatique dans les textes écrits. Des échantillons représentatifs des ressources élaborées sont présentés en Annexe

Page generated in 0.0768 seconds