• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 19
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 130
  • 64
  • 56
  • 53
  • 41
  • 37
  • 30
  • 28
  • 28
  • 22
  • 21
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Analyse syntaxique à l'aide des tables du Lexique-Grammaire du français / Syntactic analysis with tables of French Lexicon-Grammar

Tolone, Elsa 31 March 2011 (has links)
Les tables du Lexique-Grammaire, dont le développement a été initié par Gross (1975), constituent un lexique syntaxique très riche pour le français. Elles couvrent diverses catégories lexicales telles que les verbes, les noms, les adjectifs et les adverbes. Cette base de données linguistiques n'est cependant pas directement exploitable informatiquement car elle est incomplète et manque de cohérence. Chaque table regroupe un certain nombre d'entrées jugées similaires car elles acceptent des propriétés communes. Ces propriétés ont pour particularité de ne pas être codées dans les tables même mais uniquement décrites dans la littérature. Pour rendre ces tables exploitables, il faut expliciter les propriétés intervenant dans chacune d'entre elles. De plus, un grand nombre de ces propriétés doivent être renommées dans un souci de cohérence. Notre objectif est d'adapter les tables pour les rendre utilisables dans diverses applications de Traitement Automatique des Langues (TAL), notamment l'analyse syntaxique. Nous expliquons les problèmes rencontrés et les méthodes adoptées pour permettre leur intégration dans un analyseur syntaxique. Nous proposons LGExtract, un outil générique pour générer un lexique syntaxique pour le TAL à partir des tables du Lexique-Grammaire. Il est relié à une table globale dans laquelle nous avons ajouté les propriétés manquantes et un unique script d'extraction incluant toutes les opérations liées à chaque propriété devant être effectuées pour toutes les tables. Nous présentons également LGLex, le nouveau lexique syntaxique généré des verbes, des noms prédicatifs, des expressions figées et des adverbes. Ensuite, nous montrons comment nous avons converti les verbes et les noms prédicatifs de ce lexique au format Alexina, qui est celui du lexique Lefff (Lexique des Formes Fléchies du Français) (Sagot, 2010), un lexique morphologique et syntaxique à large couverture et librement disponible pour le français. Ceci permet son intégration dans l'analyseur syntaxique FRMG (French MetaGrammar) (Thomasset et de La Clergerie, 2005), un analyseur profond à large couverture pour le français, basé sur les grammaires d'arbres adjoints (TAG), reposant habituellement sur le Lefff. Cette étape de conversion consiste à extraire l'information syntaxique codée dans les tables du Lexique-Grammaire. Nous présentons les fondements linguistiques de ce processus de conversion et le lexique obtenu. Nous évaluons l'analyseur syntaxique FRMG sur le corpus de référence de la campagne d'évaluation d'analyseurs du français Passage (Produire des Annotations Syntaxiques à Grande Échelle) (Hamon et al., 2008), en comparant sa version basée sur le Lefff avec notre version reposant sur les tables du Lexique-Grammaire converties / Lexicon-Grammar tables, whose development was initiated by Gross (1975), are a very rich syntactic lexicon for the French language. They cover various lexical categories such as verbs, nouns, adjectives and adverbs. This linguistic database is nevertheless not directly usable by computer programs, as it is incomplete and lacks consistency. Tables are defined on the basis of features which are not explicitly recorded in the lexicon. These features are only described in literature. To use these tables, we must make explicit the essential features appearing in each one of them. In addition, many features must be renamed for consistency sake. Our aim is to adapt the tables, so as to make them usable in various Natural Language Processing (NLP) applications, in particular parsing.We describe the problems we encountered and the approaches we followed to enable their integration into a parser. We propose LGExtract, a generic tool for generating a syntactic lexicon for NLP from the Lexicon-Grammar tables. It relies on a global table in which we added the missing features and on a single extraction script including all operations related to each property to be performed for all tables. We also present LGLex, the new generated lexicon of French verbs, predicative nouns, frozen expressions and adverbs.Then, we describe how we converted the verbs and predicatives nouns of this lexicon into the Alexina framework, that is the one of the Lefff lexicon (Lexique des Formes Fléchies du Français) (Sagot, 2010), a freely available and large-coverage morphological and syntactic lexicon for French. This enables its integration in the FRMG parser (French MetaGrammar) (Thomasset et de La Clergerie, 2005), a large-coverage deep parser for French, based on Tree-Adjoining Grammars (TAG), that usually relies on the Lefff. This conversion step consists in extracting the syntactic information encoded in Lexicon-Grammar tables. We describe the linguistic basis of this conversion process, and the resulting lexicon. We evaluate the FRMG parser on the reference corpus of the evaluation campaign for French parsersPassage (Produire des Annotations Syntaxiques à Grande Échelle) (Hamon et al., 2008), by comparing its Lefff-based version to our version relying on the converted Lexicon-Grammar tables
92

Dominance, hostilité et expressivité vocale dans le débat politique ˸ étude perceptive et acoustique du conseil municipal de Montreuil (93100) / Dominance, hostility and vocal expressivity in political debate ˸ a perceptual and acoustic study of the Montreuil Municipal Council (93100)

Kouklia, Charlotte 19 January 2019 (has links)
Cette thèse étudie les rapports entre l’expression d’attitudes agressives contrôlées et la perception de la dominance, à partir d’extraits de séances télévisées du conseil Municipal de Montreuil (93100) durant l’année 2013, période marquée par un climat politique vif et hostile. Un corpus a été constitué à partir d’extraits de parole spontanée de la Maire, Dominique Voynet, et de quatre de ses opposants. Les cinq locuteurs ont participé à l’enregistrement d’une relecture neutre du corpus de leurs propres extraits de parole (25 stimuli par locuteur) ainsi qu’à l’auto-évaluation perceptive de leurs stimuli (profils émotionnels), dont les résultats ont été comparés à l’évaluation perceptive des extraits par des auditeurs naïfs. Tous les locuteurs ont été perçus comme légèrement hostiles, légèrement mécontents et légèrement dominants malgré des profils émotionnels auto-évalués variables. Les extraits originaux et relus ont été comparés au niveau de leur structuration prosodico-syntaxique et de leurs caractéristiques temporelles et mélodiques. Les résultats montrent que 1) certains locuteurs semblent plus s’appuyer sur des paramètres mélodiques et d’autres sur des paramètres temporels ; 2) on peut néanmoins dégager les tendances générales concernant les corrélats dans la parole de l’hostilité et de la dominance dans notre corpus : a) des écarts entre structuration syntaxique et prosodique des extraits, b) la réduction ou l’absence d’allongements syllabiques finaux pré-pausaux, c) de fortes variations de plage de variation de F0 de part et d’autre des pauses silencieuses. / This dissertation studies the relationship between the expression of controlled aggressive attitudes and the perception of dominance, based on extracts from televised sessions of the Municipal Council of Montreuil during 2013; a period marked by a lively and hostile political climate. We constituted a corpus of spontaneous speech extracts from the Mayor, Dominique Voynet, and four of her opponents. During subsequent recording sessions, the five speakers were asked to read transcriptions of their own speech extracts in a neutral tone (25 stimuli per speaker). They also participated in a self-evaluation questionnaire that focused on the perception of emotional profiles in their own stimuli. The results of the speakers’ perceptive evaluations were compared to those of a control group of naïve listeners. All speakers were perceived as slightly hostile, discontent and dominant, despite the variability observed in the self-evaluated profiles. The original and re-read extracts were compared in their prosodic- syntactic structure as well as their temporal and melodic characteristics. We show that: 1) some speakers seem to rely mostly on melodic parameters whereas others primarily use temporal parameters, 2) nevertheless, general trends emerge regarding the speech correlates of hostility and dominance in our corpus, notably: a) discrepancies between the syntactic and the prosodic structure of the extracts, b) reduction or absence of pre-pausal final syllabic lengthening, c) large variations in F0 range on both sides of silent pauses.
93

Asymétrie fonctionnelle entre consonnes et voyelles de la naissance à l'âge de 6 mois : données d'imagerie cérébrale et de comportement / Functional asymmetry between consonants and vowels from birth to 6 months of age : cerebral imaging and behavioral data

Bouchon, Camillia 24 November 2014 (has links)
Consonnes et voyelles sont les deux catégories de sons qui composent la parole. Elles se distinguent à divers niveaux et notamment servent des fonctions linguistiques différentes. Cette asymétrie consonne/voyelle établie chez les adultes, a conduit Nespor, Peña et Mehler (2003) à suggérer un partage du travail dès la naissance, les consonnes facilitant l'acquisition des mots tandis que les voyelles aideraient à apprendre les règles de grammaire. La validité développementale de cette hypothèse est explorée par l'étude de ses origines chez les bébés français. Premièrement, nos études d'imagerie cérébrale optique montrent que consonnes et voyelles sont également traitées par les mécanismes précurseurs de l'apprentissage syntaxique à la naissance (Exp. 1 - 3). Deuxièmement, nos études sur la reconnaissance du prénom chez les enfants de 5 mois montrent une sensibilité à une modification vocalique (Alix/Elix) chez les bébés monolingues, mais pas à une modification consonantique en position initiale (Victor/Zictor) chez les bébés monolingues et bilingues, ou finale chez les monolingues (Luca/Luga; Exp. 4 - 9). Au stade des premiers mots, le traitement lexical privilégie donc les voyelles. Nos résultats contribuent à la compréhension des origines développementales de l'asymétrie fonctionnelle consonne/voyelle, et du rôle spécifique de la langue native dans son émergence. / Speech is composed of two categories of sound, i.e. consonants and vowels, which have different properties and serve different linguistic functions. This consonant/vowel asymmetry, which is established in adults, has led Nespor, Peña and Mehler (2003) to suggest a division of labor present from birth, whereby consonants would facilitate lexical acquisition while vowels would help to learn grammatical rules of language. We have explored the developmental validity of this hypothesis by studying its origins in French-learning infants. First, our optical brain imaging studies show that both consonants and vowels provide input for precursory mechanisms of syntax processing (Exp. 1 - 3). Secondly, our studies on own-name recognition at 5 months demonstrate sensitivity to a vowel mispronunciation in monolingual infants (Alix/Elix), but fail to show a reaction to a consonant mispronunciation in initial position (Victor/Zictor) for monolinguals and bilinguals, or in final position (Luca/Luga) for monolinguals (Exp. 4 - 9). Thus, vowels are a better input for lexical processing in first familiar words. Our results contribute to the understanding of the developmental origin of consonant/vowel functional asymmetry, hence the influence of the native input on its emergence.
94

Modélisation et formalisation de l'aspect et du temps verbal arabe et français : implémentation didactique vers le français sur Internet. / Modling and formalization of aspect and tense verbal arabic and french : implementation to teaching french on the internet

Al Wohaib, Mona 29 June 2012 (has links)
Notre thèse s'adresse aux francophones qui veulent apprendre l'arabe, son lexique, sa syntaxe et sa sémantique. L'une des difficultés majeures que rencontre l'apprenant dès qu'il entre en contact avec notre langue, est le traitement des aspects et des temps, localement et dans l'ensemble de l'énoncé. Dans le cadre, d'une description des aspects et des temps nous sommes contraints de faire une étude générale de la morphologie verbale et des catégories grammaticales de l'arabe standard. Mais nous devons aussi travailler sur les mêmes structures en français qui est la langue source de nos apprenants afin de mettre en regard les deux systèmes linguistiques. Le second visage de ce travail est nettement plus technologique. Nous avons insisté sur les interfaces des leçons que nous présentons sur Internet afin de montrer comment elles participent de façon active à la compréhension des contenus par les apprenants. / Our thesis is intended for francophones wishing to learn Arab, its lexicon, its syntax and its semantics. One of the main difficulties which the learner encounters as soon as he enters into contact with our language is the treatment of aspects and of tenses, bath locally and throughout the whole statement or text. The description of aspects and tenses requires us to make a general study of the verbal morphology of the grammatical structures of standard Arab. But we are also brought to work on the same structures in French which is the source language of the learners in order to make a comparative study of the two language-systems. The second face of this work is considerab1y more technical. We have insisted on the interfaces of the lessons that we present on Internet in order to show how they contribute in an active way to the understanding of the contents by the learners
95

Similarités de données textuelles pour l'apprentissage de textes courts d'opinions et la recherche de produits / Textual data similarities for learning short opinion texts and retrieving products

Trouvilliez, Benoît 13 May 2013 (has links)
Cette thèse porte sur l'établissement de similarités de données textuelles dans le domaine de la gestion de la relation client. Elle se décline en deux parties : - l'analyse automatique de messages courts en réponse à des questionnaires de satisfaction ; - la recherche de produits à partir de l'énonciation de critères au sein d'une conversation écrite mettant en jeu un humain et un programme agent. La première partie a pour objectif la production d'informations statistiques structurées extraites des réponses aux questions. Les idées exprimées dans les réponses sont identifiées, organisées selon une taxonomie et quantifiées. La seconde partie vise à transcrire les critères de recherche de produits en requêtes compréhensibles par un système de gestion de bases de données. Les critères étudiés vont de critères relativement simples comme la matière du produit jusqu'à des critères plus complexes comme le prix ou la couleur. Les deux parties se rejoignent sur la problématique d'établissement de similarités entre données textuelles par des techniques de TAL. Les principales difficultés à surmonter sont liées aux caractéristiques des textes, rédigés en langage naturel, courts, et comportant fréquemment des fautes d'orthographe ou des négations. L'établissement de similarités sémantiques entre mots (synonymie, antonymie, etc) et l'établissement de relations syntaxiques entre syntagmes (conjonction, opposition, etc) sont également des problématiques abordées. Nous étudions également dans cette thèse des méthodes de regroupements et de classification automatique de textes afin d'analyser les réponses aux questionnaires de satisfaction. / This Ph.D. thesis is about the establishment of textual data similarities in the client relation domain. Two subjects are mainly considered : - the automatic analysis of short messages in response of satisfaction surveys ; - the search of products given same criteria expressed in natural language by a human through a conversation with a program. The first subject concerns the statistical informations from the surveys answers. The ideas recognized in the answers are identified, organized according to a taxonomy and quantified. The second subject concerns the transcription of some criteria over products into queries to be interpreted by a database management system. The number of criteria under consideration is wide, from simplest criteria like material or brand, until most complex criteria like color or price. The two subjects meet on the problem of establishing textual data similarities thanks to NLP techniques. The main difficulties come from the fact that the texts to be processed, written in natural language, are short ones and with lots of spell checking errors and negations. Establishment of semantic similarities between words (synonymy, antonymy, ...) and syntactic relations between syntagms (conjunction, opposition, ...) are other issues considered in our work. We also study in this Ph. D. thesis automatic clustering and classification methods in order to analyse answers to satisfaction surveys.
96

Structuration ontologique et étude sémantico-syntaxique de la terminologie des sciences et techniques spatiales (arabe - français - anglais) / Ontological structuration and semantico-syntactic studies of the terminology related to the space science and technology (Arabic - French - English )

Alshtaiwi, Ma'moun 17 June 2016 (has links)
La terminologie des sciences et techniques spatiales (STS) relevée sur corpus est étudiée dans le cadre et avec la structuration ontologique du domaine. La formation morphosyntaxique, le caractère de l’unité terminologique ainsi que le schéma d’arguments (expressions prédicatives et arguments) sont analysés tant en contexte qu’indépendamment du contexte. L’unité terminologique se caractérise par un degré de figement relatif : une des propriétés de l’unité terminologique « longue » est que celle-ci peut souvent être décomposée, elle peut avoir un comportement discursif, notamment la reprise anaphorique et la réduction par suppression de l’un de ses composants. Dans ce dernier cas, il s’agit de certains aspects de la terminologisation tels que la chute d’une information non différentielle et le maintien d’un élément nominal ou caractérisant. Ainsi, plusieurs aspects sont des facteurs constants qui peuvent permettre de mettre en évidence l’évolution diachronique de l’unité terminologique. L’apport de la structuration ontologique est analysé dans le but de décrire non seulement les concepts des STS mais aussi l’emploi du schéma d’arguments (verbal et nominal) dans le corpus en se fondant sur des étiquettes sémantico-syntaxiques. Une analyse du verbe spécialisé a été développée pour fournir des informations utiles à la constitution des bases de données terminologiques multilingues ou encore la rédaction des définitions technoscientifiques. L’étude a permis également de décrire des verbes absents dans les dictionnaires de spécialité, de montrer comment un verbe peut acquérir un nouveau sens spécialisé et d’identifier l’agent typique de ces verbes. Deux classifications du verbe spécialisé selon ses emplois et sa structure morphosyntaxique ont été proposées : unité verbale simple (UVS) et unité verbale complexe (UVC). Un syntagme implique l’une des deux analyses : unité compositionnelle ou unité non-compositionnelle. Selon la situation contextuelle, la définition du verbe en langue de spécialité a permis enfin de distinguer les trois acceptions du verbe : verbe très spécialisé, verbe polysémique et verbe support. / The terminology related to the space science and technology (SST), corpus-based approach, is studied within the framework of the ontological structure pattern. The morpho-syntactical formation of the terminological unit, its characteristics as well as the schemata of arguments (predicative expressions and arguments) are both analyzed within the context and beyond the context. It’s characterized by a level of relative fixed structure: one of the properties of the “long” terminological unit that can often be decomposed. It can have a discursive behavior in particular, discourse anaphora, and the reduction by deletion of one of its components. In the latter case, this refers to certain aspects of the terminologization such as non-differential element falling and a characteristic or nominal element maintaining. Therefore, some aspects are constant factors which allow to highlight the diachronic evolution of the terminological unit. The outcome of the ontological structure is analyzed with the aim of describing not only the concepts of the SST, but also the use of the schemata of arguments i.e. verbal and nominal in the corpus by establishing itself on the semantic-syntactical labels. An analysis of the specialized verb was developed to supply useful information for the constitution of the multilingual terminological database or to give techno-scientific definitions. The study also allowed to describe absent verbs in the specialized dictionaries, to show how a verb can acquire a new specialized meaning, to identify the typical agent of the specialized verbs. There are two classifications of the specialized verb according to their uses and their morpho-syntactical structure were proposed as; simple verbal unit (SVU) and complex verbal unit (CVU). A syntagm involves one of the two analyzes: compositional unit or non-compositional unit. According to the situational context, the definition of the verb in LSP allowed finally to identify three meanings of the verb: very specialized verb, polysemous verb, and support verb.
97

Extraction d'arguments de relations n-aires dans les textes guidée par une RTO de domaine / Extraction of arguments in N-ary relations in texts guided by a domain OTR

Berrahou, Soumia Lilia 29 September 2015 (has links)
Aujourd'hui, la communauté scientifique a l'opportunité de partager des connaissances et d'accéder à de nouvelles informations à travers les documents publiés et stockés dans les bases en ligne du web. Dans ce contexte, la valorisation des données disponibles reste un défi majeur pour permettre aux experts de les réutiliser et les analyser afin de produire de la connaissance du domaine. Pour être valorisées, les données pertinentes doivent être extraites des documents puis structurées. Nos travaux s'inscrivent dans la problématique de la capitalisation des données expérimentales issues des articles scientifiques, sélectionnés dans des bases en ligne, afin de les réutiliser dans des outils d'aide à la décision. Les mesures expérimentales (par exemple, la perméabilité à l'oxygène d'un emballage ou le broyage d'une biomasse) réalisées sur différents objets d'études (par exemple, emballage ou procédé de bioraffinerie) sont représentées sous forme de relations n-aires dans une Ressource Termino-Ontologique (RTO). La RTO est modélisée pour représenter les relations n-aires en associant une partie terminologique et/ou linguistique aux ontologies afin d'établir une distinction claire entre la manifestation linguistique (le terme) et la notion qu'elle dénote (le concept). La thèse a pour objectif de proposer une contribution méthodologique d'extraction automatique ou semi-automatique d'arguments de relations n-aires provenant de documents textuels afin de peupler la RTO avec de nouvelles instances. Les méthodologies proposées exploitent et adaptent conjointement des approches de Traitement automatique de la Langue (TAL) et de fouille de données, le tout s'appuyant sur le support sémantique apporté par la RTO de domaine. De manière précise, nous cherchons, dans un premier temps, à extraire des termes, dénotant les concepts d'unités de mesure, réputés difficiles à identifier du fait de leur forte variation typographique dans les textes. Après la localisation de ces derniers par des méthodes de classification automatique, les variants d'unités sont identifiés en utilisant des mesures d'édition originales. La seconde contribution méthodologique de nos travaux repose sur l'adaptation et la combinaison de méthodes de fouille de données (extraction de motifs et règles séquentiels) et d'analyse syntaxique pour identifier les instances d'arguments de la relation n-aire recherchée. / Today, a huge amount of data is made available to the research community through several web-based libraries. Enhancing data collected from scientific documents is a major challenge in order to analyze and reuse efficiently domain knowledge. To be enhanced, data need to be extracted from documents and structured in a common representation using a controlled vocabulary as in ontologies. Our research deals with knowledge engineering issues of experimental data, extracted from scientific articles, in order to reuse them in decision support systems. Experimental data can be represented by n-ary relations which link a studied object (e.g. food packaging, transformation process) with its features (e.g. oxygen permeability in packaging, biomass grinding) and capitalized in an Ontological and Terminological Ressource (OTR). An OTR associates an ontology with a terminological and/or a linguistic part in order to establish a clear distinction between the term and the notion it denotes (the concept). Our work focuses on n-ary relation extraction from scientific documents in order to populate a domain OTR with new instances. Our contributions are based on Natural Language Processing (NLP) together with data mining approaches guided by the domain OTR. More precisely, firstly, we propose to focus on unit of measure extraction which are known to be difficult to identify because of their typographic variations. We propose to rely on automatic classification of texts, using supervised learning methods, to reduce the search space of variants of units, and then, we propose a new similarity measure that identifies them, taking into account their syntactic properties. Secondly, we propose to adapt and combine data mining methods (sequential patterns and rules mining) and syntactic analysis in order to overcome the challenging process of identifying and extracting n-ary relation instances drowned in unstructured texts.
98

Définissabilité et synthèse de transductions / Definability and synthesis of transductions

Lhote, Nathan 12 October 2018 (has links)
Dans la première partie de ce manuscrit nous étudions les fonctions rationnelles, c'est-à-dire définies par des transducteurs unidirectionnels. Notre objectif est d'étendre aux transductions les nombreuses correspondances logique-algèbre qui ont été établies concernant les langages, notamment le célèbre théorème de Schützenberger-McNaughton-Papert. Dans le cadre des fonctions rationnelles sur les mots finis, nous obtenons une caractérisation à la Myhill-Nerode en termes de congruences d'indice fini. Cette caractérisation nous permet d'obtenir un résultat de transfert, à partir d'équivalences logique-algèbre pour les langages vers des équivalences pour les transductions. En particulier nous montrons comment décider si une fonction rationnelle est définissable en logique du premier ordre. Sur les mots infinis, nous pouvons également décider la définissabilité en logique du premier ordre, mais avec des résultats moins généraux.Dans la seconde partie nous introduisons une logique pour les transductions et nous résolvons le problème de synthèse régulière : étant donnée une formule de la logique, peut-on obtenir un transducteur bidirectionnel déterministe satisfaisant la formule ? Les fonctions réalisées par des transducteurs bidirectionnels déterministes sont caractérisés par plusieurs modèles différents, y compris par les transducteurs MSO, et ont ainsi été nommées transductions régulières. Plus précisément nous fournissons un algorithme qui produit toujours une fonction régulière satisfaisant une spécification donnée en entrée.Nous exposons également un lien intéressant entre les transductions et les mots avec données. Par conséquent nous obtenons une logique expressive pour les mots avec données, pour laquelle le problème de satisfiabilité est décidable. / In the first part of this manuscript we focus on the study of rational functions, functions defined by one-way transducers.Our goal is to extend to transductions the many logic-algebra correspondences that have been established for languages, such as the celebrated Schützenberger-McNaughton-Papert Theorem. In the case of rational functions over finite words, we obtain a Myhill-Nerode-like characterization in terms of congruences of finite index. This characterization allows us to obtain a transfer result from logic-algebra equivalences for languages to logic-algebra equivalences for transductions. In particular, we show that one can decide if a rational function can be defined in first-order logic.Over infinite words, we obtain weaker results but are still able to decide first-order definability.In the second part we introduce a logic for transductions and solve the regular synthesis problem: given a formula in the logic, can we obtain a two-way deterministic transducer satisfying the formula?More precisely, we give an algorithm that always produces a regular function satisfying a given specification.We also exhibit an interesting link between transductions and words with ordered data. Thus we obtain as a side result an expressive logic for data words with decidable satisfiability.
99

L’adverbe au seizième siècle : l’adverbe et l’adverbialité dans la phrase imprimée du seizième siècle / The adverb and adverbiality in french printed language of the sixteenth-century

Kaiser, Louise-Adeline 03 June 2014 (has links)
Cette thèse décrit la langue du seizième siècle, à partir d’un corpus de textes français, du point de vue de l’adverbialité.La détermination d’un corpus de textes en phrase ponctuées syntaxiquement, a demandé de longs questionnements sur la phrase, la ponctuation, et l’histoire des textes. La question de l'adverbialité a été choisie comme critère du point de vue de la sémantique, de la morphologie et de la syntaxe. Un relevé des faits adverbiaux a construit l'hypothèse que l'adverbialité, en phrase, au seizième siècle, puisse se jouer, parfois simultanément, sur les différents niveaux de la hiérarchie syntaxique, qui forment autant de lieux possibles à l'adverbialité, ce qu'a confirmé un travail de délimitation, en phrase, d'un territoire adverbial. Les faits adverbiaux relevés dans le corpus se sont révélés de morphologies très variées. La multiplicité de ces possibilités a donné matière à un questionnement que sous-tendait la question du lieu où ils apparaissaient, dans la hiérarchie syntaxique. Les raisons qui fondaient l’analyse et l’adverbialité, alors qu’elles semblaient propres à chaque fait adverbial, se sont révélées également et logiquement présentes d’un fait de discours adverbial à l’autre, d'une morphologie à l'autre, ce qui nous a conduite à les penser comme le dénominateur commun nécessaire à l’entier des faits adverbiaux. Ce travail propose de repenser comme logiquement unies ces perspectives d'étude, si éloignés soient les résultats qu’elles font apparaître dans la langue du seizième siècle, afin de retrouver un dénominateur commun à l’ensemble des adverbe, et de concevoir comme l’union logique qui construit, en pensée, l'ensemble des faits adverbiaux. / This thesis describes sixteenth-century language, based on a corpus of French texts, from an adverbial perspective.The establishment of a textual corpus organized in sentences, according to syntax and to punctuation required interrogating the sentence, the punctuation and the history of the texts. The question of the adverbs was chosen as the criteria for a semantic, morphologic, and syntactic perspective. A survey of adverbial occurrences led to the hypothesis that adverbality, in the sentence, during the sixteenth century, could function, sometimes simultaneously, on different levels of syntactic hierarchy, levels that likewise present possibilities for adverbality, which was confirmed by a process of circumscription of an adverbial territory within the sentence. The adverbial occurrences taken from the corpus showed quite variable morphology. These many possibilities gave rise to a first stage of questioning that arose from the question of where in the syntactical hierarchy these occurrences were found. Although the reasons underpinning this analysis seemed dependent upon each adverbial occurrence, they proved in fact to be equally and logically present from one occurrence to another and from one morphology to another. This led us to think that a common denominator might be necessary for the entirety of adverbial occurrences. We propose a reconceptualization of these perspectives as logically connected, however disparate the results are as they appear in the language of the sixteenth-century. This leaves us with a reason to continue searching for a common denominator for the adverb and to conceive a logical union that constructs a total entity of adverbial occurrences.
100

Enseignement du début de l'analyse réelle à l'entrée à l'université : Articuler contrôles pragmatique et formel dans des situations à dimension a-didactique.

Ghedamsi, Imène 14 November 2008 (has links) (PDF)
Cette recherche étudie l'enseignement des premiers éléments de l'Analyse réelle à la transition lycée/université à travers un modèle de variables macro-didactiques (VMD) relatives aux niveaux de formalisation et de familiarité des savoirs mathématiques proposés aux élèves. Lorsque l'on passe du lycée à l'université, les valeurs de ces variables sont dichotomiques et témoignent d'une profonde mutation dans le travail mathématique demandé. Nous nous posons la question des moyens que peut se donner l'enseignement des mathématiques, à l'entrée à l'université, pour gérer des variations aussi importantes et permettre aux étudiants d'accéder aux objets de l'Analyse réelle. <br />Une ingénierie a porté sur la construction et l'expérimentation, dans le cadre de la TSD (Théorie des Situations Didactiques), de deux situations sur les limites, que nous avons expérimentées à un niveau du cursus où seule l'existence formelle des objets de l'Analyse réelle a été établie par les professeurs. Nous avons ciblé le travail des étudiants sur les méthodes d'approximation, afin de favoriser des allers/retours entre les "preuves pragmatiques" géométriques ou numériques et l'utilisation des théorèmes d'Analyse. Les situations prennent en compte la dialectique sémantique/ syntaxique dans un processus de preuve, et permettent un retour efficace sur les savoirs visés. L'entrée dans un processus de preuves mixtes – pragmatiques vs formelles – a ainsi été rendu obligatoire dans le travail des étudiants, à travers l'émergence du problème général de l'existence et de l'accessibilité des nombres, des limites et des suites. <br />En conclusion, nous proposons de poursuivre l'étude du milieu théorique des situations de l'Analyse réelle, d'introduire d'autres situations expérimentales et d'étudier plus en profondeur les connaissances des étudiants dans le contrat didactique instauré par de telles situations.

Page generated in 0.0767 seconds