• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 53
  • 16
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 57
  • 34
  • 32
  • 31
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • 19
  • 19
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Detecting pre-error states and process deviations resulting from cognitive overload in aircraft pilots

Pietracupa, Massimo 12 1900 (has links)
Les pilotes d'avion sont constamment confrontés à des situations où ils doivent traiter des quantités importantes de données en très peu de temps, ce qui peut conduire à des erreurs. Nous avons créé un système de détection des écarts capable d'auditer le cockpit en temps réel pour détecter les actions qui ont été incorrectement ajoutées, omises ou qui n'ont pas été effectuées dans le bon ordre. Ce modèle évalue les écarts en se basant sur les données hiérarchiques des tâches trouvées dans le modèle de référence ontologique pour les procédures de pilotage, qui contient des procédures de référence basées sur la connaissance et rassemblées par des experts dans le domaine. Les actions des pilotes sont comparées aux séquences de référence de l'ontologie à l'aide de l'algorithme Needleman-Wunsch pour l'alignement global, ainsi que d'un réseau LSTM siamois. Une API pouvant être étendue à plusieurs simulateurs aérospatiaux, ainsi qu'un Runner, ont été créés pour permettre au Deviation Framework de se connecter au simulateur XPlane afin de surveiller le système en temps réel. Des données créées synthétiquement et contenant des mutations de séquences ont été analysées à des fins de test. Les résultats montrent que ce cadre est capable de détecter les erreurs ajoutées, omises et hors séquence. En outre, les capacités des réseaux siamois sont exploitées pour comprendre la relation de certaines anomalies de la chaîne de séquence afin qu'elles puissent être correctement ignorées (comme certaines tâches qui peuvent être exécutées dans le désordre par rapport à la séquence de référence). Les environnements de simulation enregistrant les données à une fréquence de 10 Hz, une valeur de 0.1 seconde constitue notre référence en temps réel. Ces évaluations de déviation peuvent être exécutées plus rapidement que notre contrainte de 0,1 seconde et ont été réalisées en 0,0179 seconde pour une séquence de décollage contenant 23 actions, ce qui est nettement plus performant que les modèles suivants de l'état de l'art. Les résultats de l'évaluation suggèrent que l'approche proposée pourrait être appliquée dans le domaine de l'aviation pour aider à détecter les erreurs avant qu'elles ne causent des dommages. \\En outre, nous avons formé un modèle d'apprentissage automatique pour reconnaître les signaux de pré-erreur dans le cortex cingulaire antérieur (CCA) à l'aide des données de test Flanker de l'ensemble de données COG-BCI, qui peuvent ensuite être utilisées pour détecter les états de pré-erreur chez les pilotes d'avion. Divers modèles d'apprentissage automatique ont été appliqués à l'ensemble de données, notamment des machines à vecteurs de support (SVM), des forêts aléatoires, un double modèle de réseau neuronal convolutif (CNN) et un modèle Transformer. Au-delà des conclusions typiques de l'étude, notre objectif s'étend à l'évaluation de l'applicabilité du modèle dans un domaine secondaire, à savoir l'évaluation du pouvoir discriminant des classificateurs pendant les procédures de décollage pour les pilotes d'avion. Les résultats de l'analyse de l'ensemble de données FLANKER ont révélé la supériorité du modèle transformateur, avec des réductions notables des faux négatifs et un score final macro moyen F1 de 0,610, et un score final macro moyen F1 de 0,578 sur les données pilotes. Comme nous prévoyons une augmentation des performances du classificateur avec davantage de données d'entraînement et des bandes d'interrogation étendues, cette étude jette les bases d'une recherche plus poussée sur la prédiction des états erronés et les modèles d'optimisation de l'apprentissage automatique pour les ICB et les applications du monde réel. / Aircraft pilots are constantly undergoing situations where they must process significant amounts of data in very small periods of time, which may lead to mistakes. We have created a deviation detection system that is capable of auditing the cockpit in real time to detect actions that have been incorrectly added, omitted, or done out of sequence. This model assesses deviations based on hierarchical task data found in the Ontological Reference Model for Piloting Procedures, which contains knowledge-based reference procedures assembled by experts in the domain. Pilot actions are compared to ontology reference sequences using the Needleman-Wunsch algorithm for global alignment, as well as a Siamese LSTM network. An API that can be expanded to several Aerospace Simulators, as well as a Runner, was created to enable the Deviation Framework to connect to the XPlane simulator for real-time system monitoring. Synthetically created data containing sequence mutations were analyzed for testing. The results show that this framework is capable of detecting added, omitted, and out of sequence errors. Furthermore, the capabilities of Siamese networks are leveraged to understand the relation of certain sequence chain anomalies so that they can correctly be ignored (such as certain tasks that can be performed out of order from the reference sequence). With simulation environments recording data at a frequency of 10Hz, a value of 0.1 seconds is our real-time benchmark. These deviation assessments are capable of being run faster than our 0.1 second requirement and have been clocked at 0.0179 seconds for one Takeoff sequence containing 23 actions - significantly outperforming the next state of the art models. The evaluation results suggest that the proposed approach could be applied in aviation settings to help catch errors before harm is done. \\Moreover, we have trained a machine learning model to recognize pre-error signals in the anterior cingulate cortex (ACC) using Flanker test data from the COG-BCI dataset, which can be subsequently employed to detect pre-error states in aviation pilots. Various machine learning models were applied to the dataset, including Support Vector Machines (SVM), Random Forests, double Convolutional Neural Network (CNN) model, and a Transformer model. Moving beyond typical study conclusions, our objective extends to assessing model applicability in a secondary domain —evaluating the classifiers' discriminative power during takeoff procedures for aviation pilots. Results from the analysis of the FLANKER dataset revealed the superiority of the transformer model, with notable reductions in false negatives and a final macro averaged F1 score of 0.610, and a final macro averaged F1 of 0.578 on the Pilot data. As we anticipate increases in classifier performance with more training data and extended polling bands, this study lays the groundwork for further research in erroneous state prediction and machine learning optimization models for BCI and real-world applications.
182

Les fausses croyances et les pertes perçues comme étant presque gagnantes à la loterie vidéo

Giroux, Isabelle 15 April 2021 (has links)
Deux articles examinent les perceptions erronées des joueurs d'appareils de loterie vidéo (ALV), dont les pertes qui sont perçues comme étant presque gagnantes (PPPG). Pour la première étude, 105 joueurs d'AVL furent questionnés sur leurs conceptions erronées et les PPPG. Contrairement aux hypothèses, les joueurs fréquents ne discernent pas davantage les PPPG que les joueurs occasionnels et ils front pas un plus grand nombre de perceptions erronées. Des analyses a posteriori révélèrent des différences significatives entre les joueurs pathologiques et non pathologiques sur ces variables. C'est donc la présence ou l'absence de pathologie qui font ici la différence plutôt que la fréquence de jeu. La deuxième étude examina en laboratoire l'influence des PPPG sur le choix d'un ALV. Dans un design intra-sujet, 28 joueurs pathologiques ont joué sur 2 AVL, un ayant des PPPG et l'autre non. Les résultats démontrent comme prévu qu'une majorité de joueurs choisissent de continuer à jouer sur l'appareil ayant les PPPG. Cependant, cette préférence ne se traduit pas par une somme d'argent mise plus élevée sur cet appareil. Ces résultats sont discutés à l'aide de la psychologie cognitive du jeu.
183

Compétence en orthographe grammaticale d’élèves du primaire : le cas des accords verbaux

Baran, Geneviève 07 1900 (has links)
La maitrise du français écrit chez les élèves québécois s’améliore au fur et à mesure qu’ils progressent à l’école. Cependant, un nombre important d’élèves n’atteint pas les cibles d’apprentissage en ce qui a trait à l’écriture. Plus spécifiquement, la compétence des élèves à orthographier les mots demeure un défi important. Parmi toutes les erreurs d’orthographe, celles qui concernent les accords verbaux seraient parmi les plus difficiles à corriger, malgré des années d’apprentissage formel. Écrire un verbe correctement est particulièrement complexe. Le scripteur doit identifier le sujet dans la phrase et ajouter les marques de temps, de mode, de personne, de genre et de nombre à la terminaison du verbe en fonction du sujet. Le scripteur doit donc être en mesure de répondre adéquatement à ces questions en considérant des variables tant syntaxiques que morphologiques pour accorder correctement le verbe dans la phrase. Malheureusement, il existe peu de données descriptives précises sur les phénomènes liés à l’accord verbal qui occasionnent le plus de difficulté aux élèves. L’objectif de cette étude est de pallier ce manque en recherche afin de documenter les phénomènes les plus fréquemment associés aux erreurs observées dans les productions des élèves du primaire. Pour répondre à cet objectif, une étude descriptive a été réalisée auprès de 102 élèves de la 2e année du primaire. Les productions écrites réalisées par les élèves ont été collectées et tous les verbes ont été analysés à l’aide d’une grille permettant de documenter la réussite des élèves en fonction des phénomènes à prendre en compte pour bien orthographier les verbes. Les résultats principaux montrent que : 1) la présence d’un écran distracteur entre le sujet et le verbe pose des difficultés aux élèves ; 2) les verbes réguliers sont plus complexes à orthographier puisqu’ils sont moins fréquents ; 3) les verbes au présent et à l’imparfait sont mieux réussis que ceux au passé composé ; 4) l’infinitif est plus difficile que l’indicatif et 5) les verbes au pluriel sont plus complexes à orthographier pour les élèves que ceux au singulier. La plausibilité phonologique des marques d’accord sur la terminaison joue également un rôle important dans les performances des élèves. Ces résultats sont discutés de manière à exposer l’importance de considérer les variables syntaxiques et morphologiques dans l’analyse des performances des élèves en lien avec le verbe. / The development of writing competence improves as French Quebec students’ progress through school. However, a significant number of students do not meet the learning targets in writing. More specifically, students' ability to spell words correctly remains a challenge. Of all the spelling errors, those related to verb agreements are among the most difficult to correct, despite years of formal learning. Writing a verb correctly is particularly complex. The writer must identify the subject in the sentence and add the appropriate verb tense and mood, person, gender and number markers to the verb ending based on the subject. Therefore, the writer must be able to answer adequately these questions by considering both syntactic and morphological information to correctly inflect the verb in the sentence. Unfortunately, there is a lack of precise descriptive data on the phenomena related to verb agreement that are the most difficult for students. The aim of this study is to address this research gap by documenting the phenomena most frequently associated with errors observed in the written productions of primary school students. To meet this objective, a descriptive study was conducted with 102 second-grade primary school students. The written productions produced by the students were collected and all the verbs were analyzed using a grid that documents the students' success based on the information that need to be considered to spell verbs correctly. The main results of this study show that: 1) the presence of a distractor between the subject and the verb seems difficult for students; 2) regular verbs are more difficult to spell because they are less frequent; 3) verbs in the present and imperfect tenses are better spelled than those in the past perfect tense; 4) the infinitive is more difficult than the indicative and 5) plural verbs are more complex for students to spell than singular verbs. The phonological plausibility of agreement markers on verb endings plays an important role in students' performance. These results are discussed to highlight the importance of considering syntactic and morphological information in the analysis of students' spelling performance related to verbs.
184

Contrôle d'Accès et Présentation Contextuels pour le Web des Données

Costabello, Luca 29 November 2013 (has links) (PDF)
La thèse concerne le rôle joué par le contexte dans l'accès au Web de données depuis les dispositifs mobiles. Le travail analyse ce problème de deux points de vue distincts: adapter au contexte la présentation de données liées, et protéger l'accès aux bases des donnés RDF depuis les dispositifs mobiles. La première contribution est PRISSMA, un moteur de rendu RDF qui étend Fresnel avec la sélection de la meilleure représentation pour le contexte physique ou on se trouve. Cette opération est effectuée par un algorithme de recherche de sous-graphes tolérant aux erreurs basé sur la notion de distance d'édition sur les graphes. L'algorithme considère les différences entre les descriptions de contexte et le contexte détecté par les capteurs, supporte des dimensions de contexte hétérogènes et est exécuté sur le client pour ne pas révéler des informations privées. La deuxième contribution concerne le système de contrôle d'accès Shi3ld. Shi3ld supporte tous les triple stores et il ne nécessite pas de les modifier. Il utilise exclusivement les langages du Web sémantique, et il n'ajoute pas des nouveaux langages de définition de règles d'accès, y compris des analyseurs syntaxiques et des procédures de validation. Shi3ld offre une protection jusqu'au niveau des triplets. La thèse décrit les modèles, algorithmes et prototypes de PRISSMA et de Shi3ld. Des expériences montrent la validité des résultats de PRISSMA ainsi que les performances au niveau de mémoire et de temps de réponse. Le module de contrôle d'accès Shi3ld a été testé avec différents triple stores, avec et sans moteur SPARQL. Les résultats montrent l'impact sur le temps de réponse et démontrent la faisabilité de l'approche.
185

Les Codes LDPC non-binaires de nouvelle génération / Development of new generation non-binary LDPC error correcting codes

Shams, Bilal 08 December 2010 (has links)
Dans cette thèse, nous présentons nos travaux dans le domaine de l'algorithme de décodage non-binaire pour les classes générales de codes LDPC non-binaires. Les Low-Density Parity-Check (LDPC) codes ont été initialement présentés par Gallager en 1963, et après quelques avancées théoriques fondamentales, ils ont été pris en compte dans les normes comme le DVB-S2, WI-MAX, DSL, W-LAN etc. Plus tard, Les codes LDPC non-binaires (NB-LDPC) ont été proposés dans la littérature, et ont montré de meilleures performances lorsque la taille du code est petite ou lorsqu'il est utilisé sur des canaux non-binaires. Toutefois, les avantages de l'utilisation des codes LDPC non-binaires entrainent une complexité de décodage fortement accrue. Pour un code défini dans GF (q), la complexité est de l'ordre O(q^2). De même, la mémoire nécessaire pour stocker les messages est d'ordre O(q). Par conséquent, l'implémentation d'un décodeur LDPC-définie sur un ordre q> 64 devient pratiquement impossible.L'objectif principal de la thèse est de développer des algorithmes a complexité réduite, pour les codes LDPC non-binaires qui démontrent un rendement excellent et qui soient implémentable. Pour optimiser les performances de décodage, non seulement l'algorithme de décodage est important, mais aussi la structure du code joue un rôle important. Avec cet objectif à l'esprit, une nouvelle famille de codes appelés codes cluster-NB-LDPC a été élaboré et des améliorations spécifiques du décodeur NB pour les codes de cluster-NB-LDPC ont été proposés. Notre principal résultat est que nous étions en mesure de proposer des décodeurs de codes cluster-NB-LDPC avec une complexité réduite par rapport à décodeurs d'habitude pour les codes LDPC-NB sur les corps de Galois, sans aucune perte de performance en matière de la capacité de correction d'erreur. / In this thesis we present our work in the domain of non-binary decoding algorithm for general classes of non-binary LDPC codes. Low-Density Parity-Check (LDPC) codes were originally presented by Gallager in 1963, and after some fundamental theoretical advancements, they were considered in standards like DVB-S2, WI-MAX, DSL, W-LAN etc. Later on, non-binary LDPC (NB-LDPC)codes were proposed in the litterature, and showed better performance for small lengths or when used on non-binary channels. However, the advantages of using NB-LDPC codes comes with the consequence of an heavily increased decoding complexity. For a code defined in GF(q), the complexity is of the order O(q^2). Similarly, the memory required for storing messages is of order O(q). Consequently, the implementation of an LDPC-decoder defined over a field order q > 64 becomes practically impossible.The main objective of the thesis is to develop reduced complexity algorithms for non-binary LDPC codes that exhibit excellent performance and is practically im-plementable. For better decoding performance, not only the decoding algorithm is important, but also the structure of the code plays an important role. With this goal in mind, a new family of codes called cluster-NB-LDPC codes was developped and specific improvements of the NB decoder for cluster-NB-LDPC codes were proposed. Our principal result is that we were able to propose decoders for cluster-NB-LDPC codes with reduced complexity compared to usual decoders for NB-LDPC codes on fields, without any performance loss in error correction capability.
186

Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélation

Sango, Joel 09 1900 (has links)
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic. La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé. / In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
187

Approche cognitive en didactique des langues : analyse et interprétation d'erreurs écrites prototypiques en français langue étrangère par des apprenants chinois et remédiation / A cognitive approach to language learning : an analysis and interpretation of chinese learners’ writing prototypical errors in french as a foreign language and remedial work / 认知角度的语言教学 : 从中国学生法语学习的典型错误分析及对策出发

Ying, Xiaohua 14 June 2013 (has links)
Notre thèse est une thèse de linguistique française. Elle a pour but d’analyser et d’interpréter les erreurs à l’écrit en FLE par des apprenants chinois aux niveaux débutant et intermédiaire, de proposer un processus de remédiation aux erreurs récurrentes ayant un certain degré de prototypie et de procurer une meilleure méthodologie en didactique du FLE en Chine. L’erreur n’est pas un item à corriger qui implique le remplacement par une forme correcte, mais un révélateur significatif qui nous permet d’entrevoir le processus d’apprentissage chez l’apprenant. Notre analyse d’erreurs adopte donc une dimension cognitive. Du point de vue théorique, elle porte sur l’analyse linguistique des erreurs ; du point de vue pratique, elle porte sur la remédiation envisageable comprenant à la fois une micro-remédiation qui recherche la motivation linguistique permettant de faciliter l’apprentissage des points langue et une macro-remédiation qui vise à promouvoir une approche cognitive en didactique du FLE afin de doter l’apprenant d’une compétence métacognitive et de le transformer en sujet de l’apprentissage. / This is a PhD dissertation in French linguistics. The main purpose of this dissertation is to analyse and interpret the error made by Chinese primary or intermediate learners, to propose some remedial measures for those recurring and prototypical errors, and to provide a better teaching methodology in teaching French as a foreign language in China. An error is not only an item to be replaced by a correct form, but a significant revealer which allows us to glimpse the learning process of learners. This thesis is to adopt a cognitive approach. From a theoretical point of view, it concerns the linguistic analysis of errors; from a practical point of view, it concerns feasible remedial measures which comprise a micro-remediation and a macro-remediation. The former studies the language motivation in order to make language learning easier and the latter seeks to promote a cognitive approach in teaching in order to train the metacognitive learner and to transform the learner into the subject of learning. / 本论文是一篇法语语言学方向的博士论文,旨在分析和阐释中国法语学习者语言错误,对学习者常犯的、具有典型性的错误寻求解决对策,并找到适合中国学生法语学习的教学法。我们的研究以初级和中级水平的法语学习者的写作错误为对象。错误不是一个只需用正确形式代替或“订正”的内容,它为我们探究学习过程提供了可能,具有重要意义。论文从认知角度对错误进行分析和阐述,并寻找错误解决的可行性对策,具有理论和实践的双重意义。对错误的对策研究从微观和宏观两方面展开:前者针对学习者的主要错误,寻找相关语言点的语言理据,力求降低学习难度;后者提倡在法语外语教学中推行认知教学法,培养学习者的元认知能力,使学习者转变为学习过程的主体。
188

Analyse matricielle définitoire : outil linguistique au service de la conception d’un programme de traduction pour des étudiants de langues étrangères / Defining Matrix Analysis : A language tool used to design a translation programme for foreign language students

Sello, Kagiso Jacob 05 March 2013 (has links)
Notre constat de départ est que malgré un intérêt croissant des institutions enseignant les langues étrangères pour l’enseignement de la traduction, il n’existe à notre connaissance aucune étude portant sur la conception d’un programme de traduction professionnelle adapté à des apprenants de langues étrangères qui leur permettrait d’acquérir la compétence traductionnelle, c’est-à-dire les savoirs et savoir-faire nécessaires au traducteur en contexte professionnel. Ces institutions confondent souvent l’enseignement de la traduction et la traduction utilisée comme outil d’enseignement des langues étrangères. Le programme de traduction de l’université du Botswana ne fait pas exception, et nous proposons donc de le reconceptualiser afin qu’il réponde aux exigences de la profession. Par la mise à l’épreuve du modèle de l’analyse matricielle définitoire, outil linguistique destiné à interpréter et comparer la manière dont les langues naturelles construisent le sens, la présente thèse se propose de déceler les paramètres de l’environnement d’apprentissage sur lesquels une intervention est requise pour améliorer la qualité du programme et le rendre plus efficace. Pour ce faire, nous analyserons les erreurs de traduction commises par les étudiants qui suivent ce programme en vue d’en identifier les sources et de prendre les mesures destinées à en réduire la probabilité d’occurrence par la définition d’objectifs d’apprentissage adaptés à ce public, accompagnés des bases d’une solide assise théorique à destination de l’enseignant. / Our initial observation is that, in spite of the growing interest in teaching translation in institutions offering foreign language programmes, no study, to our knowledge, has been done on the designing of a professional translation programme appropriate for foreign language learners which could allow them to acquire translation competence, that is, knowledge and skills required by translators in a professional setting. These institutions often confuse teaching of translation and use of translation as a foreign language teaching tool. The translation programme of the University of Botswana is no exception, and we therefore propose to redesign it so that it can respond to the requirements of the profession. By putting to test the Defining Matrix Analysis model, a linguistic tool intended to interpret and compare the way natural languages construct sense, this thesis proposes to find the parameters of the learning environment on which an intervention is required in order to improve the quality and the efficiency of this programme. To achieve this goal, we are going to analyse translation errors made by students who are pursuing this translation programme with the aim of identifying their sources and taking measures destined to reduce their probability of occurrence by defining learning objectives adapted to this group of learners, accompanied by a solid theoretical basis for teachers.
189

Réseaux de neurones profonds appliqués à la compréhension de la parole / Deep learning applied to spoken langage understanding

Simonnet, Edwin 12 February 2019 (has links)
Cette thèse s'inscrit dans le cadre de l'émergence de l'apprentissage profond et aborde la compréhension de la parole assimilée à l'extraction et à la représentation automatique du sens contenu dans les mots d'une phrase parlée. Nous étudions une tâche d'étiquetage en concepts sémantiques dans un contexte de dialogue oral évaluée sur le corpus français MEDIA. Depuis une dizaine d'années, les modèles neuronaux prennent l'ascendant dans de nombreuses tâches de traitement du langage naturel grâce à des avancées algorithmiques ou à la mise à disposition d'outils de calcul puissants comme les processeurs graphiques. De nombreux obstacles rendent la compréhension complexe, comme l'interprétation difficile des transcriptions automatiques de la parole étant donné que de nombreuses erreurs sont introduites par le processus de reconnaissance automatique en amont du module de compréhension. Nous présentons un état de l'art décrivant la compréhension de la parole puis les méthodes d'apprentissage automatique supervisé pour la résoudre en commençant par des systèmes classiques pour finir avec des techniques d'apprentissage profond. Les contributions sont ensuite exposées suivant trois axes. Premièrement, nous développons une architecture neuronale efficace consistant en un réseau récurent bidirectionnel encodeur-décodeur avec mécanisme d’attention. Puis nous abordons la gestion des erreurs de reconnaissance automatique et des solutions pour limiter leur impact sur nos performances. Enfin, nous envisageons une désambiguïsation de la tâche de compréhension permettant de rendre notre système plus performant. / This thesis is a part of the emergence of deep learning and focuses on spoken language understanding assimilated to the automatic extraction and representation of the meaning supported by the words in a spoken utterance. We study a semantic concept tagging task used in a spoken dialogue system and evaluated with the French corpus MEDIA. For the past decade, neural models have emerged in many natural language processing tasks through algorithmic advances or powerful computing tools such as graphics processors. Many obstacles make the understanding task complex, such as the difficult interpretation of automatic speech transcriptions, as many errors are introduced by the automatic recognition process upstream of the comprehension module. We present a state of the art describing spoken language understanding and then supervised automatic learning methods to solve it, starting with classical systems and finishing with deep learning techniques. The contributions are then presented along three axes. First, we develop an efficient neural architecture consisting of a bidirectional recurrent network encoder-decoder with attention mechanism. Then we study the management of automatic recognition errors and solutions to limit their impact on our performances. Finally, we envisage a disambiguation of the comprehension task making the systems more efficient.
190

Systèmes de numérisation hautes performances – Architectures robustes adaptées à la radio cognitive. / High performance digitization systems - robust architecture adapted to the cognitive radio

Song, Zhiguo 17 December 2010 (has links)
Les futures applications de radio cognitive requièrent des systèmes de numérisation capables de convertir alternativement ou simultanément soit une bande très large avec une faible résolution soit une bande plus étroite avec une meilleure résolution, ceci de manière versatile (i.e. par contrôle logiciel). Pour cela, les systèmes de numérisation basés sur les Bancs de Filtres Hybrides (BFH) sont une solution attractive. Ils se composent d'un banc de filtres analogiques, un banc de convertisseurs analogique-numérique et un banc de filtres numériques. Cependant, ils sont très sensibles aux imperfections analogiques. L'objectif de cette thèse était de proposer et d’étudier une méthode de calibration qui permette de corriger les erreurs analogiques dans la partie numérique. De plus, la méthode devait être implémentable dans un système embarqué. Ce travail a abouti à une nouvelle méthode de calibration de BFH utilisant une technique d'Égalisation Adaptative Multi-Voies (EAMV) qui ajuste les coefficients des filtres numériques par rapport aux filtres analogiques réels. Cette méthode requiert d'injecter un signal de test connu à l'entrée du BFH et d'adapter la partie numérique afin de reconstruire le signal de référence correspondant. Selon le type de reconstruction souhaité (d’une large-bande, d’une sous-bande ou d’une bande étroite particulière), nous avons proposé plusieurs signaux de test et de référence. Ces signaux ont été validés en calculant les filtres numériques optimaux par la méthode de Wiener-Hopf et en évaluant leurs performances de ces derniers dans le domaine fréquentiel. Afin d’approcher les filtres numériques optimaux avec une complexité calculatoire minimum, nous avons implémenté un algorithme du gradient stochastique. La robustesse de la méthode a été évaluée en présence de bruit dans la partie analogique et de en tenant compte de la quantification dans la partie numérique. Un signal de test plus robuste au bruit analogique a été proposé. Les nombres de bits nécessaires pour coder les différentes données dans la partie numérique ont été dimensionnés pour atteindre les performances visées (à savoir 14 bits de résolution). Ce travail de thèse a permis d'avancer vers la réalisation des futurs systèmes de numérisation basés sur les BFH. / The future applications of cognitive radio require digitization systems being capable to perform a flexible conversion in terms of bandwidth and Resolution. The digitization systems based on Hybrid Filter Bancs (HFB) provide an attractive solution for achieving this purpose. The HFBs consist of a bank of analog filters, a bank of analog/digital converters and a bank of digital filters. However, they are so sensitive that the presence of analog errors renders them impossible to carry out. Therefore, the goal of the thesis was to propose and study a calibration method for the analog errors to be corrected in the digital part. Furthermore, the proposed method had to be implementable in an embedded system. Based on Multichannel Adaptive Equalization (MCAE), we proposed a new calibration method. The digital filter coefficients are adjusted according to the real analog filters. To perform this calibration process, a known test signal is injected into the HFB which output is compared to a linked desired signal, their difference is used to adjust the digital part iteratively until the goal is achieved. For different reconstruction goals (wideband, subband or a particular narrow band), we proposed two ways to generate the test and desired signals. With the filters achieved by using method Wiener-Hopf, these signals have been validated by the evaluation of the reconstruction performances. In order to approach the optimal coefficients with a minimal computational complexity, we have implemented an algorithm of stochastic gradient. The robustness of the MCAE method has been studied both in presence of the thermal noise in the analog part and in presence of quantization errors in the digital part. A more robust test signal against the analog noise has been proposed. According to our analytical expressions, for the reconstruction goal (i.e. resolution of 14 bits), the numbers of bits needed for coding the different data of the digital part can be indicated. This thesis is a step forward for realizing future digitization systems based on HFBs.

Page generated in 0.0491 seconds