• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse de performance d'un système d'authentification utilisant des codes graphiques / Performance Analysis of an Authentication Method relying on Graphical Codes

Mai Hoang, Bao An 01 December 2014 (has links)
Nous étudions dans cette thèse l'influence d'un système d'authentification utilisant des codes graphiques 2D modifiés lors de l'impression par un procédé physique non-clônable. Un tel procédé part du principe qu'à très haute résolution le système d'impression acquisition peut être modélisé comme un processus stochastique, de part le caractère aléatoire de la disposition des fibres de papiers, de mélange des particules d'encre, de l'adressabilité de l'imprimante ou encore du bruit d'acquisition. Nous considérons un scénario où l'adversaire pourra estimer le code original et essaiera de le reproduire en utilisant son propre système d'impression. La première solution que nous proposons pour arriver à l'authentification est d'utiliser un test d'hypothèse à partir des modèles à priori connus et sans mémoire des canaux d'impression-acquisition de l'imprimeur légitime et du contrefacteur. Dans ce contexte nous proposons une approximation fiable des probabilités d'erreur via l'utilisation de bornes exponentiels et du principe des grandes déviations. Dans un second temps, nous analysons un scénario plus réaliste qui prends en compte une estimation a priori du canal du contrefacteur et nous mesurons l'impact de cette étape sur les performances du système d'authentification. Nous montrons qu'il est possible de calculer la distribution des probabilité de non-détection et d'en extraire par exemple ses performances moyennes. La dernière partie de cette thèse propose d'optimiser, au travers d'un jeu minimax, le canal de l'imprimeur. / We study in this thesis the impact of an authentication system based on 2D graphical codes that are corrupted by a physically unclonable noise such as the one emitted by a printing process. The core of such a system is that a printing process at very high resolution can be seen as a stochastic process and hence produces noise, this is due to the nature of different elements such as the randomness of paper fibers, the physical properties of the ink drop, the dot addressability of the printer, etc. We consider a scenario where the opponent may estimate the original graphical code and tries to reproduce the forged one using his printing process in order to fool the receiver. Our first solution to perform authentication is to use hypothesis testing on the observed memoryless sequences of a printed graphical code considering the assumption that we are able to perfectly model the printing process. The proposed approach arises from error exponent using exponential bounds as a direct application of the large deviation principle. Moreover, when looking for a more practical scenario, we take into account the estimation of the printing process used to generate the graphical code of the opponent, and we see how it impacts the performance of the authentication system. We show that it is both possible to compute the distribution of the probability of non-detection and to compute the average performance of the authentication system when the opponent channel has to be estimated. The last part of this thesis addresses the optimization problem of the printing channel.
42

Analyse d'erreurs de constellations de satellites en termes de positionnement global et d'orbitographie / Errors analysis of satellites constellations in global positioning and orbitography terms

Luong, Ngoc-Dung 18 December 2015 (has links)
Grâce au développement des techniques spatiales (GNSS, DORIS, laser et le VLBI), la géodésie apporte quantité d’informations sur la forme de la Terre (sa géométrie et sa gravité), sa rotation et son orientation dans l’espace, aux échelles globales comme aux échelles régionales. L’étude des déformations de chaînes de montagne par GPS, des courants marins cartographiés par altimétrie satellitaire, des variations temporelles du champ de gravité, ainsi que l’établissement du repère de référence terrestre international, sont les exemples de l’apport de ces techniques à l’observation de la Terre et au changement global. Notre travail a pour but de faire un bilan des erreurs résiduelles de la géodésie spatiale, en séparant les causes des effets. Le but est de montrer comment les erreurs d’orbite se propagent d’abord dans la trajectoire, puis dans des produits globaux comme le repère de référence (via les mesures de poursuite de satellites) et la surface topographique (via les mesures altimétriques). Nous avons développé une approche analytique qui traite du transfert des erreurs d’origines géométrique et dynamique. En partant des équations du mouvement orbital, nous proposons une solution analytique d’ordre un du mouvement orbital circulaire, qui est appliquée pour propager les erreurs de modèle dynamique. Ensuite, les résultats sont transférés (ou projetés) sur plusieurs types de fonction de mesure : l’altimétrie, les mesures de distance et les mesures de vitesse radiale. L’originalité de ce travail tient pour beaucoup dans les méthodes purement analytiques qui ont été développées spécifiquement pour effectuer les analyses. / Thanks to the development of space techniques (GNSS, DORIS, laser and VLBI) geodesy provides amount of information to determine and to study the shape of the Earth (its geometry and its gravity), its rotation and orientation in space at global scales as well as at regional scales. The study of crustal deformations by using GPS, the ocean topography by satellite altimetry, the temporal variations of the gravity field (mass transports) as well as the construction and monitoring of the International Terrestrial Reference Frame (ITRF), are some examples of the contribution of these techniques to the Earth observation including the current global change. Our work aims to separate causes and consequences. We developed a dedicated approach in which different source of errors, of geometrical and dynamical natures, are treated by analytical expressions. Starting from the dynamical satellite equation of motion, we propose to integrate and propagate the model errors and then to project the results into different measurement functions: altimetry, tracking distances and radial velocities. It results in a complex but comprehensive way that enables the propagation of prediction errors into some general geodetic products as the terrestrial reference frame or the ocean surface topography. The originality of this work lies in the development of a purely analytical method for circular orbits, which has been used to propagate errors from dynamical models. In addition, the resulting orbit errors were projected at the measurement level in order to deduce the impacts on some global geodetic products.
43

Stabilisation exponentielle des systèmes quantiques soumis à des mesures non destructives en temps continu / Exponential stabilization of quantum systems subject to non-demolition measurements in continuous time

Cardona Sanchez, Gerardo 30 October 2019 (has links)
Dans cette thèse, nous développons des méthodes de contrôle pour stabiliser des systèmes quantiques en temps continu sous mesures quantiques non-destructives. En boucle ouverte, ces systèmes convergent vers un état propre de l'opérateur de mesure, mais l'état résultant est aléatoire. Le rôle du contrôle est de préparer un état prescrit avec une probabilité de un. Le nouvel élément pour atteindre cet objectif est l'utilisation d'un mouvement Brownien pour piloter les actions de contrôle. En utilisant la théorie stochastique de Lyapunov, nous montrons stabilité exponentielle globale du système en boucle fermés. Nous explorons aussi la syntèse du contrôle pour stabiliser un code correcteur d'erreurs quantiques en temps continu. Un autre sujet d'intérêt est l'implementation de contrôles efficacement calculables dans un contexte expérimental. Dans cette direction, nous proposons l'utilisation de contrôles et filtres qui calculent seulement les characteristiques classiques du système, correspondant a la base propre de l'opérateur de mesure. La formulation de dites filtres est importante pour adresser les problèmes de scalabilité du filtre posées par l'avancement des technologies quantiques. / In this thesis, we develop control methods to stabilize quantum systems in continuous-time subject to quantum nondemolition measurements. In open-loop such quantum systems converge towards a random eigenstate of the measurement operator. The role of feedback is to prepare a prescribed eigenstate with unit probability. The novel element to achieve this is the introduction of an exogenous Brownian motion to drive the control actions. By using standard stochastic Lyapunov techniques, we show global exponential stability of the closed-loop dynamics. We explore as well the design of the control layer for a quantum error correction scheme in continuous-time. Another theme of interest is towards the implementation of efficiently computable control laws in experimental settings. In this direction, we propose the use control laws and of reduced-order filters which only track classical characteristics of the system, corresponding to the populations on the measurement eigenbasis. The formulation of these reduced filters is important to address the scalability issues of the filter posed by the advancement of quantum technologies.
44

Efficient extreme classification / Classification extreme a faible complexité

Cisse, Mouhamadou Moustapha 25 July 2014 (has links)
Dans cette thèse, nous proposons des méthodes a faible complexité pour la classification en présence d'un très grand nombre de catégories. Ces methodes permettent d'accelerer la prediction des classifieurs afin des les rendre utilisables dans les applications courantes. Nous proposons deux methodes destinées respectivement a la classification monolabel et a la classification multilabel. La première méthode utilise l'information hierarchique existante entre les catégories afin de créer un représentation binaire compact de celles-ci. La seconde approche , destinée aux problemes multilabel adpate le framework des Filtres de Bloom a la representation de sous ensembles de labels sous forme de de vecteurs binaires sparses. Dans chacun des cas, des classifieurs binaires sont appris afin de prédire les representations des catégories/labels et un algorithme permettant de retrouver l'ensemble de catégories pertinentes a partir de la représentation prédite est proposée. Les méthodes proposées sont validées par des expérience sur des données de grandes échelles et donnent des performances supérieures aux méthodes classiquement utilisées pour la classification extreme. / We propose in this thesis new methods to tackle classification problems with a large number of labes also called extreme classification. The proposed approaches aim at reducing the inference conplexity in comparison with the classical methods such as one-versus-rest in order to make learning machines usable in a real life scenario. We propose two types of methods respectively for single label and multilable classification. The first proposed approach uses existing hierarchical information among the categories in order to learn low dimensional binary representation of the categories. The second type of approaches, dedicated to multilabel problems, adapts the framework of Bloom Filters to represent subsets of labels with sparse low dimensional binary vectors. In both approaches, binary classifiers are learned to predict the new low dimensional representation of the categories and several algorithms are also proposed to recover the set of relevant labels. Large scale experiments validate the methods.
45

Etude de cryptosystèmes à clé publique basés sur les codes MDPC quasi-cycliques / Study of public key cryptosystems based on quasi-cyclic MDPC codes

Chaulet, Julia 20 March 2017 (has links)
L’utilisation des codes MDPC (Moderate Density Parity Check) quasi-cycliques dans le cryptosystème de McEliece offre un schéma de chiffrement post-quantique dont les clés ont une taille raisonnable et dont le chiffrement et le déchiffrement n’utilisent que des opérations binaires. C’est donc un bon candidat pour l’implémentation embarquée ou à bas coût.Dans ce contexte, certaines informations peuvent être exploitées pour construire des attaques par canaux cachés.Ici, le déchiffrement consiste principalement à décoder un mot de code bruité. Le décodeur utilisé est itératif et probabiliste : le nombre d’itérations de l'algorithme varie en fonction des instances et certains décodages peuvent échouer. Ces comportements ne sont pas souhaitables car ils peuvent permettre d’extraire des informations sur le secret.Une contremesure possible est de limiter le nombre d’instances de chiffrement avec les mêmes clés. Une autre façon serait de recourir à un décodage à temps constant dont la probabilité d’échec au décodage est négligeable. L’enjeu principal de cette thèse est de fournir de nouveaux outils pour analyser du comportement du décodeur pour la cryptographie.Dans un second temps, nous expliquons pourquoi l'utilisation des codes polaires n'est pas sûre pour le cryptosystème de McEliece. Pour ce faire, nous utilisons de nouvelles techniques afin de résoudre une équivalence de codes. Nous exhibons de nombreux liens entre les codes polaires et les codes de Reed-Muller et ainsi d'introduire une nouvelle famille de codes : les codes monomiaux décroissants. Ces résultats sont donc aussi d'un intérêt indépendant pour la théorie des codes. / Considering the McEliece cryptosystem using quasi-cylcic MDPC (Moderate Density Parity Check matrix) codes allows us to build a post-quantum encryption scheme with nice features. Namely, it has reasonable key sizes and both encryption and decryption are performed using binary operations. Thus, this scheme seems to be a good candidate for embedded and lightweight implementations. In this case, any information obtained through side channels can lead to an attack. In the McEliece cryptosystem, the decryption process essentially consists in decoding. As we consider the use of an iterative and probabilistic algorithm, the number of iterations needed to decode depends on the instance considered and some of it may fail to be decoded. These behaviors are not suitable because they may be used to extract information about the secrets. One countermeasure could be to bound the number of encryptions using the same key. Another solution could be to employ a constant time decoder with a negligible decoding failure probability, that is to say which is about the expected security level of the cryptosystem. The main goal of this thesis is to present new methods to analyse decoder behavior in a cryptographic context.Second, we explain why a McEliece encryption scheme based on polar code does not ensure the expected level of security. To do so, we apply new techniques to resolve the code equivalence problem. This allows us to highlight several common properties shared by Reed-Muller codes and polar codes. We introduce a new family of codes, named decreasing monomial codes, containing both Reed-Muller and polar codes. These results are also of independent interest for coding theory.
46

High-speed VLSI design for turbo and LDPC codes used in broadband wireless networks

He, Zhiyong 12 April 2018 (has links)
This thesis is devoted to the high-speed designs of Very Large Scale Integration (VLSI) Systems for two powerful error-correction codes, turbo codes and Low Density Parity Check (LDPC) codes, which are used in advanced wireless technology to allow the transmission of data at rates near the channel capacity with arbitrarily low probability of error. Since both turbo codes and LDPC codes inherently have large decoding latencies due to the iterative decoding process, the real challenge in high-speed applications is the throughputs of the decoders for these codes. The first contribution of the thesis is that two parallel decoding architectures have been designed to dramatically increase the decoding throughputs of turbo codes. Then, an efficient approach is proposed to design a conflict-free interleaver which avoids collisions in concurrent memory accesses in parallel decoders of turbo codes. For high-performance and high-speed applications of LDPC codes, this thesis has introduced a class of structured LDPC codes with low error floor and low encoding complexity which are based on circulant permutation matrices. The simulations in additive white Gaussian noise (AWGN) channels indicate that the proposed LDPC codes have no bit-error-rate floor down to 10~10 . Using parallel encoding architectures and a layered encoding algorithm, the encoders of the proposed LDPC codes have attained throughput of several Gbits/sec. Finally, a joint row-column decoding algorithm has been proposed to implement high-speed decoders for LDPC codes. As compared with the conventional decoder, the proposed joint decoder improves the bit-error-rate performance and increases the decoder throughput. Implementation results into field programmable gate array (FPGA) devices indicate that a parallel decoder attains a throughput of 2 Gbits/sec. / Cette thèse porte sur la conception de systèmes VLSI (Very Large Scale Intégration) haute vitesse pour deux codes correcteurs d'erreurs puissants, soient les codes turbo et les codes de parité de faible densité (Low Density Parity Check, LDPC), lesquels sont utilisés en technologie sans fil avancée afin de permettre des transmissions à des débits approchant la capacité du canal avec des probabilités d'erreurs arbitrairement faibles. Comme les codes turbo et les codes LDPC possèdent des latences de décodage élevées, dues au caractère itératif de leurs processus de décodage, le principal défi des applications à haute vitesse réside dans l'amélioration du débit des décodeurs pour ces codes. Ainsi, nous proposons une approche efficace pour la conception d'un entrelaceur sans conflits, évitant les collisions dans les accès mémoire concurrents pour les décodeurs parallèles des codes turbo. Pour les applications haute performance et haute vitesse des codes LDPC, cette thèse introduit une classe de codes LDPC structurés avec un plancher d'erreur bas et une faible complexité d'encodage, lesquels sont basés sur des matrices de permutation circulantes. Des simulations dans un canal avec bruit blanc additif Gaussien (additive white Gaussian noise, AWGN) montrent que les codes LDPC proposés ne présentent aucun plancher d'erreur au-delà de 10~10 . En utilisant des architectures d'encodage parallèles et un algorithme d'encodage par couches, les encodeurs pour les codes LDPC proposés atteignent un débit de quelque Gbit/sec. Finalement, un algorithme de décodage conjoint ligne-colonne est proposé afin d'implanter des décodeurs haute vitesse pour les codes LDPC. En comparaison avec le décodeur classique, le décodeur conjoint proposé réduit le taux d'erreur par bit et augmente le débit du décodeur. Le résultat de l'implémentation dans les réseaux de portes programmables in-situ (field programmable gâte array, FPGA) indique qu'un décodeur parallèle peut atteindre un débit de 2 Gbit/sec.
47

Les représentations de la norme lexicale dans l'enseignement du français langue maternelle au secondaire : le point de vue d'enseignants québécois

Guimond-Villeneuve, Joannie January 2015 (has links)
Résumé : En raison de la concurrence qu’il y a au Québec entre une norme québécoise et une norme internationale, les questionnements normatifs sont nombreux chez les professionnels de la langue, et tout particulièrement chez les enseignants de français. Dans cette étude, nous avons cherché à voir comment les représentations de la norme lexicale chez les professeurs de français langue d’enseignement au secondaire se manifestent dans leur discours à partir d’usages dont la valeur normative n’est pas clairement définie. Pour ce faire, nous avons mené des entrevues auprès de 20 enseignants et enseignantes de français au deuxième cycle du secondaire au Québec au cours desquelles nous leur avons demandé de corriger de courts textes et de justifier leurs corrections. Puis, nous les avons interrogés sur leur conception de la norme lexicale écrite et sur leurs positions normatives à l’endroit de diverses catégories d’emplois lexicaux. Il en ressort que cette norme est le français québécois standard tel qu’on peut le dégager des dictionnaires les plus usuels ou encore perçu selon l’intuition linguistique des participants. Ce français se distingue du français oral et il exclut les anglicismes critiqués, les mots vulgaires, les impropriétés et les barbarismes. Si certains types d’emplois sont clairement jugés non compatibles avec la norme, d’autres donnent lieu à des prises de position normatives moins tranchées, plus instables. Ainsi, les néologismes, les archaïsmes, les mots familiers et les emprunts peuvent être acceptés, selon la situation de communication et selon des critères comme l’usage et l’absence de synonyme. Le modèle de l’Imaginaire linguistique d’Houdebine nous a servi de grille pour catégoriser et analyser les représentations linguistiques observées dans le discours des participants. Cette analyse révèle que les enseignants s’appuient principalement sur des critères d’ordre prescriptif et constatif, soit le dictionnaire et l’usage, et parfois aussi sur d’autres critères comme la précision, l’intercompréhension, la fréquence ou la valeur identitaire de certains usages lexicaux pour décider de les corriger ou de les accepter lors de la correction de productions écrites. / Abstract : Due to a competition between two linguistic norms in Quebec, a Quebec norm and an international norm, language professionals – especially French teachers – often deal with prescriptive questions. Our study aims at studying how high school French language teachers’ attitudes towards the lexical norm are reflected in their discourse based on examples of uses without a clearly defined prescriptive value. To do so, we conducted individual interviews with 20 Secondary French teachers (Cycle Two) in Quebec. During these interviews, they were asked to correct short texts and to justify their corrections. Then, they were questioned on their conception of the written lexical norm and on their normative positions towards various categories of lexical uses. This research reveals that their norm is the Quebec French standard as it is described in dictionaries or, in many cases, perceived according to the informant’s linguistic intuition. This French variety is distinguished from spoken French and excludes criticized anglicisms, coarse language, language errors and barbarisms. Although some categories of uses are clearly deemed incompatible with the norm, not all categories are given a clear-cut, stable stand. Thus, neologisms, archaisms, colloquial words and loanwords may be accepted, depending on the context and based on certain criteria such as usage and non-existence of synonyms. Houdebine’s model of linguistic imaginary served as a grid to classify and analyze the linguistic representations observed in the participants’ discourse. This analysis shows that teachers rely heavily on prescriptive and constative criteria, that is to say dictionaries and usage, and sometimes also on other criteria such as accuracy, mutual understanding, frequency or identity value of some lexical uses in order to decide whether to correct them or not while assessing written productions.
48

Solidification Dendritique de Mélanges Binaires de Métaux sous l'Action de Champs Magnétique: Modélisation, Analyse Mathématique et Numérique

Rasheed, Amer 14 October 2010 (has links) (PDF)
La compréhension du comportement des matériaux en présence d'impuretés, durant le processus de solidification, nécessite le développement de méthodologies appropriées pour une analyse et un contrôle efficace des changements topologiques des microstructures (par exemple, la formation des dendrites) au cours des différentes phases de transformation. L'objectif de cette thèse est de construire un modèle pertinent de solidification d'alliages binaires sous l'action de champs magnétiques, d'analyser les systèmes issus du modèle mathématique ainsi développé, d'un point de vue théorique et numérique, et enfin de développer une méthode de contrôle optimal afin de contrôler la dynamique du front de solidification par l'action du champs magnétiques. Dans un premier temps, nous avons décrit la physique du problème et les lois fondamentales nécessaires à la modélisation, puis nous avons construit un nouveau modèle de champ de phase, qui tient compte de l'influence de l'action du champ magnétique sur le mouvement du front de solidification. Le modèle ainsi développé est caractérisé par le couplage de trois systèmes : un de type magnétohydrodynamique, un second de type Warren-Boettingger avec convection (représentant l'évolution du front de solidification et la concentration du mélange binaire) et un troisième représentant l'évolution de la température. Les équations du système complet décrivant le modèle, dans un domaine Ω inclus dans R^{n}, n ≤ 3, sont évolutives, non linéaires, couplées et anisotropes. Dans une seconde partie, nous avons effectué l'analyse théorique du modèle développé dans le cas isotherme et isotrope en dimension deux. Nous avons obtenu des résultats d'existence, de régularité, de stabilité et d'unicité d'une solution, sous certaines conditions sur des opérateurs non linéaires du système. Enfin, nous avons développé une méthode de contrôle optimal non linéaire : le champ magnétique (qui intervient sous forme multiplicative) joue le rôle de contrôle, et l'observation est l'état désiré de la dynamique du front. Nous avons démontré l'existence d'une solution optimale et obtenu la sensibilité de l'opérateur solution et les conditions d'optimalité en introduisant un problème adjoint. Cette partie théorique de la thèse est complétée par un important travail numérique. L'analyse et les simulations numériques ont été menées sur le problème complet bi-dimensionnel non linéaire (isotrope et anisotrope). Nous avons utilisé pour la discrétisation la méthode des lignes qui consiste à considérer séparément la discrétisation temporelle et spatiale. La discrétisation spatiale est effectuée par un schéma d'éléments finis mixtes et le système différentiel algébrique obtenu est résolu par l'utilisation du solveur DASSL. La discrétisation du domaine est effectuée par des mailles triangulaires non structurées. Dans le cas réaliste, elles correspondent à un maillage non uniforme et trés fin dans la zone de la dendrite et au niveau de l'interface. Nous avons obtenu des estimations d'erreur pour les différentes variables d'état du modèle et analysé la robustesse et la stabilité des schémas d'approximation. Ce code numérique a été validé sur différents exemples, et donne d'excellents résultats. Ensuite, nous avons exploité le code pour traiter un problème réaliste, à savoir la solidification dendritique d'un alliage binaire Nickel-Cuivre, et analyser l'influence de champs magnétiques sur l'évolution des dendrites. Les résultats obtenus montrent l'efficacité de l'approche à reproduire les observations expérimentales.
49

Contribution à la robustesse des systèmes temps réel embarqués multicœur automobile

Cotard, Sylvain 12 December 2013 (has links) (PDF)
Les besoins en ressources CPU dans l'automobile sont en constante augmentation. Le standard de développement logiciel AUTOSAR (AUTomotive Open System ARchitecture) - développé au sein d'un consortium regroupant des fabricants de véhicules et des sous-traitants - offre désormais la possibilité de s'orienter vers de nouvelles architectures : les microcontrôleurs multicœur. Leur introduction au sein des systèmes embarqués critiques apporte un lot de problèmes allant à l'encontre des objectifs de sûreté de fonctionnement ISO 26262. Par exemple, le parallélisme des cœurs impose de maîtriser l'ordonnancement pour respecter les contraintes de dépendance entre les tâches, et le partage des données intercœur doit être effectué en assurant leur cohérence. Notre approche s'articule en deux volets. Pour vérifier les contraintes de dépendance entre les tâches, les exigences sur les flots de données sont utilisées pour synthétiser des moniteurs à l'aide de l'outil Enforcer. Un service de vérification en ligne utilise ces moniteurs (injectés dans le noyau du système d'exploitation) pour vérifier le comportement du système. Enfin, pour maîtriser le partage des données intercœur, nous proposons une alternative aux protocoles bloquants. Le protocole wait-free STM-HRT (Software Transactional Memory for Hard Real-Time systems), est conçu sur les principes des mémoires transactionnelles afin d'améliorer la robustesse des systèmes.
50

Impact de la détection consciente des (ébauches d') erreurs sur leur traitement : approches électromyographiques et électroencéphalographiques / Impact of conscious detection of (partial) errors on their processing : an electroencephalographic and eletromyographic approach

Rochet, Nicolas 17 April 2014 (has links)
Dans un environnement imprévisible, l'homme n'est pas toujours capable d'adapter son comportement à une situation donnée et commet alors des erreurs. Dans environ 95% des cas, ces erreurs sont commises consciemment. Cependant, le traitement de l'erreur par le cerveau ne s'opère pas de façon binaire. En effet, l'enregistrement de l'activité électromyographique (EMG) des muscles effecteurs des réponses, révèle, dans environ 15% des essais, une amorce de réponse incorrecte, une ébauche d'erreur. Dans ces essais, les sujets ont été capables de détecter, d'inhiber et de corriger leurs ébauches d'erreurs avant de produire la réponse correcte. Ces processus nécessitent-ils l'intervention de la conscience ? Quels en sont les marqueurs ?Nous montrons dans une première étude que les sujets sont capables d'une détection consciente de leurs ébauches d'erreurs dans un faible nombre de cas seulement (environ 30%). Nous mettons en évidence deux prédicteurs d'une telle détection : la taille de la bouffée EMG associée à l'ébauche d'erreur ainsi que le temps mis par les sujets, depuis le début de cette bouffée, pour la corriger et fournir la réponse correcte. Dans une deuxième étude, nous montrons qu'un indice électroencéphalographique (EEG), la Négativité d'erreur (Ne), pourrait servir de stimulus interne pour le cerveau, à la détection consciente des ébauches d'erreurs et des erreurs. Leur accès conscient interviendrait plus tardivement dans les ébauches d'erreurs que dans les erreurs, mais serait reflété dans les deux cas par des activités EEG similaires, la Positivité d'erreur (Pe). Ainsi, la correction des ébauches d'erreurs interfère avec leur accès conscient en le ralentissant. / In an unpredictable environment, man is not always able to adapt its behavior to a given situation and then makes mistakes. In about 95% of cases, these mistakes are made consciously. However, error processing in the brain does not occur in binary mode . Indeed, the recording of the electromyographic (EMG) activity of muscles involved in responses, reveals that, in about 15 % of the trials, there is a subthreshold incorrect EMG activity, called partial error, that precede the correct one. In these trials, the subjects were able to detect, inhibit their partial errors and correct them to produce the correct response.Does these processes require intervention of consciousness? What are the related markers ?We show in a first study that subjects are capable of conscious detection of their partial errors in a small number of cases (about 30 %).We highlight two predictors of such detection : the size of the EMG burst associated with the partial error and the time taken by the subjects, since EMG onset , to correct and to provide the correct response.In a second study , we show that an electroencephalographic (EEG) index, the error negativity (Ne) , could serve as an internal stimulus to the brain, for conscious detection of errors and partial errors. Their conscious access would occur later in partial errors than errors but would be reflected in both cases by similar a similar EEG activity, the error positivity (Pe). Thus, correction of partial errors interfere with their conscious access by slowing it.

Page generated in 0.0769 seconds