Spelling suggestions: "subject:"cohérence"" "subject:"cohérences""
321 |
La bonne foi dans le contrat : une réflexion via le prisme du droit anglais / Good Faith in Contract : a Comparative Perspective (French Law and English Law)Braci, Antoine 17 October 2016 (has links)
C’est en s’appuyant sur des documents confidentiels de la vie des affaires que cette thèse analyse, de manière comparée (droits français et anglais), la bonne foi dans le contrat. L’auteur définit la bonne foi comme un outil de « fiabilité », c’est-à-dire une garantie de confiance qui fournit une protection contre les risques contractuels. C’est à cette définition qu’est consacrée la première partie de la thèse, tandis que la seconde s’intéresse aux modulations de la bonne foi selon ces risques. / This PhD thesis, which is based upon confidential business documents, is an analysis of good faith in contract from a comparative perspective (French law and English law). The author defines good faith as a “reliability” device that ensures trust to protect against contractual risks. While the first part of this thesis deals with the proposed definition of good faith, the second part applies this definition to a variety of risks.
|
322 |
L'interféromètre à somme de fréquences ALOHA en bande H : Des tests en laboratoire jusqu'aux premières franges sur le ciel / The upconversion interferometer ALOHA operating in H band : From the laboratory to the first on-skyDarré, Pascaline 29 September 2016 (has links)
La technique de l'interférométrie en astronomie permet d'observer des objets avec une haute résolution angulaire comparativement à l'utilisation d'un unique télescope. L'observation dans l'infrarouge moyen représente aujourd'hui un enjeu en interférométrie notamment pour l'étude des noyaux actifs de galaxie ou de la formation des planètes. Cependant ce domaine spectral est particulièrement contraignant puisqu'il est soumis à l'émission propre des éléments optiques de l'instrument mais également de l'atmosphère. Ce manuscrit développe les travaux effectués sur un nouvel instrument utilisant un processus de conversion de fréquence pour transposer le rayonnement infrarouge vers un domaine spectral permettant de s'affranchir de l'émission propres des optiques. Un prototype fonctionnant dans le proche infrarouge à 1,55 µm et convertissant, via une processus de somme de fréquences, le rayonnement dans le domaine visible autour de 630 nm grâce à une pompe intense à 1064 nm, a été mis en place pour démontrer, en laboratoire, le principe de cette solution innovante notamment dans le cadre de l'analyse de la cohérence spatiale d'un corps noir. L'objectif est maintenant de démontrer la capacité de l'instrument à détecter un objet réel. J'introduis dans cette thèse les notions théoriques essentielles à la compréhension des travaux présentés pour ensuite détailler le fonctionnement de l'instrument et les éléments d'amélioration apportés, notamment en terme de transmission, au cours de ma thèse. Les études préliminaires en laboratoire du comportement de l'instrument ont permis d'aboutir aux premières franges sur le ciel en utilisant la plus petite base (34 m) du réseau interférométrique CHARA et de rechercher la magnitude limite de l'instrument. L'utilisation du processus de conversion de fréquence a pour conséquence de filtrer le spectre converti. Ainsi dans la configuration actuelle de l'interféromètre, seul 0,6 nm du spectre infrarouge en entrée du cristal est converti à travers le processus de SFG. Afin d'augmenter la sensibilité, une solution est de créer plusieurs processus de SFG simultanément dans chaque étage de conversion afin d'échantillonner le spectre infrarouge converti. Cette solution requiert d'utiliser plusieurs sources de pompe indépendantes qui vont créer des systèmes de franges incohérents. Je présente l'analyse de la cohérence temporelle d'une source infrarouge large bande convertie via l'utilisation de deux sources de pompe et un moyen de synchroniser les différents systèmes de franges afin de maximiser le contraste. / Interferometry is an instrumental technique suitable to perform astronomical observations at high angular resolution. Currently, the mid-infrared spectral domain is a real issue for the astronomical interferometry to characterize astronomical objects such as proto-planetary discs or active galactic nuclei. However, this spectral domain is subject to a large thermal background emission from the instrument and from the sky. This manuscript describes an innovative instrument using a nonlinear process of sum frequency generation to convert the mid-infrared radiation to a shorter wavelength domain where the thermal emission from the instrument is negligible. A prototype operating in the near-infrared at 1.55 µm and converting the radiation in the visible domain at 630 nm thanks to a strong pump at 1064 nm has already demonstrated its ability to analyse spatial coherence of a blackbody source. The present goal is to demonstrate its ability to detect an object on the sky. In this manuscript I introduce theoritical concepts necessary for an understanding of the overall operation of the instrument. Then, I describe the main improvements provided in this thesis, in particular concerning the instrumental transmission. The preliminary studies of the instrument operation resulted in the first on-sky fringes on the CHARA array and enabled to determine its limiting magnitude. The upconversion process acts as a filter on the converted spectrum. In the current instrumental configuration, only 0.6 nm of the input infrared spectrum is converted through the SFG process. For the purpose of increasing the instrumental sensitivity, we propose to sample the infrared spectrum by using several independent pump laser lines thus creating different incoherent fringe patterns. I present the temporal coherence analysis of a broadband infrared source converted by a dual-line pump laser and a method to synchronize the different fringe patterns to insure a maximum value of the contrast.
|
323 |
Photonique quantique expérimentale : cohérence, non localité et cryptographie / Experimental quantum photonics : coherence, nonlocality and cryptographyAktas, Djeylan 14 December 2016 (has links)
Cette thèse s'articule autour de l'étude de la cohérence de la lumière produite à partir de sources de paires de photons intriqués et de micro-lasers. Nous avons produit et manipulé des états photoniques intriqués, et conduit des investigations à la fois fondamentales et appliquées. Les deux études menées sur les aspects fondamentaux de la non localité avaient pour but de relaxer partiellement deux contraintes sur lesquelles s'appuie l'inégalité de Bell standard en vue d'applications à la cryptographie quantique. Ainsi, en collaboration avec l'Université de Genève, nous avons redéfini la notion de localité en prenant en compte les influences sur les mesures de corrélations des choix des configurations expérimentales et d'une efficacité globale de détection limitée. Cela a permis de définir des inégalités de Bell généralisées et les violations expérimentales qui en découlent permettent d'attester de la non localité des états quantiques observés. Nous avons aussi étudié et mis en place une solution expérimentale autorisant l'émission de photons intriqués dans des pairs de canaux télécoms pour la cryptographie quantique. Nous avons montré la préservation de l'intrication sur 150 km et obtenu des débits records en comparaison avec les réalisations similaires. Enfin, nous avons étudié les propriétés de l’émission de lasers à semi-conducteurs aux dimensions réduites. L’émission de ces composants microscopiques s'accompagne de grandes fluctuations en intensité lorsque ceux-ci sont pompés en-dessous du seuil laser. Cette étude a permis de mieux comprendre comment se construit la cohérence laser dans ces systèmes. / In this thesis we study the coherence of light emitted by entangled photon-pair sources and micro-lasers. We have generated an manipulated entangled photonic states and investigated both fundamental (non locality) and applied (quantum cryptography) research directions. The objective of two fundamental studies on non locality was to partially relax the strong assumptions on which standard Bell tests rely. To this end, we redefined, in collaboration with the University of Geneva, the formalism of locality taking into account the influence, on correlation measurements, of the freedom of choice (in the basis settings) and of the limitation of the overall detection efficiency. Both assumptions allow devising generalized Bell inequalities whose experimental violations indicate that we can still attest for non locality for the observed states. In addition, we have studied and realized an experimental setup allowing to distribute entangled photon pairs in paired telecom channels for high bit rate quantum cryptography. We have shown that entanglement is preserved over a distance of 150 km with record rates for similar realizations, by mimicking classical network solutions exploiting, in an optimal fashion, the capacity of an optical fiber link via dense spectral multiplexing. Finally, we have studied the properties of light emitted by semiconductor lasers showing reduced dimensionality. This micro-lasers actually provide output light under high intensity fluctuations when they are pumped below the threshold. Their study allowed to refine our understanding on how the coherence builds up in these systems as the cavity is filled with photons.
|
324 |
Instrumentation et méthodes d’analyse appliquées à l’évaluation du développement rétinien chez le souriceau par tomographie par cohérence optiqueBrais-Brunet, Simon 12 1900 (has links)
Ce mémoire par article décrit le développement d’instrumentation optique et d’algorithmes qui ont servi à l’étude du développement rétinien du modèle murin par tomographie par cohérence optique (OCT de l’anglais, Optical Coherence Tomography). Le document est divisé en deux parties importantes.
Le Chapitre 1 introduit les bases théoriques nécessaires à la compréhension de la problématique, alors que le Chapitre 2 décrit les outils qui ont été développés ou adaptés durant le projet pour mener à bien les expériences. Spécifiquement, les particularités du système optique développé pour permettre la focalisation d’un faisceau sur la rétine, maximiser le signal et minimiser l’impact des aberrations sphériques et de dispersion sur la qualité de l’image sont détaillées. Les algorithmes de traitement de signal OCT permettant la visualisation une tomographie sont aussi détaillés.
La seconde partie est un manuscrit en préparation pour soumission au journal Investigative Ophthalmology & Visual Science pour publication. Le but de ce manuscrit est d’établir des chartes de référence détaillant la croissance et la maturation morphologique des tissus rétiniens de la souris wild-type (129S1/SvImJ) entre 7 et 21 jours de vie (Chapitre 3). L’article détaille l’algorithme de traitement d’images et de segmentation dédié à la quantification de l’épaisseur des tissus rétiniens dans le temps. Enfin, un aperçu des travaux de recherche rendus possibles par les outils développés dans ce projet est présenté. Cette section montre entre autres le potentiel de ces outils pour étudier des maladies développementales de la rétine. / This master thesis is including a manuscript submitted for publication and is divided into two sections. In particular, the document describes the development of optical instrumentation and methodological tools to study the retinal development in an animal model through optical coherence tomography (OCT).
The first section is divided into two chapters. Chapter 1 describes the theoretical basis and the problem to solve. Chapter 2 describes the tools developed or adapted to enable the performance of the experiments. In particular, this chapter details the optical system designed to allow the optimal focalization of the light beam onto the retina, which maximizes the signal and minimizes the impact of spherical aberrations and light dispersion on image quality. Also, the processing algorithm used to segment retinal tissues from OCT tomography is discussed.
The second section is divided into two chapters. Chapter 3 is a manuscript that was submitted for publication to Investigative Ophthalmology & Visual Science. This work describes the growth and maturation of specific retinal layers in the wild type mouse (129S1/SvImJ) between 7 and 21 days of life. The manuscript also describes the image processing and segmentation algorithm that allows the quantification of the thickness of the layers over time. Then, Chapter 4 describes specific research projects where these OCT imaging tools can be applied. Specifically, this chapter shows the potential to study retinal developmental diseases as well as perfusion methods.
|
325 |
Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués / Ensuring consistency in partially replicated data storesSaeida Ardekani, Masoud 16 September 2014 (has links)
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête. / In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%.
|
326 |
Schémas ALE multi-matériaux totalement conservatifs pour l'hydrodynamique / Conservative multi-material ALE schemes for hydrodynamicsMarboeuf, Alexis 08 March 2018 (has links)
Ce sujet de thèse s’inscrit dans le cadre des études actuellement menées au CEA/DAM concernant des schémas numériques ALE (Arbitrary-Lagrangian-Eulerian)de type « Lagrange + Projection », dans le contexte des simulations hydrodynamiques mutli-matériaux en grandes déformations. Ces schémas doivent respecter les équations de conservation de la masse, de la quantité de mouvement et de l’énergie totale.Les schémas décalés en temps et en espace sont très utilisés dans les codes industriels. Ils sont robustes et permettent une bonne approximation des comportements complexes, mais sont connus pour ne pas conserver exactement l’énergie totale. Cela pose un problème dans le traitement des chocs, sur maillages raffinés ou dans la simulation des milieux réactifs.En 2016, des travaux originaux on été proposés par A. Llor et. al. pour rendre conservatif ce type de schéma dans un contexte lagrangien (sans projection), notamment en proposant une correction pour retrouver la conservation de l’énergie totale.Le travail de cette thèse a été d’étendre ce schéma lagrangien dans un contexte ALE multi-matériaux (avec interface), en garantissant la conservation de toutes les quantités, le respect du second principe de la thermodynamique et la robustesse. De nombreux cas tests ont été menés (en 2D plan et en 2D axisymétrique) et comparés aux méthodes existantes afin de montrer la pertinence de cette approche. / This PhD subject comes within actual studies managed by CEA/DAM about ALE (Arbitrary-Lagrangian-Eulerian) schemes (with a splitting of Lagrangian and Remapping steps) in the context of hydrodynamic simulations. These numerical schemes have to respect mass, momentum and total energy conservation, which are the fundamental equations of the studied systems.Space- and Time-Staggered are widely used in industrial codes for their simplicity androbustness despite their known lack of exact energy conservation. This is a major drawbackin presence of strong shocks. Among all existing schemes, none of them meet the expectations of robustness, conservation,thermodynamic consistency (both shocks and relaxations capture), accuracy andadaptibility to complex behaviors. Recently, some novel works have been proposed by A.Llor et. al. in order to make conservative this type of scheme in a Lagrangian context (without remapping step). Current remap methods, necessary in large deformations, donot guarantee simultaneously total energy conservation and thermodynamic consistency.This work aims at extending this conservative Lagrangian space- and time-staggeredscheme to a multi-material ALE methodology, keeping its good properties (conservation,accuracy, thermodynamic consistency, robustness) intact. Classical, but demanding, test cases have been performed (both in plane and axisymmetric 2D geometries) and have been compared to existing numerical methods in order to assess the relevance of our approach.
|
327 |
Développement de systèmes de microscopie par cohérence optique pour l'imagerie de la peau / Development of optical coherence microscopy systems for skin imagingOgien, Jonas 30 November 2017 (has links)
La microscopie par cohérence optique (OCM) est une technique d'imagerie tomographique basée sur l'interférométrie en lumière blanche permettant d'imager les milieux biologiques à l'échelle microscopique. L'OCM est une méthode particulièrement adaptée à l'imagerie dermatologique, en particulier pour le diagnostic du cancer de la peau, car elle permet d'obtenir des images similaires aux images histologiques sans nécessiter d'effectuer de biopsie.Ces travaux de thèse portent sur le développement de la microscopie par cohérence optique pour l'imagerie de la peau, dans le but de fournir au dermatologue un outil d'imagerie compact, adapté à l'imagerie dermatologique in vivo, et permettant d'obtenir des images à la fois structurelles et fonctionnelles.Un dispositif de microscopie par cohérence optique plein champ (FF-OCM) compact, à éclairage par LED blanche, a tout d'abord été développé, permettant d'obtenir des images tomographiques à très haute résolution (0.7 μm × 1.8 μm) jusqu’à ∼200 μm de profondeur dans la peau. En utilisant une LED de haute puissance, des images de peau in vivo ont pu être obtenues.A partir de ce dispositif de FF-OCM, des méthodes d'imagerie fonctionnelle permettant de cartographier les écoulements sanguins (angiographie) ont été mises en oeuvre. Quatre méthodes, basées sur une analyse du signal interférométrique (temporelle ou fréquentielle), d'images de phase ou d'images d'amplitude ont permis d'imager de l'intralipide s'écoulant dans un modèle de capillaire sanguin.L'imagerie fonctionnelle polarimétrique a aussi été explorée en FF-OCM. Une optimisation du contraste des images polarimétriques a été obtenue en modifiant les composants polarisants d'un montage conventionnel de FF-OCM polarimétrique en fonction de l'échantillon imagé. Cette méthode a été testée sur un échantillon polarisant simple.Finalement, une nouvelle méthode d'OCM, la microscopie par cohérence optique confocale à éclairage « ligne » (LC-OCM) a été étudiée, dans le but de développer un système permettant d'imager la peau in vivo, avec une plus grande profondeur de pénétration dans les tissus que la FF-OCM. Ce système, combinant un filtrage interférométrique et un filtrage confocal, a permis d'obtenir des images de peau in vivo en coupe verticale et en coupe en face, avec une résolution spatiale similaire à celle de la FF-OCM, mais à une profondeur supérieure atteignant 300 μm. / Optical coherence microscopy (OCM) is a technique for tomographic imaging based on white light interferometry, making it possible to image biological media with micrometer-scale spatial resolution. OCM is particularly well-suited to dermatological imaging, especially skin cancer diagnosis, since it provides images that are similar to histological images without the need for biopsy.This PhD thesis focuses on the development of OCM for skin imaging, with the aim of providing a compact, in vivo imaging tool for the dermatologist, capable of acquiring structural and functional images of the skin.A compact, full-field OCM (FF-OCM) system illuminated by a white LED was first developed, making it possible to obtain tomographic images at an ultra-high resolution (0.7 μm × 1.8 μm), up to ∼200 μm in depth within the skin. Using a high power LED, in vivo skin images could be obtained.Using this FF-OCM setup, functional imaging methods for blood flow mapping (angiography) were implemented. Four methods, based on temporal or frequency analysis of the interferometric signal, phase images or amplitude images, have been shown to be able to image intralipid flow within a model blood capillary.Functional polarimetric imaging has also been explored in FF-OCM. Contrast optimization in polarimetric images has been obtained by modifying the polarizing components of the conventional polarization sensitive FF-OCM setup depending on the sample to be imaged. This method has been tested on a simple polarizing sample.Finally, a new OCM method, line-field confocal OCM (LC-OCM), has been studied. The goal here was to develop a system capable of imaging the skin in vivo, with a tissue penetration depth greater than what is possible for FF-OCM. This system, which combines interferometric filtering and confocal filtering, makes it possible to obtain in vivo skin images in vertical and en face slices, with a spatial resolution similar to that of FF-OCM, but with a greater penetration depth of 300 μm.
|
328 |
Etude des ondes de densité de charge par diffraction cohérente des rayons X / Charge density Wave studied by coherent X-ray diffractionPinsolle, Edouard 19 November 2012 (has links)
Les matériaux à Onde de Densité de Charge (ODC) ont été très étudiés durant les années 80 pour leurs propriétés de transport remarquables. Pourtant il reste plusieurs questions sans réponse. L’utilisation de nouvelles techniques expérimentales permet de répondre à certaines de ces questions. Après avoir présenté les principes de base de la Diffraction Cohérente des Rayons X (DCRX), nous montrons, en prenant comme exemple l’étude des boucles de dislocation dans le silicium, comment cette technique expérimentale permet de sonder les défauts de phase présents dans les cristaux.Nous poursuivons par des expériences sur les composés NbSe3 et K0.3MoO3 qui se trouvent être des systèmes canoniques pour l’étude des ODC. Nous montrons notamment grâce à la DCRX l’influence des défauts dans le glissement d’une ODC dans le composé NbSe3.Pour finir nous présentons des expériences sur la coexistence entre les ODC et onde de densité de spin dans le Chrome ainsi que la coexistence des ODC et de la supraconductivité dans le composé NbSe2. Ces expériences préliminaires laissent à penser que la supraconductivité augmente la cohérence de l’ODC et que la transition de spin flip, présente dans le Chrome, a des effets sur l’ODC. / Charge Density Wave (CDW) compounds have been extensively studied during the 80s for their remarkable transport properties. Yet, there are still many unanswered questions. The use of new experimental techniques can address some of these issues.After presenting the basic principles of Coherent X-ray diffraction (CXRD), we show, using as an example the study of dislocation loops in silicon, how this experimental technique allows probing phase faults present in crystals.We continue with studies on CDW in the canonical compounds NbSe3 and K0.3MoO3. We study with DCRX the influence of defects in the sliding of a CDW in the compound NbSe3.Finally we present experiments on coexistence between CDW and spin density wave in Chromium and the coexistence of CDW and superconductivity in the compound NbSe2. These preliminary experiments suggest that superconductivity increases the coherence of CDW and that the spin-flip transition, present in Chromium, has effects on CDW.
|
329 |
Mise en Correspondance Robuste et Détection d'Éléments Visuels Appliquées à l'Analyse de FaçadesOk, David 25 March 2013 (has links) (PDF)
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, sou- vent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. À partir de cette formalisation, nous en dérivons un algo- rithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste.
|
330 |
Analyse de la dynamique neuronale pour les Interfaces Cerveau-Machines : un retour aux sources.Besserve, Michel 22 November 2007 (has links) (PDF)
Les Interfaces Cerveau-Machine sont des dispositifs permettant d'instaurer un canal de communication entre le cerveau humain et le monde extérieur sans utiliser les voies usuelles nerveuses et musculaires. Le développement de tels systèmes se situe à l'interface entre le traitement du signal, l'apprentissage statistique et la neurophysiologie. Dans cette thèse, nous avons réalisé et étudié un dispositif d'Interface Cerveau-Machine non invasif asynchrone, c'est-à-dire capable d'identifier des actions mentales associées à des tâches motrices ou cognitives imaginées sans synchronisation sur un événement contrôlé par un système externe. Celui-ci est basé sur l'analyse en temps réel de signaux électro-encéphalographiques (EEG) issus d'électrodes disposées à la surface de la tête d'un sujet humain. Du point de vue méthodologique, nous avons implémenté plusieurs techniques de prétraitement de ces signaux et comparé leur influence sur les performances du système. Ces techniques comprennent : 1) l'utilisation directe du signal issu des capteurs EEG, 2) l'exploitation de méthodes de séparation de sources qui permettent de résumer les signaux EEG par un faible nombre de composantes spatiales et 3) la reconstruction de l'activité des sources de courant corticales par résolution du problème inverse en EEG. De plus, plusieurs mesures permettant de quantifier l'activité cérébrale sont exploitées et comparées : la puissance spectrale, la cohérence et la synchronie de phase. Nos résultats montrent que la reconstruction préalable de l'activité corticale par problème inverse, ainsi que l'utilisation de mesures d'interaction à distance permettent d'améliorer les performances du dispositif.
|
Page generated in 0.0602 seconds