• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 41
  • 31
  • Tagged with
  • 111
  • 111
  • 27
  • 17
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Performances des codes correcteurs d’erreur LDPC appliqués au lien Fronthaul optique haut-débit pour l’architecture C-RAN du réseau 5G : conception et implantation sur FPGA / Modeling and simulation of high speed optical transmission and forward error correction design and implementation using FPGA

Li, Ao 18 December 2017 (has links)
De nos jours, l’architecture du réseau mobile est en pleine évolution pour assurer la montée en débit entre les Centraux (CO) (réseaux coeurs) et différents terminaux comme les mobiles, ordinateurs, tablettes afin de satisfaire les utilisateurs. Pour faire face à ces défis du futur, le réseau C-RAN (Cloud ou Centralized-RAN) est connu comme une solution de la 5G. Dans le contexte C-RAN, toutes les BBUs (Base Band Units) sont centralisées dans le CO, seules les RRH (Remote Radio Head) restent situées à la tête de la station de base (BS). Un nouveau segment entre les BBUs et RRHs apparait nommé « fronthaul ». Il est basé sur des transmissions D-ROF (digital radio-overfiber) et transporte le signal radio numérique à un débit binaire élevé en utilisant le protocole CPRI (Common Public Radio Interface). En prenant en compte le CAPEX et l’OPEX, le projet ANR LAMPION a proposé la technologie RSOA (Reflective Semiconductor Optical Amplifier) auto alimenté afin de rendre la solution plus flexible et s’affranchir d’émetteurs/récepteurs colorés dans le cadre de transmission WDM-PON (Wavelength Division Multiplexing Passive Optical Network). Néanmoins, il est nécessaire d’ajouter un FEC (forward error corrector) dans la transmission pour assurer la qualité de service. Donc l’objectif de cette thèse est de trouver le FEC le plus adéquat à appliquer dans le contexte C-RAN. Nos travaux se sont focalisés sur l’utilisation de codes LDPC, choisis après comparaisons des performances avec les autres types de codes. Nous avons précisé les paramètres (rendement du code, taille de la matrice, cycle, etc.) nécessaires pour les codes LDPC afin d'obtenir les meilleures performances. Les algorithmes LDPC à décisions dures ont été choisis après considération du compromis entre complexités de circuit et performance. Parmi ces algorithmes à décision dures, le GDBF (gradient descent bit-flipping) était la meilleure solution. La prise en compte d’un CAN 2-Bit dans le canal nous a amené à proposer une variante : le BWGDBF (Balanced weighted GDBF). Des optimisations ont également été faites en regard de la convergence de l'algorithme et de la latence. Enfin, nous avons réussi à implémenter notre propre algorithme sur le FPGA Spartan 6 xc6slx16. Plusieurs méthodes ont été proposées pour atteindre une latence de 5 μs souhaitée dans le contexte C-RAN. Cette thèse a été soutenue par le projet ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical networks). / Nowadays, the architecture of the mobile network is in full evolution to ensure the increase in terms of bit rate between the Central (CO) (core networks) and various terminals such as mobiles, computers, tablets in order to satisfy the users. To address these challenges of the future, the C-RAN (Cloud or Centralized-RAN) network is known as a 5G solution. In the C-RAN context, all BBUs (Base Band Units) are centralized in the CO, only the RRH (Remote Radio Head) remain at the head of the base station (BS). A new segment between BBUs and RRHs appears called "fronthaul". It is based on D-ROF (digital radio-overfiber) transmissions and carries the digital radio signal at a high bit rate using the Common Public Radio Interface (CPRI) protocol. Taking into account CAPEX and OPEX, the ANR LAMPION project has proposed the Self-seeded Reflective Semiconductor Optical Amplifier (RSOA) technology in order to make the solution more flexible and overcome the need for colored transmitters / receivers in the context of PON-WDM (Wavelength Division Multiplexing Passive Optical Network). Nevertheless, it is necessary to add a FEC (forward error corrector) in the transmission to ensure the quality of service. So the objective of this thesis is to find the most suitable FEC to apply in the C-RAN context. Our work has focused on the use of LDPC codes, chosen after performance comparisons with other types of codes. We have specified the parameters (code performance, matrix size, cycle, etc.) required for LDPC codes to obtain the best performance. Hard-decision LDPC algorithms were chosen after considering the tradeoff between circuit complexities and performance. Among these hard-decision algorithms, the GDBF (gradient descent bit-flipping) was the best solution. Taking into account a CAN 2-Bit in the channel led us to propose a variant: the BWGDBF (Balanced weighted GDBF). Optimizations have also been made with respect to the convergence of the algorithm and latency. Finally, we managed to implement our own algorithm on the Spartan FPGA 6 xc6slx16. Several methods have been proposed to achieve a latency of 5 μs desired in the C-RAN context. This thesis was supported by the project ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical Networks).
52

Κατασκευή μικροϋπολογιστικού συστήματος διαχωρισμού σημάτων με τον αλγόριθμο ICA

Χονδρός, Παναγιώτης 13 October 2013 (has links)
Η διπλωματική εργασία αυτή αφορά την κατασκευή ενός μικροϋπολογιστικού συστήματος διαχωρισμού σημάτων. Ο διαχωρισμός των σημάτων γίνεται με βάση τη θεωρία της τεχνικής της Ανάλυσης Ανεξάρτητων Συνιστωσών. Αφού παρουσιαστεί η θεωρία της τεχνικής, παρουσιάζεται ο μικροελεγκτής ADuC 7026 που επελέγη για την υλοποίηση. Στη συνέχεια γίνεται η παρουσίαση του λογισμικού προσομοίωσης του μικροελεγκτή και παρατίθενται βασικά παραδείγματα για τον προγραμματισμό του. Τέλος, αναπτύσσονται, χωρίς τη χρήση περιφερειακών, και προσομοιώνονται, με τη χρήση περιφερειακών τρεις αλγόριθμοι, δυο εκδόσεις του FastICA και μια έκδοση του InfoMax. Οι αλγόριθμοι αυτοί αξιολογούνται ως προς τις επιδόσεις τους και εξάγονται τα συμπεράσματα. / This thesis deals with the construction of a microcomputer system to separate signals. The separation of the signals is based on the theory of the technique of Independent Component Analysis. The theory of the technique and the microcontroller ADuC 7026 chosen for implementation are presented. Then, follows the presentation of the software on which the microcontroller is simulated and basic examples of its programming are mentioned. Finally, three algorithms, two versions of FastICA and a version of InfoMax, are developed without the use of peripheral systems and simulated using peripheral systems. These algorithms are evaluated for their performance and conclusions are drawn.
53

Κατασκευή μικροϋπολογιστικού συστήματος επεξεργασίας σημάτων ομιλίας για την εκτίμηση των μηχανισμών διαμόρφωσης του ήχου στη φωνητική κοιλότητα

Αγγελόπουλος, Ιωάννης 30 April 2014 (has links)
Στα πλαίσια της διπλωματικής εργασίας αναπτύχθηκε μία εφαρμογή, η οποία προσδιορίζει τις τρεις πρώτες συχνότητες συντονισμού της φωνητικής κοιλότητας κατά τη διαδικασία της φώνησης φωνηέντων. Οι τρεις αυτές συχνότητες παρέχουν επαρκή πληροφορία για τον προσδιορισμό του φωνήεντου. Η φώνηση εξομοιώνεται με σήμα εισόδου το οποίο παρουσιάζει κορυφές σε αναμενόμενες περιοχές συχνοτήτων. Ο προσδιορισμός των συχνοτήτων συντονισμού στηρίζεται στη μέθοδο βραχύχρονης ανάλυσης Fourier. Η εφαρμογή αναπτύχθηκε σε περιβάλλον μVision της Keil, σε γλώσσα προγραμματισμού C, για τον μικροελεγκτή STM32F103RB της ST Microelectronics. / In the context of this thesis an application was developed, that is capable of estimating the first three formant frequencies (resonances of the vocal tract) in the event of voicing of vowels. These three frequencies provide us enough information to determine the vowel that is voiced. The human voice is being emulated by an input signal which has peaks in the anticipated frequency regions. The formant frequencies are being estimated based on the short-time Fourier analysis method. The application was developed in Keil μVision programming suite, in C programming language, for the STM32F103RB microcontroller by ST Microelectronics.
54

Optimisation des codes en métrique rang pour les systèmes de communication sans fil / Optimization of rank metric codes for wireless communication systems

El Qachchach, Imad 17 June 2019 (has links)
Dans cette thèse, nous avons envisagé l’utilisation des codes en métrique rang pour des applications de communication sans fil en général, et les réseaux de capteurs en particulier. Après avoir introduit les codes en métrique rang, ces codes, qui ont été proposés dans le contexte de la cryptographie, sont adaptés par la suite pour la correction d’erreurs. Pour cela, une étude est faite sur le comportement de ces familles de codes dans un scénario de transmission sans fil en utilisant le codage réseau. Dans ce contexte, trois types d’erreurs sont considérés : le bruit de fond, les erreurs injectés dans le réseau par un utilisateur malveillant et les effacements qui peuvent être dus aux pannes des nœuds. L’analyse qui a été faite sur la famille des codes Low Rank Parity Check (LRPC) a montré que ces derniers sont plus adaptés aux réseaux de capteurs sans fil par rapport aux codes Gabidulin utilisés dans la littérature. Cette analyse a été généralisée dans le contexte multi-sources et a montré que les codes LRPC sont plus efficaces dans ce contexte. Ces contributions apportent un nouveau souffle à l’utilisation des codes en métrique rang et offrent des perspectives de poursuite intéressantes. / In this thesis, we have considered the rank metric codes for wireless sensor networks. Firstly, we have introduced the rank metric codes. Then, we adapted these codes, which were originally dedicated to cryptography applications, for error correction. To this end, we have studied the behavior of the family of rank metric codes in a wireless communication scenario using network coding. In this context, three types of errors are considered, background noise, errors injected into the network by a malicious user and erasures caused by node failures. Our analysis of the Low Rank Parity Check codes (LRPC) has shown that they are more suited to wireless sensor networks and they perform better than Gabidulin codes used in the literature. This analysis has been generalized in the multisource context and has shown that LRPC codes are more efficient in this context compared to Gabidulin codes. These contributions give a new incentive for the use of rank metric codes and offer interesting perspectives.
55

New Methods and Architectures for High Sensitivity Hybrid GNSS Receivers in Challenging Environments / Nouvelles méthodes et architectures pour les récepteurs GNSS de haute sensibilité hybrides pour les environnements contraints

Andrianarison, Maherizo 02 October 2018 (has links)
Les systèmes de navigation par satellites GNSS ne cessent d’évoluer et ils sont déjà utilisés dans de nombreuses applications. Avec la venue des nouveaux systèmes Galileo et BeiDou ainsi que la modernisation des systèmes GPS et GLONASS, de nouveaux satellites ainsi que de nombreuses nouvelles fréquences et de nouveaux signaux feront leur apparition dans les prochaines années et qui vont encore ouvrir la porte à d’innombrables nouvelles applications. L’évolution rapide de la téléphonie mobile nécessite une meilleure exploitation des systèmes de navigation et de positionnement dans les environnements urbains.Jusqu'à maintenant, les signaux de navigation GPS ne peuvent pas être bien captés dans les environnements urbains. Les niveaux des signaux y sont très faibles et il est presque impossible d’acquérir et de poursuivre les signaux de façon autonome à cause de l'importance des obstacles. De plus, le positionnement à l’intérieur et dans les environnements urbains sont aussi soumis aux problèmes de multi-trajets, de masquage, d’interférences et de brouillages. Dans ces conditions, il faut pouvoir traiter des signaux très dégradés ou très courts qui ne permettent pas au récepteur d’effectuer le processus de poursuite. Ainsi, cela nous conduit à la nécessité de repenser l'architecture du récepteur GNSS pour les applications modernes.Ce projet de thèse consiste à développer de nouvelles méthodes et architectures de récepteur GNSS de haute sensibilité et robuste aux dégradations des signaux tout en concevant de nouveaux algorithmes intégrés dans un récepteur GNSS hybride capable de fonctionner dans les environnements urbains profonds ou « intérieurs ».La méthodologie prévoit l’utilisation de la nouvelle approche de « détection collective (CD) » ou « acquisition collaborative ». L'approche collaborative qui traite tous les signaux multi-satellites ouvre une solution intéressante. De nombreuses techniques existent dans la littérature pour résoudre les problèmes de positionnement dans les environnements urbains, mais nous proposons la nouvelle approche de détection collective en raison de sa performance en tant que méthode de positionnement direct et méthode d'acquisition de haute sensibilité, par l'application de la détection vectorielle de tous les satellites visibles. En effet, la bonne combinaison des valeurs de corrélation de plusieurs satellites peut réduire le niveau de C/N0 requis des signaux satellites par les algorithmes standards de traitement (acquisition et poursuite) qui ne peuvent pas être acquis individuellement mais permettent de contribuer de manière constructive à une solution collective de positionnement pour chaque utilisateur. L’objectif est de détecter collaborativement les satellites. La combinaison de différents signaux GNSS peut considérablement augmenter la sensibilité d'acquisition du récepteur. Malgré les avantages de cette approche, elle présente également des inconvénients tels que la charge de calcul élevée en raison du grand nombre de points candidats dans le domaine position/biais d’horloge. Ainsi, le travail proposé dans cette thèse consiste à réduire la complexité du CD en optimisant la recherche de points candidats dans le domaine position/biais d’horloge. Enfin, l'objectif est d'appliquer l'approche de détection collective au positionnement GNSS coopératif pour la navigation moderne dans des environnements difficiles. Pour cela, des algorithmes d'exploitation optimale des ressources du récepteur en sélectionnant les meilleurs satellites ou la station de référence seront développés selon certains critères tels que le niveau du rapport signal sur bruit (C/N_0), l’angle d’élévation des satellites ainsi que la configuration géométrique des satellites visibles. L’objectif final est de proposer une nouvelle architecture de récepteur cognitif de haute sensibilité permettant de recevoir de façon optimale les nouveaux signaux GNSS. / GNSS satellite navigation systems are constantly evolving and have been already used in many applications. With the advent of the new systems Galileo and BeiDou as well as the modernization of GPS and GLONASS systems, new satellites and numerous new frequencies and signals will appear in the coming years and will open door to countless new applications that are currently impossible. The rapid evolution of mobile telephony and personal navigation devices (PND) requires better use of navigation systems in non-ideal environments, especially the need for positioning in deep urban area. On the one hand, users are waiting for a high positioning accuracy, because of the proximity to various points of interest. On the other hand, urban environment brings specific difficulties in receiving GNSS signals.GNSS navigation signals cannot be properly captured in urban and "indoor" environments. Signal levels are very low and it is almost impossible to acquire and track signals autonomously because of the strong attenuation of signals due to obstacles. In addition, indoor and urban positioning are also subject to multipath problems, masking, interference and jamming. Under these conditions, we must be able to process highly degraded or very short signals that do not allow the receiver to go through the tracking process. Thus, this leads us to the need to rethink the architecture of GNSS receiver for modern applications.This thesis project consists of developing new GNSS methods and architectures of high sensitivity and robustness to signal degradations and designing new algorithms integrated into a hybrid GNSS receiver capable of operating in deep urban environments.The methodology involves the use of the new concept of “Collective Detection (CD)”, also called “collaborative acquisition”. The collaborative approach that treats multi-satellite signals all together opens an interesting solution. Many techniques exist in the literature to solve the problems of positioning in urban environments, but we propose the new Collective Detection approach because of its performance as both a Direct Positioning method, providing a coarse position/clock-bias solution directly from acquisition, and High-Sensitivity acquisition method, by application of vector detection of all satellites in view. Indeed, the correct combination of the correlation values of several satellites can reduce the required Carrier-to-Noise Ratio (C/N_0) level of the satellite signals which cannot be acquired individually by standard signal processing (acquisition and tracking) but make it possible to use them constructively to a positioning solution. The combination of different GNSS signals can considerably increase the acquisition sensitivity of the receiver. Despite the advantages of this approach, it also has drawbacks such as the high computational burden because of the large number of candidate points in the position/clock-bias domain. Thus, the work proposed in this thesis consists of reducing the complexity of the CD by optimizing the search for candidate points in position/clock-bias domain. Finally, the goal is to apply the CD approach to Cooperative GNSS Positioning for modern navigation in harsh environments. For that, algorithms for optimally exploiting receiver resources by selecting the best satellites or the reference station will be developed according to certain criteria such as the C/N_0 level, the elevation angle, and the geometric configuration of the visible satellites. The ultimate goal is to propose a design of a new smart receiver “High Sensitivity Cognitive GNSS Receiver (HS-CGR)” to optimally receive and process GNSS signals.
56

Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée / Feature detection in a multispectral image by compressed sensing

Rousseau, Sylvain 02 July 2013 (has links)
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyende contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- ethyper-spectral. Les données sont alors directement compressées et l'objet est reconstruitlorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travaillerdirectement avec les données compressées pour réaliser un traitement classique sur un objetde cette nature. Après avoir introduit une première approche qui utilise des outils riemannienspour effectuer une détection de contours dans une image multispectrale, nous présentonsles principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre lesproblèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'und'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vontnous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuiteà la détection de signatures dans une image multispectrale et plus particulièrement à unalgorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme estgénéralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettrede réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduironsde nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant debonnes qualités de mesures. / Multi- and hyper-spectral sensors generate a huge stream of data. A way around thisproblem is to use a compressive acquisition of the multi- and hyper-spectral object. Theobject is then reconstructed when needed. The next step is to avoid this reconstruction and towork directly with compressed data to achieve a conventional treatment on an object of thisnature. After introducing a first approach using Riemannian tools to perform edge detectionin multispectral image, we present the principles of the compressive sensing and algorithmsused to solve its problems. Then we devote an entire chapter to the detailed study of one ofthem, Bregman type algorithms which by their flexibility and efficiency will allow us to solvethe minimization encountered later. We then focuses on the detection of signatures in amultispectral image relying on an original algorithm of Guo and Osher based on minimizingL1. This algorithm is generalized in connection with the acquisition compressed. A secondgeneralization will help us to achieve the pattern detection in a multispectral image. Andfinally, we introduce new matrices of measures that greatly simplifies calculations whilemaintaining a good quality of measurements.
57

Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG / Constrained inverse problems in EEG : application to absolute potentials and to the reference signal influence in EEG analysis

Salido-Ruiz, Ricardo Antonio 22 June 2012 (has links)
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe / This thesis concerns the issue of scalp EEG signals pre-processing and it is focused on signal's disturbances caused by non zero reference measurements. These signals perturbations induced by an electrical fluctuation of reference signal can lead to misinterpretation errors in certains analysis. This can be easily seen in inter-signal synchronization measurements such as in coherence studies. Thus, the ideal reference is a null reference. During this research work, we focused on the absolute (zero-reference) potentials estimation from a inverse problem reformulation. Here, two cases are treated, one deals with the case of a reference signal that is sufficiently distant from electrophysiological brain sources so, it is considered as independent signal ; otherwise, it is modeled as a linear combination of sources. Thanks to this modeling, it was shown explicitly that the best estimates of absolute potentials without any a priori information are the average reference potentials. On the other hand, the source-independent reference inverse problem is resolved in a source separation context. For this case, it has been shown that the best estimate of the absolute potentials without any a priori information is equivalent to Minimum Power Distortionless Response/Minimum Variance Distortionless Response (MVDR/MPDR) estimators. On the pretreatment of EEG data, we show on simulated and real signals that measured potentials transformed into average reference improve certain analytical methods used in EEG such as blind source separation (BSS) and localization of brain sources. Beyond the problems of reference, this method can be applied as a constrained source estimation algorithm in order to estimate in a more robust way, particular sources such as artifacts or deterministic exogenous electrical stimulation
58

Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie / Contribution to the cerebral forward model by depth electric stimulation and SEEG measurements : Application in epilepsy

Hofmanis, Janis 20 November 2013 (has links)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone épileptogénique employant la stimulation électrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique. De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase ; localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os ; discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient ; comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme ; validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées / The study of epilepsy requires the identification of cerebral structures which are involved in generation of seizures and connexion processes. Several methods of clinical investigation contributed to these studies : imaging (PET, MRI), electrophysiology (EEG, SEEG, MEG). The EEG provides a temporal resolution enough to analyze these processes. However, the localization of deep sources and their dynamical properties are difficult to understand. SEEG is a modality of intracerebral electrophysiological and anatomical high temporal resolution reserved for some difficult cases of pre-surgical diagnosis : drug-resistant epilepsy. The definition of the epileptogenic zone, as proposed by Talairach and Bancaud is an electro-clinical definition based on the results of intracerebral SEEG recordings. It takes into account not only the anatomical localization of partial epileptic discharge, but also the dynamic evolution of this discharge (active neural networks at the time of seizure) and clinical symptoms. Recently, a novel diagnostic technique allows an accurate localization of the epileptogenic zone using Depth Brain Stimulation (DBS). This exogenous source can activate the epileptic networks and generate an electrophysiological reaction. Therefore, coupling DBS with SEEG measurements is very advantageous : firstly, to contribute to the modeling and understanding of the (epileptic) brain and to help the diagnosis, secondly, to access the estimation of head model as an electrical conductor (conductive properties of tissues). In addition, supplementary information about head model improves the solution to the inverse problem (source localization methods) used in many applications in EEG and SEEG. The inverse solution requires repeated computation of the forward problem, i.e. the simulation of EEG and SEEG fields for a given dipolar source in the brain using a volume-conduction model of the head. As for DBS, the location of source is well defined. Therefore, in this thesis, we search for the best head model for the forward problem from real synchronous measurements of EEG and SEEG with DBS in several patients. So, the work of the thesis breaks up into different parts for which we need to accomplish the following tasks : Creation of database 3000 DBS measurements for 42 patients ; Extraction of DBS signal from SEEG and EEG measurements using multidimensional analysis : 5 methods have been developed or adapted and validate first in a simulation study and, secondly, in a real SEEG application ; Localization of SEEG electrodes in MR and CT images, including segmentation of brain matter ; SEEG forward modeling using infinite medium, spherical and realistic models based on MRI and CT of the patient ; Comparison between different head models and validation with real in vivo DBS measurements ; Validation of realistic 5-compartment FEM head models by incorporating the conductivities of cerebrospinal fluid (CSF), gray and white matters
59

Traitement d'information mono-source pour la validation objective d'un modèle d'anxiété : application au signal de pression sanguine volumique / Objective assessment of an anxiety model from data processing of a single source : application to signal blood volume pulse

Handouzi, Wahida 28 October 2014 (has links)
La détection et l’évaluation des émotions sont des domaines qui suscitent un grand intérêt par de nombreuses communautés tant au niveau des sciences humaines que des sciences exactes. Dans cette thèse nous nous intéressons à la reconnaissance de l’anxiété sociale qui est une peur irrationnelle ressentie par une personne lors de toute forme de relation sociale. L’anxiété peut être révélée par un ensemble de traits physiques et physiologiques tels que l’intonation de la voix, les mimiques faciales, l’augmentation du rythme cardiaque, le rougissement… etc. L’avantage de l’utilisation des mesures physiologiques est que les individus ne peuvent pas les manipuler, c’est une source continue de données et chaque émotion est caractérisée par une variation physiologique particulière. Dans ce travail, nous proposons un système de mesure d’anxiété basé sur l’utilisation d’un seul signal physiologique « signal de pression sanguine volumique (Blood volume pulse BVP)». Le choix d’un seul capteur limite la gêne des sujets due au nombre de capteurs. De ce signal nous avons sélectionné des paramètres pertinents représentant au mieux les relations étroites du signal BVP avec le processus émotionnel de l’anxiété. Cet ensemble de paramètres est classé en utilisant les séparateurs à vastes marges SVM. Les travaux engagés dans le domaine de la reconnaissance des émotions utilisent fréquemment, pour support d’information, des données peu fiables ne correspondant pas toujours aux situations envisagées. Ce manque de fiabilité peut être dû à plusieurs paramètres parmi eux la subjectivité de la méthode d’évaluation utilisée (questionnaire, auto-évaluation des sujets, …etc.). Nous avons développé une approche d’évaluation objective des données basée sur les dynamiques des paramètres sélectionnés. La base de données utilisée a été enregistrée dans notre laboratoire dans des conditions réelles acquises sur des sujets présentant un niveau d’anxiété face aux situations sociales et qui ne sont pas sous traitement psychologique. L’inducteur utilisé est l’exposition à des environnements virtuels représentant quelques situations sociales redoutées. L’étape d’évaluation, nous a permis d’obtenir un modèle de données fiable pour la reconnaissance de deux niveaux d’anxiété. Ce modèle a été testé dans une clinique spécialisée dans les thérapies cognitives comportementales (TCC) sur des sujets phobiques. Les résultats obtenus mettent en lumière la fiabilité du modèle construit notamment pour la reconnaissance des niveaux d’anxiété sur des sujets sains ou sur des sujets phobiques ce qui constitue une solution au manque de données dont souffrent les différents domaines de reconnaissances / Detection and evaluation of emotions are areas of great interest in many communities both in terms of human and exact sciences. In this thesis we focus on social anxiety recognition, which is an irrational fear felt by a person during any form of social relationship. Anxiety can be revealed by a set of physical and physiological traits such as tone of voice, facial expressions, increased heart rate, flushing ... etc. The interest to the physiological measures is motivated by them robustness to avoid the artifacts created by human social masking, they are a continuous source of data and each emotion is characterized by a particular physiological variation. In this work, we propose a measurement system based on the use of a single physiological signal "Blood volume pulse BVP". The use of a single sensor limits the subjects’ discomfort. From the BVP signal we selected three relevant features which best represents the close relationship between this signal and anxiety status. This features set is classified using support vector machine SVM. The work undertaken in the field of emotion recognition frequently use, for information support, unreliable data do not always correspond to the situations envisaged. This lack of reliability may be due to several parameters among them the subjectivity of the evaluation method used (self-evaluation questionnaire, subjects…etc.). We have developed an approach to objective assessment of data based on the dynamics of selected features. The used database was recorded in our laboratory under real conditions acquired in subjects with a level of anxiety during social situations and who are not under psychological treatment. The used stimulus is the exposition to virtual environments representing some feared social situations. After the evaluation stage, we obtained a reliable model for the recognition of two levels of anxiety. The latter was tested in a clinic specializing in cognitive behavioral therapy (CBT) on phobic subjects. The results highlight the reliability of the built model specifically for the recognition of anxiety levels in healthy subjects or of phobic subjects, what constitutes a solution to the lack of data affecting different areas of recognition
60

Adaptation temps réel de l'acquisition en imagerie par résonance magnétique en fonction de signaux physiologiques / Physiologic-based realtime adaptive acquisition Magnetic Resonance Imaging

Meyer, Christophe 12 December 2014 (has links)
L'Imagerie par Résonance Magnétique de la cinématique de la contraction cardiaque est une technique d'imagerie relativement lente. En comparaison, les mouvements du patient, en particulier cardiaque et respiratoire, sont rapides et peuvent provoquer des artéfacts sur les images. La vitesse de contraction cardiaque apporte justement des informations cliniquement utiles. Premièrement, nous avons montré qu'il était possible d'effectuer cette mesure en IRM Cine à contraste de phase, et d'obtenir des valeurs similaires à celles obtenues de façon clinique en échographie cardiaque. La condition est d'obtenir une haute résolution temporelle, or, pour ce faire, la durée d'acquisition doit être plus longue qu'une apnée. La gestion du mouvement respiratoire en respiration libre a été réalisée de deux façons : avec moyennage puis avec correction de mouvement à l'aide de Cine-GRICS. Deuxièmement, pour atteindre une bonne reconstruction de la résolution temporelle en Cine, nous avons proposé une gestion temps réel de la variation du rythme cardiaque pendant l'acquisition IRM Cine, avec la construction d'un modèle cardiaque adapté au patient à l'aide de l'IRM à contraste de phase temps réel. Enfin, la gestion du mouvement cardio-respiratoire en IRM Cine est appliquée chez le petit animal à l'aide d'écho navigateurs IntraGate / Cine MRI of cardiac contraction is a relatively slow imaging technique. Comparatively, patient motion, especially cardiac beating and breathing, are fast and can lead to imaging artefacts. Cardiac contraction velocity provides clinically useful information. Firstly, we have shown that making this measurement was possible using phase contrast Cine MRI, and that getting similar values as those obtained in clinical routine using cardiac echography. The condition is to reach high temporal resolution, but to do so, the acquisition duration must be longer than a breathhold. Free-breathing motion management was done by two approaches: by averaging then by motion compensation using Cine-GRICS. Secondly, in order to achieve high temporal resolution Cine reconstruction, we proposed a way to deal with changing heart rate during Cine MRI acquisition, by the construction of a patient adapted cardiac model using realtime phase contrast MRI. Finally, cardio-respiratory motion management was adapted to small animal Cine MRI thanks to IntraGate echo navigators

Page generated in 0.4081 seconds