• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 79
  • 20
  • 1
  • Tagged with
  • 300
  • 232
  • 231
  • 201
  • 134
  • 105
  • 103
  • 103
  • 103
  • 90
  • 82
  • 80
  • 78
  • 77
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Les bétons bas pH - Formulation, caractérisation et étude à long terme

Codina, Maud 20 September 2007 (has links) (PDF)
L'utilisation de bétons à base de ciment Portland en association avec de l'argile dans un site de stockage en profondeur de déchets radioactifs se heurterait à deux difficultés. La forte alcalinité du matériau cimentaire dégraderait les propriétés imperméables de l'argile. De plus, l'importante augmentation de température induite par l'hydratation du ciment dans un ouvrage massif pourrait provoquer des microfissures nuisibles à la durabilité du matériau. Des recherches ont donc été engagées pour mettre au point un béton permettant de pallier ces deux principaux écueils. L'objectif est d'obtenir un béton satisfaisant aux contraintes suivantes : pH de la solution interstitielle du matériau hydraté inférieur à 11 afin de limiter l'attaque alcaline de l'argile (d'où l'appellation de béton « bas pH »), échauffement inférieur à 20 °C au cours de l'hydratation, retrait modéré, performances mécaniques élevées (résistance à la compression supérieure à 70 MPa).<br />Plusieurs liants incorporant du ciment Portland, de la fumée de silice, des cendres volantes et / ou du laitier sont comparés. Tous ces systèmes sont caractérisés par des teneurs en ajouts très importantes, la fraction de clinker n'étant comprise qu'entre 20 et 60 %.<br />Après un an d'hydratation, la solution interstitielle des pâtes de liants bas pH présente des pH compris entre 11,7 et 12,2 selon la formulation, réduit de plus d'une unité par rapport aux témoins à base de CEM I ou CEM V. Cette chute de pH (comparé à celui d'un CEM I (13,5)) est concomitante i) d'une forte réduction de la concentration en alcalins dans la solution porale, ii) de la disparition ou de la diminution de la teneur en portlandite dans les matériaux, iii) et de l'enrichissement en silice des C-S-H.<br />Ces liants ont été utilisés avec succès pour mettre au point des bétons bas pH haute performance (pH de la solution interstitielle compris entre 10,7 et 11,6 selon les liants) avec les outils classiques du génie civil.<br />Enfin, des études de lixiviation en eau désionisée montrent que les pâtes de liants bas pH se décalcifient environ 4 fois moins vite que celle à base de ciment Portland. Les évolutions minéralogiques et les flux lixiviés par l'eau pure (pH 7) à 25 °C ont pu être modélisés à l'aide du code HYTEC en associant deux modules de réactivité chimique et de transport par diffusion.
112

Effets de la stimulation cérébrale profonde dans l'épilepsie focale motrice

Prabhu, Shivadatta 28 January 2013 (has links) (PDF)
Les crises d'épilepsie proviennent d'une synchronisation pathologique de réseaux neuronaux du cortex. Les crises motrices, générées à partir du cortex moteur primaire, sont souvent pharmaco-résistantes. La résection neurochirurgicale du foyer épileptique est rarement l'option thérapeutique de choix au regard des risques de deficits moteurs potentiellement induits par la résection. Les ganglions de la base ont un rôle important dans la propagation des crises. Des enregistrements par micro-électrode réalisés dans une précédente étude ont montré que les activités des structures d'entrée des ganglions de la base telles que le Putamen, le noyau caudé et le noyau sous-thalamique (NST) sont fortement modifiées pendant des crises motrices. Le taux de décharge moyen des neurones du NST et du Putamen augmente et le pourcentage de neurones oscillants synchronisés avec l'EEG durant la période ictale est plus élevé durant les crises que pendant la période inter-ictale. Des études pilotes chez l'humain ont montré un effet bénéfique potentiel de la stimulation cérébrale profonde (SCP) chronique du NST pour traiter les crises motrices pharmaco-résistantes. Le but de notre étude est d'évaluer les effets thérapeutiques de la SCP des structures d'entrée des ganglions de la base. Nous avons dans un premier temps développé un modèle primate de crise d'épilepsie motrice focale stable et reproductible par injection intra-corticale de pénicilline. Nous avons ensuite caractérisé la pharmaco-résistance du modèle. Nous avons implanté stéréotactiquement des électrodes de SCP dans le NST et le Putamen. Le stimulateur a été placé sous la peau dans le dos de l'animal. Un protocole de stimulation à 130 Hz à un voltage inférieur à l'apparition d'effets secondaires a été réalisé dans le NST. Le stimulateur était mis en marche au moment de l'injection de la pénicilline. Un protocole de stimulation à 0 volt a été réalisé comme condition contrôle. Chaque primate étant son propre contrôle. L'apparition des crises, leur nombre et leur durée ont été comparés par période de 1 heure entre la condition stimulée et non stimulée. Chaque session expérimentale a été menée sur une durée de plus de six heures. Nous avons évalué l'effet préventif de la SCP à haute fréquence (130 Hz) du NST sur les crises motrices. Nous avons également étudié l'effet préventif de la SCP à basse fréquence (5-20 Hz) du Putamen sur ce même modèle. Enfin, sur un autre primate, nous avons étudié l'effet combiné de la SCP du NST à haute fréquence et du Putamen à basse fréquence sur les crises motrices. Résultats : Les effets de la SCP chronique du NST à haute fréquence ont été analysés à partir de 1572 crises apparues au cours de 30 sessions expérimentales chez 3 primates. Les effets de la SCP préventive du NST ont été évalués sur 454 crises motrices durant 10 sessions expérimentales chez un primate. L'effet de la SCP du Putamen à basse fréquence a été analysé sur 289 crises durant 14 sessions chez 2 primates. Enfin l'effet combiné de la SCP du NST et du Putamen a été évalué sur 477 crises durant 10 sessions. Les meilleurs résultats ont été obtenus par SCP chronique du NST. L'apparition de la première crise était significativement retardée lorsque le primate était stimulé. Le temps total passé en situation de crise motrice était diminué en moyenne d'environ 69 % (p ≤0.05) par rapport à la condition non-stimulé au regard de la diminution significative du nombre de crises particulièrement durant les 3 heures après le début de la stimulation. La durée de chaque crise était modérément réduite. Les modes de stimulation mono-polaire ou bi-polaire avaient une efficacité similaire. La SCP préventive du NST n'a pas eu d'effet supérieur à la stimulation chronique du NST. La SCP chronique du Putamen à basse fréquence avait un effet positif mais principalement durant les deux premières heures de stimulation. L'effet combiné de la SCP du NST et du Putamen était inférieur à la SCP chronique du NST ou du Putamen.
113

Analyse sémantique des images en temps-réel avec des réseaux convolutifs

Farabet, Clément 19 December 2013 (has links) (PDF)
Une des questions centrales de la vision informatique est celle de la conception et apprentissage de représentations du monde visuel. Quel type de représentation peut permettre à un système de vision artificielle de détecter et classifier les objects en catégories, indépendamment de leur pose, échelle, illumination, et obstruction. Plus intéressant encore, comment est-ce qu'un tel système peut apprendre cette représentation de façon automatisée, de la même manière que les animaux et humains parviennent à émerger une représentation du monde qui les entoure. Une question liée est celle de la faisabilité calculatoire, et plus précisément celle de l'efficacité calculatoire. Étant donné un modèle visuel, avec quelle efficacité peut-il être entrainé, et appliqué à de nouvelles données sensorielles. Cette efficacité a plusieurs dimensions: l'énergie consommée, la vitesse de calcul, et l'utilisation mémoire. Dans cette thèse je présente trois contributions à la vision informatique: (1) une nouvelle architecture de réseau convolutif profond multi-échelle, permettant de capturer des relations longue distance entre variables d'entrée dans des données type image, (2) un algorithme à base d'arbres permettant d'explorer de multiples candidats de segmentation, pour produire une segmentation sémantique avec confiance maximale, (3) une architecture de processeur dataflow optimisée pour le calcul de réseaux convolutifs profonds. Ces trois contributions ont été produites dans le but d'améliorer l'état de l'art dans le domain de l'analyse sémantique des images, avec une emphase sur l'efficacité calculatoire. L'analyse de scènes (scene parsing) consiste à étiqueter chaque pixel d'une image avec la catégorie de l'objet auquel il appartient. Dans la première partie de cette thèse, je propose une méthode qui utilise un réseau convolutif profond, entrainé à même les pixels, pour extraire des vecteurs de caractéristiques (features) qui encodent des régions de plusieurs résolutions, centrées sur chaque pixel. Cette méthode permet d'éviter l'usage de caractéristiques créées manuellement. Ces caractéristiques étant multi-échelle, elles permettent au modèle de capturer des relations locales et globales à la scène. En parallèle, un arbre de composants de segmentation est calculé à partir de graphe de dis-similarité des pixels. Les vecteurs de caractéristiques associés à chaque noeud de l'arbre sont agrégés, et utilisés pour entrainé un estimateur de la distribution des catégories d'objets présents dans ce segment. Un sous-ensemble des noeuds de l'arbre, couvrant l'image, est ensuite sélectionné de façon à maximiser la pureté moyenne des distributions de classes. En maximisant cette pureté, la probabilité que chaque composant ne contienne qu'un objet est maximisée. Le système global produit une précision record sur plusieurs benchmarks publics. Le calcul de réseaux convolutifs profonds ne dépend que de quelques opérateurs de base, qui sont particulièrement adaptés à une implémentation hardware dédiée. Dans la deuxième partie de cette thèse, je présente une architecture de processeur dataflow dédiée et optimisée pour le calcul de systèmes de vision à base de réseaux convolutifs--neuFlow--et un compilateur--luaFlow--dont le rôle est de compiler une description haut-niveau (type graphe) de réseaux convolutifs pour produire un flot de données et calculs optimal pour l'architecture. Ce système a été développé pour faire de la détection, catégorisation et localisation d'objets en temps réel, dans des scènes complexes, en ne consommant que 10 Watts, avec une implémentation FPGA standard.
114

Etanchéité de l'interface argilite-bentonite re-saturée et soumise à une pression de gaz, dans le contexte du stockage profond de déchets radioactifs

Liu, Jiangfeng 27 June 2013 (has links) (PDF)
En France, le système de stockage profond de déchets radioactifs envisagé est constitué d'une barrière naturelle (roche hôte argileuse, argilite) et de barrières artificielles, comprenant des bouchons d'argile gonflante (bentonite)-sable pour son scellement. L'objectif de cette thèse est d'étudier l'efficacité du gonflement et du scellement des bouchons placés dans l'argilite, sous l'effet, à la fois, d'une pression d'eau et d'une pression de gaz (tel que formé dans le tunnel). Pour évaluer la capacité de scellement du bouchon bentonite/sable partiellement saturé en eau, on a évalué sa perméabilité au gaz Kgaz sous pression de confinement variable (jusqu'à 12MPa). L'étanchéité au gaz (Kgaz < 10-20m2) est obtenue sous confinement Pc≥9MPa si la saturation est d'au moins 86-91%. Par ailleurs, nous avons évalué le gonflement et l'étanchéité du bouchon de bentonite-sable imbibé d'eau dans un tube d'argilite ou de Plexiglas-aluminium lisse ou rugueux. La présence de gaz diminue la pression effective de gonflement (et la pression de percée de gaz) à partir d'une pression Pgaz= 4 MPa. Après saturation complète en eau, l'écoulement continu de gaz au travers du bouchon seul se fait à Pgaz=7-8MPa s'il dispose d'une interface lisse avec un autre matériau (tube métallique), alors que celui au travers de l'ensemble bouchon/argilite a lieu à Pgaz=7-7,5MPa. Le passage à travers le bouchon gonflé au contact d'une interface rugueuse se fait à une pression de gaz bien supérieure à la pression de gonflement du bouchon. Les essais de percée de gaz montrent que l'interface et l'argilite sont deux voies possibles de migration de gaz lorsque l'ensemble bouchon/roche hôte est complètement saturé
115

Modèle profond pour le contrôle vocal adaptatif d'un habitat intelligent / Deep model for adaptive vocal control of a smart home

Brenon, Alexis 14 December 2017 (has links)
Les habitats intelligents, résultants de la convergence de la domotique, de l'informatique ubiquitaire et de l'intelligence artificielle, assistent leurs habitants dans les situations du quotidien pour améliorer leur qualité de vie.En permettant aux personnes dépendantes et âgées de rester à domicile plus longtemps, ces habitats permettent de fournir une première réponse à des problèmes de société comme la dépendance due au vieillissement de la population.En nous plaçant dans un habitat contrôlé par la voix, l'habitat doit répondre aux requêtes d’un utilisateur concernant un ensemble d’actions pouvant être automatisées (contrôle des lumières, des volets, des dispositifs multimédia, etc.).Pour atteindre cet objectif, le système de contrôle de l'habitat a besoin de prendre en compte le contexte dans lequel un ordre est donné mais également de connaitre les habitudes et préférences de l’utilisateur.Pour cela, le système doit pouvoir agréger les informations issues du réseau de capteurs domotiques hétérogènes et prendre en compte le comportement (variable) de l'utilisateur.La mise au point de systèmes de contrôle intelligent d'un habitat est particulièrement ardue du fait de la grande variabilité concernant aussi bien la topologie des habitats que les habitudes des utilisateurs.Par ailleurs, l'ensemble des informations contextuelles doivent être représentées dans un référentiel commun dans un objectif de raisonnement et de prise de décision.Pour répondre à ces problématiques, nous proposons de développer un système qui d'une part modifie continuellement son modèle de manière à s'adapter à l'utilisateur, et qui d'autre part utilise directement les données issues des capteurs à travers une représentation graphique. L'intérêt et l'originalité de cette méthode sont de ne pas nécessiter d'inférence pour déterminer le contexte.Notre système repose ainsi sur une méthode d'apprentissage par renforcement profond qui couple un réseau de neurones profond du type convolutif permettant l'extraction de données contextuelles, avec un mécanisme d'apprentissage par renforcement pour la prise de décision.Ce mémoire présente alors deux systèmes, un premier reposant uniquement sur l'apprentissage par renforcement et montrant les limites de cette approche sur des environnements réels pouvant comporter plusieurs milliers d'états possibles.L'introduction de l'apprentissage profond a permis la mise au point du second système, ARCADES, dont les bonnes performances montrent la pertinence d'une telle approche, tout en ouvrant de nombreuses voies d'améliorations. / Smart-homes, resulting of the merger of home-automation, ubiquitous computing and artificial intelligence, support inhabitants in their activity of daily living to improve their quality of life.Allowing dependent and aged people to live at home longer, these homes provide a first answer to society problems as the dependency tied to the aging population.In voice controlled home, the home has to answer to user's requests covering a range of automated actions (lights, blinds, multimedia control, etc.).To achieve this, the control system of the home need to be aware of the context in which a request has been done, but also to know user habits and preferences.Thus, the system must be able to aggregate information from a heterogeneous home-automation sensors network and take the (variable) user behavior into account.The development of smart home control systems is hard due to the huge variability regarding the home topology and the user habits.Furthermore, the whole set of contextual information need to be represented in a common space in order to be able to reason about them and make decisions.To address these problems, we propose to develop a system which updates continuously its model to adapt itself to the user and which uses raw data from the sensors through a graphical representation.This new method is particularly interesting because it does not require any prior inference step to extract the context.Thus, our system uses deep reinforcement learning; a convolutional neural network allowing to extract contextual information and reinforcement learning used for decision-making.Then, this memoir presents two systems, a first one only based on reinforcement learning showing limits of this approach against real environment with thousands of possible states.Introduction of deep learning allowed to develop the second one, ARCADES, which gives good performances proving that this approach is relevant and opening many ways to improve it.
116

Factored neural machine translation / Traduction automatique neuronale factorisée

García Martínez, Mercedes 27 March 2018 (has links)
La diversité des langues complexifie la tâche de communication entre les humains à travers les différentes cultures. La traduction automatique est un moyen rapide et peu coûteux pour simplifier la communication interculturelle. Récemment, laTraduction Automatique Neuronale (NMT) a atteint des résultats impressionnants. Cette thèse s'intéresse à la Traduction Automatique Neuronale Factorisé (FNMT) qui repose sur l'idée d'utiliser la morphologie et la décomposition grammaticale des mots (lemmes et facteurs linguistiques) dans la langue cible. Cette architecture aborde deux défis bien connus auxquelles les systèmes NMT font face. Premièrement, la limitation de la taille du vocabulaire cible, conséquence de la fonction softmax, qui nécessite un calcul coûteux à la couche de sortie du réseau neuronale, conduisant à un taux élevé de mots inconnus. Deuxièmement, le manque de données adéquates lorsque nous sommes confrontés à un domaine spécifique ou une langue morphologiquement riche. Avec l'architecture FNMT, toutes les inflexions des mots sont prises en compte et un vocabulaire plus grand est modélisé tout en gardant un coût de calcul similaire. De plus, de nouveaux mots non rencontrés dans les données d'entraînement peuvent être générés. Dans ce travail, j'ai développé différentes architectures FNMT en utilisant diverses dépendances entre les lemmes et les facteurs. En outre, j'ai amélioré la représentation de la langue source avec des facteurs. Le modèle FNMT est évalué sur différentes langues dont les plus riches morphologiquement. Les modèles à l'état de l'art, dont certains utilisant le Byte Pair Encoding (BPE) sont comparés avec le modèle FNMT en utilisant des données d'entraînement de petite et de grande taille. Nous avons constaté que les modèles utilisant les facteurs sont plus robustes aux conditions d'entraînement avec des faibles ressources. Le FNMT a été combiné avec des unités BPE permettant une amélioration par rapport au modèle FNMT entrainer avec des données volumineuses. Nous avons expérimenté avec dfférents domaines et nous avons montré des améliorations en utilisant les modèles FNMT. De plus, la justesse de la morphologie est mesurée à l'aide d'un ensemble de tests spéciaux montrant l'avantage de modéliser explicitement la morphologie de la cible. Notre travail montre les bienfaits de l'applicationde facteurs linguistiques dans le NMT. / Communication between humans across the lands is difficult due to the diversity of languages. Machine translation is a quick and cheap way to make translation accessible to everyone. Recently, Neural Machine Translation (NMT) has achievedimpressive results. This thesis is focus on the Factored Neural Machine Translation (FNMT) approach which is founded on the idea of using the morphological and grammatical decomposition of the words (lemmas and linguistic factors) in the target language. This architecture addresses two well-known challenges occurring in NMT. Firstly, the limitation on the target vocabulary size which is a consequence of the computationally expensive softmax function at the output layer of the network, leading to a high rate of unknown words. Secondly, data sparsity which is arising when we face a specific domain or a morphologically rich language. With FNMT, all the inflections of the words are supported and larger vocabulary is modelled with similar computational cost. Moreover, new words not included in the training dataset can be generated. In this work, I developed different FNMT architectures using various dependencies between lemmas and factors. In addition, I enhanced the source language side also with factors. The FNMT model is evaluated on various languages including morphologically rich ones. State of the art models, some using Byte Pair Encoding (BPE) are compared to the FNMT model using small and big training datasets. We found out that factored models are more robust in low resource conditions. FNMT has been combined with BPE units performing better than pure FNMT model when trained with big data. We experimented with different domains obtaining improvements with the FNMT models. Furthermore, the morphology of the translations is measured using a special test suite showing the importance of explicitly modeling the target morphology. Our work shows the benefits of applying linguistic factors in NMT.
117

Apprentissage actif sous contrainte de budget en robotique et en neurosciences computationnelles. Localisation robotique et modélisation comportementale en environnement non stationnaire / Active learning under budget constraint in robotics and computational neuroscience. Robotic localization and behavioral modeling in non-stationary environment

Aklil, Nassim 27 September 2017 (has links)
La prise de décision est un domaine très étudié en sciences, que ce soit en neurosciences pour comprendre les processus sous tendant la prise de décision chez les animaux, qu’en robotique pour modéliser des processus de prise de décision efficaces et rapides dans des tâches en environnement réel. En neurosciences, ce problème est résolu online avec des modèles de prises de décision séquentiels basés sur l’apprentissage par renforcement. En robotique, l’objectif premier est l’efficacité, dans le but d’être déployés en environnement réel. Cependant en robotique ce que l’on peut appeler le budget et qui concerne les limitations inhérentes au matériel, comme les temps de calculs, les actions limitées disponibles au robot ou la durée de vie de la batterie du robot, ne sont souvent pas prises en compte à l’heure actuelle. Nous nous proposons dans ce travail de thèse d’introduire la notion de budget comme contrainte explicite dans les processus d’apprentissage robotique appliqués à une tâche de localisation en mettant en place un modèle basé sur des travaux développés en apprentissage statistique qui traitent les données sous contrainte de budget, en limitant l’apport en données ou en posant une contrainte de temps plus explicite. Dans le but d’envisager un fonctionnement online de ce type d’algorithmes d’apprentissage budgétisé, nous discutons aussi certaines inspirations possibles qui pourraient être prises du côté des neurosciences computationnelles. Dans ce cadre, l’alternance entre recherche d’information pour la localisation et la décision de se déplacer pour un robot peuvent être indirectement liés à la notion de compromis exploration-exploitation. Nous présentons notre contribution à la modélisation de ce compromis chez l’animal dans une tâche non stationnaire impliquant différents niveaux d’incertitude, et faisons le lien avec les méthodes de bandits manchot. / Decision-making is a highly researched field in science, be it in neuroscience to understand the processes underlying animal decision-making, or in robotics to model efficient and rapid decision-making processes in real environments. In neuroscience, this problem is resolved online with sequential decision-making models based on reinforcement learning. In robotics, the primary objective is efficiency, in order to be deployed in real environments. However, in robotics what can be called the budget and which concerns the limitations inherent to the hardware, such as computation times, limited actions available to the robot or the lifetime of the robot battery, are often not taken into account at the present time. We propose in this thesis to introduce the notion of budget as an explicit constraint in the robotic learning processes applied to a localization task by implementing a model based on work developed in statistical learning that processes data under explicit constraints, limiting the input of data or imposing a more explicit time constraint. In order to discuss an online functioning of this type of budgeted learning algorithms, we also discuss some possible inspirations that could be taken on the side of computational neuroscience. In this context, the alternation between information retrieval for location and the decision to move for a robot may be indirectly linked to the notion of exploration-exploitation compromise. We present our contribution to the modeling of this compromise in animals in a non-stationary task involving different levels of uncertainty, and we make the link with the methods of multi-armed bandits.
118

Automatic classification of natural signals for environmental monitoring / Classification automatique de signaux naturels pour la surveillance environnementale

Malfante, Marielle 03 October 2018 (has links)
Ce manuscrit de thèse résume trois ans de travaux sur l’utilisation des méthodes d’apprentissage statistique pour l’analyse automatique de signaux naturels. L’objectif principal est de présenter des outils efficaces et opérationnels pour l’analyse de signaux environnementaux, en vue de mieux connaitre et comprendre l’environnement considéré. On se concentre en particulier sur les tâches de détection et de classification automatique d’événements naturels.Dans cette thèse, deux outils basés sur l’apprentissage supervisé (Support Vector Machine et Random Forest) sont présentés pour (i) la classification automatique d’événements, et (ii) pour la détection et classification automatique d’événements. La robustesse des approches proposées résulte de l’espace des descripteurs dans lequel sont représentés les signaux. Les enregistrements y sont en effet décrits dans plusieurs espaces: temporel, fréquentiel et quéfrentiel. Une comparaison avec des descripteurs issus de réseaux de neurones convolutionnels (Deep Learning) est également proposée, et favorise les descripteurs issus de la physique au détriment des approches basées sur l’apprentissage profond.Les outils proposés au cours de cette thèse sont testés et validés sur des enregistrements in situ de deux environnements différents : (i) milieux marins et (ii) zones volcaniques. La première application s’intéresse aux signaux acoustiques pour la surveillance des zones sous-marines côtières : les enregistrements continus sont automatiquement analysés pour détecter et classifier les différents sons de poissons. Une périodicité quotidienne est mise en évidence. La seconde application vise la surveillance volcanique : l’architecture proposée classifie automatiquement les événements sismiques en plusieurs catégories, associées à diverses activités du volcan. L’étude est menée sur 6 ans de données volcano-sismiques enregistrées sur le volcan Ubinas (Pérou). L’analyse automatique a en particulier permis d’identifier des erreurs de classification faites dans l’analyse manuelle originale. L’architecture pour la classification automatique d’événements volcano-sismiques a également été déployée et testée en observatoire en Indonésie pour la surveillance du volcan Mérapi. Les outils développés au cours de cette thèse sont rassemblés dans le module Architecture d’Analyse Automatique (AAA), disponible en libre accès. / This manuscript summarizes a three years work addressing the use of machine learning for the automatic analysis of natural signals. The main goal of this PhD is to produce efficient and operative frameworks for the analysis of environmental signals, in order to gather knowledge and better understand the considered environment. Particularly, we focus on the automatic tasks of detection and classification of natural events.This thesis proposes two tools based on supervised machine learning (Support Vector Machine, Random Forest) for (i) the automatic classification of events and (ii) the automatic detection and classification of events. The success of the proposed approaches lies in the feature space used to represent the signals. This relies on a detailed description of the raw acquisitions in various domains: temporal, spectral and cepstral. A comparison with features extracted using convolutional neural networks (deep learning) is also made, and favours the physical features to the use of deep learning methods to represent transient signals.The proposed tools are tested and validated on real world acquisitions from different environments: (i) underwater and (ii) volcanic areas. The first application considered in this thesis is devoted to the monitoring of coastal underwater areas using acoustic signals: continuous recordings are analysed to automatically detect and classify fish sounds. A day to day pattern in the fish behaviour is revealed. The second application targets volcanoes monitoring: the proposed system classifies seismic events into categories, which can be associated to different phases of the internal activity of volcanoes. The study is conducted on six years of volcano-seismic data recorded on Ubinas volcano (Peru). In particular, the outcomes of the proposed automatic classification system helped in the discovery of misclassifications in the manual annotation of the recordings. In addition, the proposed automatic classification framework of volcano-seismic signals has been deployed and tested in Indonesia for the monitoring of Mount Merapi. The software implementation of the framework developed in this thesis has been collected in the Automatic Analysis Architecture (AAA) package and is freely available.
119

Physiopathologie du somnambulisme : étude de l’activité cérébrale en sommeil lent profond via la Tomographie d’Émission Monophotonique (TEMP) et l'analyse de connectivité fonctionnelle cérébrale

Desjardins, Marie-Ève 08 1900 (has links)
No description available.
120

Effets de la stimulation cérébrale profonde dans l'épilepsie focale motrice / Effects of Deep Brain Stimulation on control of focal motor epilepsy

Prabhu, Shivadatta 28 January 2013 (has links)
Les crises d'épilepsie proviennent d'une synchronisation pathologique de réseaux neuronaux du cortex. Les crises motrices, générées à partir du cortex moteur primaire, sont souvent pharmaco-résistantes. La résection neurochirurgicale du foyer épileptique est rarement l'option thérapeutique de choix au regard des risques de deficits moteurs potentiellement induits par la résection. Les ganglions de la base ont un rôle important dans la propagation des crises. Des enregistrements par micro-électrode réalisés dans une précédente étude ont montré que les activités des structures d'entrée des ganglions de la base telles que le Putamen, le noyau caudé et le noyau sous-thalamique (NST) sont fortement modifiées pendant des crises motrices. Le taux de décharge moyen des neurones du NST et du Putamen augmente et le pourcentage de neurones oscillants synchronisés avec l'EEG durant la période ictale est plus élevé durant les crises que pendant la période inter-ictale. Des études pilotes chez l'humain ont montré un effet bénéfique potentiel de la stimulation cérébrale profonde (SCP) chronique du NST pour traiter les crises motrices pharmaco-résistantes. Le but de notre étude est d'évaluer les effets thérapeutiques de la SCP des structures d'entrée des ganglions de la base. Nous avons dans un premier temps développé un modèle primate de crise d'épilepsie motrice focale stable et reproductible par injection intra-corticale de pénicilline. Nous avons ensuite caractérisé la pharmaco-résistance du modèle. Nous avons implanté stéréotactiquement des électrodes de SCP dans le NST et le Putamen. Le stimulateur a été placé sous la peau dans le dos de l'animal. Un protocole de stimulation à 130 Hz à un voltage inférieur à l'apparition d'effets secondaires a été réalisé dans le NST. Le stimulateur était mis en marche au moment de l'injection de la pénicilline. Un protocole de stimulation à 0 volt a été réalisé comme condition contrôle. Chaque primate étant son propre contrôle. L'apparition des crises, leur nombre et leur durée ont été comparés par période de 1 heure entre la condition stimulée et non stimulée. Chaque session expérimentale a été menée sur une durée de plus de six heures. Nous avons évalué l'effet préventif de la SCP à haute fréquence (130 Hz) du NST sur les crises motrices. Nous avons également étudié l'effet préventif de la SCP à basse fréquence (5-20 Hz) du Putamen sur ce même modèle. Enfin, sur un autre primate, nous avons étudié l'effet combiné de la SCP du NST à haute fréquence et du Putamen à basse fréquence sur les crises motrices. Résultats : Les effets de la SCP chronique du NST à haute fréquence ont été analysés à partir de 1572 crises apparues au cours de 30 sessions expérimentales chez 3 primates. Les effets de la SCP préventive du NST ont été évalués sur 454 crises motrices durant 10 sessions expérimentales chez un primate. L'effet de la SCP du Putamen à basse fréquence a été analysé sur 289 crises durant 14 sessions chez 2 primates. Enfin l'effet combiné de la SCP du NST et du Putamen a été évalué sur 477 crises durant 10 sessions. Les meilleurs résultats ont été obtenus par SCP chronique du NST. L'apparition de la première crise était significativement retardée lorsque le primate était stimulé. Le temps total passé en situation de crise motrice était diminué en moyenne d'environ 69 % (p ≤0.05) par rapport à la condition non-stimulé au regard de la diminution significative du nombre de crises particulièrement durant les 3 heures après le début de la stimulation. La durée de chaque crise était modérément réduite. Les modes de stimulation mono-polaire ou bi-polaire avaient une efficacité similaire. La SCP préventive du NST n'a pas eu d'effet supérieur à la stimulation chronique du NST. La SCP chronique du Putamen à basse fréquence avait un effet positif mais principalement durant les deux premières heures de stimulation. L'effet combiné de la SCP du NST et du Putamen était inférieur à la SCP chronique du NST ou du Putamen. / Epileptic seizures arise from pathological synchronization of neuronal ensemble.Seizures originating from primary motor cortex are often pharmacoresistant, and many times unsuitable for respective surgery because of location of epileptic focus in eloquent area. Basal ganglia play important role in seizure propagation. Micro electrode recordings performed during previous studies indicated that input structures of basal ganglia such as GPe, Putamen and Subthalamic nucleus (STN) are strongly modified during seizures. For example the mean firing rate of neurons of the STN and Putamen increased and the percentage of oscillatory neurons synchronized with the ictal EEG was higher during seizures as compared to interictal periods. Pilot studies in humans have shown the possible beneficial effect of chronic DBS applied to STN in treatment of pharmacoresistant motor seizures. Our study was aimed at studying the therapeutic effect of electrical stimulation of input structures of basal ganglia . We first developed a stable, predictable primate model of focal motor epilepsy by intracortical injection of penicillin and we documented it's pharmacoresistence. We then stereotactically implanted DBS electrodes in the STN and Putamen. The stimulator was embedded at the back of the animals. Subthreshold electrical stimulations at 130 Hz were applied to STN. Stimulator was turned ON when penicillin was injected. Sham stimulation at 0 volt was used as a control situation, each monkey being its own control. The time course, number and duration of seizures occurring in each epochs of 1 h were compared during ON and sham stimulation periods. Each experimental session lasted uptoo 6 hours,We also studied preventive high frequency stimulation of STN and subthershold low frequency stimulation of Putamen with 5 Hz and 20 Hz in the same model .Finally we studied combined effects of high frequency STN and low frequency Putamen stimulation in one monkey Results: Data was analysed from 1572 seizures in 30 experiments in three monkeys for chronic STN stimulation , 454 seizures in 10 experiments in one moneky during preventive STN stimulation ,289 seizures from 14 experiments in two monkeys during LFS putamen stimulation and 477 seizures from 10 sessions during combined STN and Putamen stimulation in one monkey The best results were observed during chronic STN stimulation The occurrence of first seizure was significantly delayed as compared to sham situation. Total time spent in focal seizures was significantly reduced by ≥69% on an average (p ≤0.05) after STN stimulation, due to a significant decrease in the number of seizures especially so during the first 3 hours after stimulation. The duration of individual seizures reduced moderately. Bipolar and monopolar stimulation modes were equally effective Preventive HFS STN (in one specimen) was not found to be superior to acute stimulation. LFS Putamen alone was effective but mainly in first two hours of stimulation .In a combined HFS STN and LFS Putamen stimulation the effect of stimulation in terms of seizure control was modest and poor compared to HFS STN alone or LFS Putamen alone. This study provides original data in primates showing the potential therapeutic effect of chronic HFS-STN DBS to treat focal motor seizures . A discussion explaining these results and comparison with STN DBS in human motor seizures as well as future translational perspective in human therapeutics is provided.

Page generated in 0.0395 seconds