• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 556
  • 274
  • 67
  • 7
  • 3
  • Tagged with
  • 963
  • 454
  • 348
  • 252
  • 246
  • 233
  • 182
  • 178
  • 162
  • 150
  • 147
  • 129
  • 110
  • 109
  • 107
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Théorie des matrices aléatoires pour l'apprentissage automatique en grande dimension et les réseaux de neurones / A random matrix framework for large dimensional machine learning and neural networks

Liao, Zhenyu 30 September 2019 (has links)
Le "Big Data'' et les grands systèmes d'apprentissage sont omniprésents dans les problèmes d'apprentissage automatique aujourd’hui. Contrairement à l'apprentissage de petite dimension, les algorithmes d'apprentissage en grande dimension sont sujets à divers phénomènes contre-intuitifs et se comportent de manière très différente des intuitions de petite dimension sur lesquelles ils sont construits. Cependant, en supposant que la dimension et le nombre des données sont à la fois grands et comparables, la théorie des matrices aléatoires (RMT) fournit une approche systématique pour évaluer le comportement statistique de ces grands systèmes d'apprentissage, lorsqu'ils sont appliqués à des données de grande dimension. L’objectif principal de cette thèse est de proposer un schéma d'analyse basé sur la RMT, pour une grande famille de systèmes d’apprentissage automatique: d'évaluer leurs performances, de mieux les comprendre et finalement les améliorer, afin de mieux gérer les problèmes de grandes dimensions aujourd'hui.Précisément, nous commençons par exploiter la connexion entre les grandes matrices à noyau, les projection aléatoires non-linéaires et les réseaux de neurones aléatoires simples. En considérant que les données sont tirées indépendamment d'un modèle de mélange gaussien, nous fournissons une caractérisation précise des performances de ces systèmes d'apprentissage en grande dimension, exprimée en fonction des statistiques de données, de la dimensionnalité et, surtout, des hyper-paramètres du problème. Lorsque des algorithmes d'apprentissage plus complexes sont considérés, ce schéma d'analyse peut être étendu pour accéder à de systèmes d'apprentissage qui sont définis (implicitement) par des problèmes d'optimisation convexes, lorsque des points optimaux sont atteints. Pour trouver ces points, des méthodes d'optimisation telles que la descente de gradient sont régulièrement utilisées. À cet égard, dans le but d'avoir une meilleur compréhension théorique des mécanismes internes de ces méthodes d'optimisation et, en particulier, leur impact sur le modèle d'apprentissage, nous évaluons aussi la dynamique de descente de gradient dans les problèmes d'optimisation convexes et non convexes.Ces études préliminaires fournissent une première compréhension quantitative des algorithmes d'apprentissage pour le traitement de données en grandes dimensions, ce qui permet de proposer de meilleurs critères de conception pour les grands systèmes d’apprentissage et, par conséquent, d'avoir un gain de performance remarquable lorsqu'il est appliqué à des jeux de données réels. Profondément ancré dans l'idée d'exploiter des données de grandes dimensions avec des informations répétées à un niveau "global'' plutôt qu'à un niveau "local'', ce schéma d'analyse RMT permet une compréhension renouvelée et la possibilité de contrôler et d'améliorer une famille beaucoup plus large de méthodes d'apprentissage automatique, ouvrant ainsi la porte à un nouveau schéma d'apprentissage automatique pour l'intelligence artificielle. / Large dimensional data and learning systems are ubiquitous in modern machine learning. As opposed to small dimensional learning, large dimensional machine learning algorithms are prone to various counterintuitive phenomena and behave strikingly differently from the low dimensional intuitions upon which they are built. Nonetheless, by assuming the data dimension and their number to be both large and comparable, random matrix theory (RMT) provides a systematic approach to assess the (statistical) behavior of these large learning systems, when applied on large dimensional data. The major objective of this thesis is to propose a full-fledged RMT-based framework for various machine learning systems: to assess their performance, to properly understand and to carefully refine them, so as to better handle large dimensional problems that are increasingly needed in artificial intelligence applications.Precisely, we exploit the close connection between kernel matrices, random feature maps, and single-hidden-layer random neural networks. Under a simple Gaussian mixture modeling for the input data, we provide a precise characterization of the performance of these large dimensional learning systems as a function of the data statistics, the dimensionality, and most importantly the hyperparameters (e.g., the choice of the kernel function or activation function) of the problem. Further addressing more involved learning algorithms, we extend the present RMT analysis framework to access large learning systems that are implicitly defined by convex optimization problems (e.g., logistic regression), when optimal points are assumed reachable. To find these optimal points, optimization methods such as gradient descent are regularly used. Aiming to have a better theoretical grasp of the inner mechanism of optimization methods and their impact on the resulting learning model, we further evaluate the gradient descent dynamics in training convex and non-convex objects.These preliminary studies provide a first quantitative understanding of the aforementioned learning algorithms when large dimensional data are processed, which further helps propose better design criteria for large learning systems that result in remarkable gains in performance when applied on real-world datasets. Deeply rooted in the idea of mining large dimensional data with repeated patterns at a global rather than a local level, the proposed RMT analysis framework allows for a renewed understanding and the possibility to control and improve a much larger range of machine learning approaches, and thereby opening the door to a renewed machine learning framework for artificial intelligence.
262

Etude du peptidome du cervelet de rat au cours du développement et identification des effets neurotrophiques de la nociceptine dans la mise en place des neurones en grain. / A peptidomic approach to characterize peptids involved in cerebellar cortex development heads to the identification of the neurotrophic effects of nociceptin

Corbière, Auriane 19 December 2017 (has links)
Le cervelet est une structure cérébrale impliquée dans de multiples fonctions motrices mais aussi cognitives et dont le développement postnatal est sous le contrôle de divers types de facteurs dont les neuropeptides. Les peptides capables d’agir sur le développement du cortex cérébelleux présentent généralement un profil d’expression particulier, avec chez le rongeur un pic d’expression au cours des 2 premières semaines postnatales. L’objectif de cette étude était d’identifier d’autres peptides présentant ce même type d’expression et de caractériser leurs potentiels effets au cours du développement du cortex cérébelleux, et plus particulièrement dans la mise en place des neurones en grain qui sont les plus abondants de cette structure. Pour cela, des cervelets de rats âgés de 8 à 90 jours ont été analysés par spectrométrie de masse. Parmi les 33 peptides identifiés, 4 présentent le profil recherché et nous avons choisi d’étudier l’un d’entre eux, la nociceptine. La mesure de l’expression du gène de la nociceptine et de son récepteur montre un profil d’expression similaire à celui observé en peptidomique. De plus, ces 2 gènes sont retrouvés principalement exprimés dans la couche granulaire interne du cortex cérébelleux par microdissection et qPcr. La recherche de la fonction de la nociceptine montre qu’elle exerce un effet neurotrophique en augmentant la survie et la différenciation des neurones en grain, sans affecter la motilité de ces cellules. Des tests préliminaires réalisés in vivo indiquent que la nociceptine est aussi capable de bloquer la toxicité induite par l’alcool. La dernière partie de l’étude avait pour but d’identifier de nouveaux neuropeptides exprimés dans le cervelet en utilisant une approche par séquençage de novo. L’application de filtres comme la récurrence des séquences peptidiques ou leur régulation au cours du développement a permis de ne retenir que 6 séquences pour la suite de l’analyse. Des études génomiques permettront de restreindre encore ce nombre afin de focaliser les tests d’activité biologique sur la ou les cibles qui ont la plus grande probabilité de correspondre à des peptides biologiquement actifs. / The cerebellum is a structure involved in many motor and cognitive functions whose development occurs after birth under the control of various factors, including neuropeptides. Peptides acting on cerebellar cortex development often exhibit a specific pattern of expression with in rodents a high expression over the 2 first postnatal weeks which then decreases at adulthood. The aim of this study was to identify additional peptides with such expression profile and to characterize their putative functions in the development of the cerebellar cortex and more particularly, in the establishment of cerebellar granule neurons which are the most abundant cells of the cerebellum. To address this, cerebella of rats aged from 8 to 90 days-old were analyzed by mass spectrometry. Among the 33 peptides identified in the cerebellum, 4 had the particular expression profile we were looking for. We choose to study further one of them, i.e. the nociceptin, and confirmed peptidomic results by measuring the expression of its gene precursor and of its receptor. Combining laser microdissection and qPCR approaches revealed that both nociceptin and its receptor genes were expressed in the internal granular layer of the cerebellar cortex. Functional studies showed that nociceptin exerts a neurotrophic effect on granule neurons by increasing their survival and differentiation, but had no effect on their motility. Preliminary in vivo experiments indicate that nociceptin can also counteract ethanol-induced toxicity. The last part of the present study aimed to identify new neuropeptides expressed in the rat cerebellum by using de novo sequencing. The large amount of peptide sequences initially found was then reduced to only 6 candidates for further analysis, by using filters such as recurrence of the sequences and their differential expression in between the four developmental stages considered. Additional genomic studies will help to decrease even further this number, in order to focus the biological tests on the targets which are most likely to code for biological active peptides.
263

Rhythms and oscillations : a vision for nanoelectronics / Rythmes et oscillations : une vision pour la nanoélectronique

Vodenicarevic, Damir 15 December 2017 (has links)
Avec l'avènement de l'"intelligence artificielle", les ordinateurs, appareils mobiles et objets connectés sont amenés à dépasser les calculs arithmétiques et logiques pour lesquels ils ont été optimisés durant des décennies, afin d'effectuer des tâches "cognitives" telles que la traduction automatique ou la reconnaissance d'images et de voix, et pour lesquelles ils ne sont pas adaptés. Ainsi, un super-calculateur peut-il consommer des mégawatts pour effectuer des tâches que le cerveau humain traite avec 20 watt. Par conséquent, des système de calcul alternatifs inspirés du cerveau font l'objet de recherches importantes. En particulier, les oscillations neurales semblant être liées à certains traitements de données dans le cerveau ont inspiré des approches détournant la physique complexe des réseaux d'oscillateurs couplés pour effectuer des tâches cognitives efficacement. Cette thèse se fonde sur les avancées récentes en nano-technologies permettant la fabrication de nano-oscillateurs hautement intégrables pour proposer et étudier de nouvelles architectures neuro-inspirées de classification de motifs exploitant la dynamique des oscillateurs couplés et pouvant être implémentées sur puce. / With the advent of "artificial intelligence", computers, mobile devices and other connected objects are being pushed beyond the realm of arithmetic and logic operations, for which they have been optimized over decades, in order to process "cognitive" tasks such as automatic translation and image or voice recognition, for which they are not the ideal substrate. As a result, supercomputers may require megawatts to process tasks for which the human brain only needs 20 watt. This has revived interest into the design of alternative computing schemes inspired by the brain. In particular, neural oscillations that appear to be linked to computational activity in the brain have inspired approaches leveraging the complex physics of networks of coupled oscillators in order to process cognitive tasks efficiently. In the light of recent advances in nano-technology allowing the fabrication of highly integrable nano-oscillators, this thesis proposes and studies novel neuro-inspired oscillator-based pattern classification architectures that could be implemented on chip.
264

Apprentissage local avec des dispositifs de mémoire hautement analogiques / Local learning with highly analog memory devices

Bennett, Christopher H. 08 February 2018 (has links)
Dans la prochaine ère de l'informatique distribuée, les ordinateurs inspirés par le cerveau qui effectuent des opérations localement plutôt que dans des serveurs distants seraient un avantage majeur en réduisant les coûts énergétiques et réduisant l'impact environnemental. Une nouvelle génération de nanodispositifs de mémoire non-volatile est un candidat de premier plan pour réaliser cette vision neuromorphique. À l'aide de travaux théoriques et expérimentaux, nous avons exploré les problèmes critiques qui se posent lors de la réalisation physique des architectures de réseaux de neurones artificiels modernes (ANN) en utilisant des dispositifs de mémoire émergents (nanodispositifs « memristifs »). Dans notre travail expérimental, nos dispositifs organiques (polymeriques) se sont adaptés avec succès et automatiquement en tant que portes logiques reconfigurables en coopérant avec un neurone digital et programmable (FGPA). Dans nos travaux théoriques, nous aussi avons considéré les multicouches memristives ANNs. Nous avons développé et simulé des variantes de projection aléatoire (un système NoProp) et de rétropropagation (un système perceptron multicouche) qui utilisent deux crossbars. Ces systèmes d'apprentissage locaux ont montré des dépendances critiques sur les contraintes physiques des nanodispositifs. Enfin, nous avons examiné comment les conceptions ANNs “feed-forward” peuvent être modi-fiées pour exploiter les effets temporels. Nous avons amélioré la bio-inspiration et la performance du système NoProp, par exemple, avec des effets de plasticité dans la première couche. Ces effets ont été obtenus en utilisant un nanodispositif à ionisation d'argent avec un comportement de transition de plasticité intrinsèque. / In the next era of distributed computing, brain-based computers that perform operations locally rather than in remote servers would be a major benefit in reducing global energy costs. A new generation of emerging nonvolatile memory devices is a leading candidate for achieving this neuromorphic vision. Using theoretical and experimental work, we have explored critical issues that arise when physically realizing modern artificial neural network (ANN) architectures using emerging memory devices (“memristors”). In our experimental work, we showed organic nanosynapses adapting automatically as logic gates via a companion digital neuron and programmable logic cell (FGPA). In our theoretical work, we also considered multilayer memristive ANNs. We have developed and simulated random projection (NoProp) and backpropagation (Multilayer Perceptron) variants that use two crossbars. These local learning systems showed critical dependencies on the physical constraints of nanodevices. Finally, we examined how feed-forward ANN designs can be modified to exploit temporal effects. We focused in particular on improving bio-inspiration and performance of the NoProp system, for example, we improved the performance with plasticity effects in the first layer. These effects were obtained using a silver ionic nanodevice with intrinsic plasticity transition behavior.
265

Neural language models : Dealing with large vocabularies / Modèles de langue neuronaux : Gestion des grands vocabulaires

Labeau, Matthieu 21 September 2018 (has links)
Le travail présenté dans cette thèse explore les méthodes pratiques utilisées pour faciliter l'entraînement et améliorer les performances des modèles de langues munis de très grands vocabulaires. La principale limite à l'utilisation des modèles de langue neuronaux est leur coût computationnel: il dépend de la taille du vocabulaire avec laquelle il grandit linéairement. La façon la plus aisée de réduire le temps de calcul de ces modèles reste de limiter la taille du vocabulaire, ce qui est loin d'être satisfaisant pour de nombreuses tâches. La plupart des méthodes existantes pour l'entraînement de ces modèles à grand vocabulaire évitent le calcul de la fonction de partition, qui est utilisée pour forcer la distribution de sortie du modèle à être normalisée en une distribution de probabilités. Ici, nous nous concentrons sur les méthodes à base d'échantillonnage, dont le sampling par importance et l'estimation contrastive bruitée. Ces méthodes permettent de calculer facilement une approximation de cette fonction de partition. L'examen des mécanismes de l'estimation contrastive bruitée nous permet de proposer des solutions qui vont considérablement faciliter l'entraînement, ce que nous montrons expérimentalement. Ensuite, nous utilisons la généralisation d'un ensemble d'objectifs basés sur l'échantillonnage comme divergences de Bregman pour expérimenter avec de nouvelles fonctions objectif. Enfin, nous exploitons les informations données par les unités sous-mots pour enrichir les représentations en sortie du modèle. Nous expérimentons avec différentes architectures, sur le Tchèque, et montrons que les représentations basées sur les caractères permettent l'amélioration des résultats, d'autant plus lorsque l'on réduit conjointement l'utilisation des représentations de mots. / This work investigates practical methods to ease training and improve performances of neural language models with large vocabularies. The main limitation of neural language models is their expensive computational cost: it depends on the size of the vocabulary, with which it grows linearly. Despite several training tricks, the most straightforward way to limit computation time is to limit the vocabulary size, which is not a satisfactory solution for numerous tasks. Most of the existing methods used to train large-vocabulary language models revolve around avoiding the computation of the partition function, ensuring that output scores are normalized into a probability distribution. Here, we focus on sampling-based approaches, including importance sampling and noise contrastive estimation. These methods allow an approximate computation of the partition function. After examining the mechanism of self-normalization in noise-contrastive estimation, we first propose to improve its efficiency with solutions that are adapted to the inner workings of the method and experimentally show that they considerably ease training. Our second contribution is to expand on a generalization of several sampling based objectives as Bregman divergences, in order to experiment with new objectives. We use Beta divergences to derive a set of objectives from which noise contrastive estimation is a particular case. Finally, we aim at improving performances on full vocabulary language models, by augmenting output words representation with subwords. We experiment on a Czech dataset and show that using character-based representations besides word embeddings for output representations gives better results. We also show that reducing the size of the output look-up table improves results even more.
266

Réseaux de neurones récurrents pour le traitement automatique de la parole / Speech processing using recurrent neural networks

Gelly, Grégory 22 September 2017 (has links)
Le domaine du traitement automatique de la parole regroupe un très grand nombre de tâches parmi lesquelles on trouve la reconnaissance de la parole, l'identification de la langue ou l'identification du locuteur. Ce domaine de recherche fait l'objet d'études depuis le milieu du vingtième siècle mais la dernière rupture technologique marquante est relativement récente et date du début des années 2010. C'est en effet à ce moment qu'apparaissent des systèmes hybrides utilisant des réseaux de neurones profonds (DNN) qui améliorent très notablement l'état de l'art. Inspirés par le gain de performance apporté par les DNN et par les travaux d'Alex Graves sur les réseaux de neurones récurrents (RNN), nous souhaitions explorer les capacités de ces derniers. En effet, les RNN nous semblaient plus adaptés que les DNN pour traiter au mieux les séquences temporelles du signal de parole. Dans cette thèse, nous nous intéressons tout particulièrement aux RNN à mémoire court-terme persistante (Long Short Term Memory (LSTM) qui permettent de s'affranchir d'un certain nombre de difficultés rencontrées avec des RNN standards. Nous augmentons ce modèle et nous proposons des processus d'optimisation permettant d'améliorer les performances obtenues en segmentation parole/non-parole et en identification de la langue. En particulier, nous introduisons des fonctions de coût dédiées à chacune des deux tâches: un simili-WER pour la segmentation parole/non-parole dans le but de diminuer le taux d'erreur d'un système de reconnaissance de la parole et une fonction de coût dite de proximité angulaire pour les problèmes de classification multi-classes tels que l'identification de la langue parlée. / Automatic speech processing is an active field of research since the 1950s. Within this field the main area of research is automatic speech recognition but simpler tasks such as speech activity detection, language identification or speaker identification are also of great interest to the community. The most recent breakthrough in speech processing appeared around 2010 when speech recognition systems using deep neural networks drastically improved the state-of-the-art. Inspired by this gains and the work of Alex Graves on recurrent neural networks (RNN), we decided to explore the possibilities brought by these models on realistic data for two different tasks: speech activity detection and spoken language identification. In this work, we closely look at a specific model for the RNNs: the Long Short Term Memory (LSTM) which mitigates a lot of the difficulties that can arise when training an RNN. We augment this model and introduce optimization methods that lead to significant performance gains for speech activity detection and language identification. More specifically, we introduce a WER-like loss function to train a speech activity detection system so as to minimize the word error rate of a downstream speech recognition system. We also introduce two different methods to successfully train a multiclass classifier based on neural networks for tasks such as LID. The first one is based on a divide-and-conquer approach and the second one is based on an angular proximity loss function. Both yield performance gains but also speed up the training process.
267

Neural Methods for Event Extraction / Méthodes neuronales pour l'extraction d'événements

Boroş, Emanuela 27 September 2018 (has links)
Du point de vue du traitement automatique des langues (TAL), l’extraction des événements dans les textes est la forme la plus complexe des processus d’extraction d’information, qui recouvrent de façon plus générale l’extraction des entités nommées et des relations qui les lient dans les textes. Le cas des événements est particulièrement ardu car un événement peut être assimilé à une relation n-aire ou à une configuration de relations. Alors que la recherche en extraction d’information a largement bénéficié des jeux de données étiquetés manuellement pour apprendre des modèles permettant l’analyse des textes, la disponibilité de ces ressources reste un problème important. En outre, de nombreuses approches en extraction d’information fondées sur l’apprentissage automatique reposent sur la possibilité d’extraire à partir des textes de larges en sembles de traits définis manuellement grâce à des outils de TAL élaborés. De ce fait, l’adaptation à un nouveau domaine constitue un défi supplémentaire. Cette thèse présente plusieurs stratégies pour améliorer la performance d’un système d’extraction d’événements en utilisant des approches fondées sur les réseaux de neurones et en exploitant les propriétés morphologiques, syntaxiques et sémantiques des plongements de mots. Ceux-ci ont en effet l’avantage de ne pas nécessiter une modélisation a priori des connaissances du domaine et de générer automatiquement un ensemble de traits beaucoup plus vaste pour apprendre un modèle. Nous avons proposé plus spécifiquement différents modèles d’apprentissage profond pour les deux sous-tâches liées à l’extraction d’événements : la détection d’événements et la détection d’arguments. La détection d’événements est considérée comme une sous-tâche importante de l’extraction d’événements dans la mesure où la détection d’arguments est très directement dépendante de son résultat. La détection d’événements consiste plus précisément à identifier des instances d’événements dans les textes et à les classer en types d’événements précis. En préalable à l’introduction de nos nouveaux modèles, nous commençons par présenter en détail le modèle de l’état de l’art qui en constitue la base. Des expériences approfondies sont menées sur l’utilisation de différents types de plongements de mots et sur l’influence des différents hyperparamètres du modèle en nous appuyant sur le cadre d’évaluation ACE 2005, standard d’évaluation pour cette tâche. Nous proposons ensuite deux nouveaux modèles permettant d’améliorer un système de détection d’événements. L’un permet d’augmenter le contexte pris en compte lors de la prédiction d’une instance d’événement (déclencheur d’événement) en utilisant un contexte phrastique, tandis que l’autre exploite la structure interne des mots en profitant de connaissances morphologiques en apparence moins nécessaires mais dans les faits importantes. Nous proposons enfin de reconsidérer la détection des arguments comme une extraction de relation d’ordre supérieur et nous analysons la dépendance de cette détection vis-à-vis de la détection d’événements. / With the increasing amount of data and the exploding number data sources, the extraction of information about events, whether from the perspective of acquiring knowledge or from a more directly operational perspective, becomes a more and more obvious need. This extraction nevertheless comes up against a recurring difficulty: most of the information is present in documents in a textual form, thus unstructured and difficult to be grasped by the machine. From the point of view of Natural Language Processing (NLP), the extraction of events from texts is the most complex form of Information Extraction (IE) techniques, which more generally encompasses the extraction of named entities and relationships that bind them in the texts. The event extraction task can be represented as a complex combination of relations linked to a set of empirical observations from texts. Compared to relations involving only two entities, there is, therefore, a new dimension that often requires going beyond the scope of the sentence, which constitutes an additional difficulty. In practice, an event is described by a trigger and a set of participants in that event whose values are text excerpts. While IE research has benefited significantly from manually annotated datasets to learn patterns for text analysis, the availability of these resources remains a significant problem. These datasets are often obtained through the sustained efforts of research communities, potentially complemented by crowdsourcing. In addition, many machine learning-based IE approaches rely on the ability to extract large sets of manually defined features from text using sophisticated NLP tools. As a result, adaptation to a new domain is an additional challenge. This thesis presents several strategies for improving the performance of an Event Extraction (EE) system using neural-based approaches exploiting morphological, syntactic, and semantic properties of word embeddings. These have the advantage of not requiring a priori modeling domain knowledge and automatically generate a much larger set of features to learn a model. More specifically, we proposed different deep learning models for two sub-tasks related to EE: event detection and argument detection and classification. Event Detection (ED) is considered an important subtask of event extraction since the detection of arguments is very directly dependent on its outcome. ED specifically involves identifying instances of events in texts and classifying them into specific event types. Classically, the same event may appear as different expressions and these expressions may themselves represent different events in different contexts, hence the difficulty of the task. The detection of the arguments is based on the detection of the expression considered as triggering the event and ensures the recognition of the participants of the event. Among the difficulties to take into account, it should be noted that an argument can be common to several events and that it does not necessarily identify with an easily recognizable named entity. As a preliminary to the introduction of our proposed models, we begin by presenting in detail a state-of-the-art model which constitutes the baseline. In-depth experiments are conducted on the use of different types of word embeddings and the influence of the different hyperparameters of the model using the ACE 2005 evaluation framework, a standard evaluation for this task. We then propose two new models to improve an event detection system. One allows increasing the context taken into account when predicting an event instance by using a sentential context, while the other exploits the internal structure of words by taking advantage of seemingly less obvious but essentially important morphological knowledge. We also reconsider the detection of arguments as a high-order relation extraction and we analyze the dependence of arguments on the ED task.
268

Mécanismes spinaux et supraspinaux impliqués dans le couplage entre les réseaux locomoteurs et posturaux / Mécanismes spinaux et supraspinaux impliqués dans le couplage entre les réseaux locomoteurs et posturaux

Beliez, Lauriane 05 December 2014 (has links)
Les fonctions locomotrices et posturales sont contrôlées par un ensemble de réseaux neuronaux qui doivent interagir afin de produire un comportement locomoteur optimal, adaptable aux contraintes internes et externes de l’organisme. Le maintien d’un équilibre dynamique au cours de la locomotion repose sur des processus internes de coordination entre les réseaux nerveux spinaux et supraspinaux qui commandent les différents segments du corps (membres, tête et tronc). C’est dans ce contexte que nous nous sommes intéressés aux interactions entre la fonction locomotrice et la fonction posturale, sur des préparations réduites de tronc cérébral-moelle épinière de rats nouveau-nés, au sein desquelles les CPGs locomoteurs spinaux et les noyaux vestibulaires sont intacts. Des approches combinées électrophysiologiques, pharmacologiques, neuroanatomique et lésionnelles nous ont permis de mettre en évidence une partie des mécanismes à l’origine du couplage entre les différents réseaux neuronaux étudiés. Dans cette étude nous avons montré que les réseaux locomoteurs lombaires contrôlent l’activité des réseaux thoraciques axiaux, de manière à produire une activation coordonnée des réseaux moteurs des membres et du tronc. Cette coordination est sous influence des entrées supraspinales. Les amines induisent une organisation temporelle spécifique de l’activité des réseaux thoraco-lombo-sacrés, et les informations en provenance des noyaux vestibulaires influencent le rythme locomoteur. Ces données apportent des éléments nouveaux concernant les processus neuronaux à l’origine de la coordination des réseaux moteurs et posturaux. / Locomotor and postural functions are controlled by a set of neural networks that must interact to produce optimal locomotor behavior, adaptable to internal and external constraints of the body. Maintaining a dynamic balance during locomotion is based on internal coordination processes between spinal and supraspinal neuronal networks controlling different parts of the body (limbs, head and trunk). In this context, we have interested in the interactions between locomotor and postural functions, in spinal and supraspinal networks. The experiments were conducted on isolated brainstem-spinal cord preparations from neonatal rats, in which the spinal locomotor CPGs and the vestibular nuclei are intact. Electrophysiological, pharmacological, and neuroanatomical approaches allowed us to highlight some of the mechanisms involved in the coupling of the different neural networks. In this study we showed that the lumbar locomotor networks control the activity of axial thoracic networks, in order to produce a coordinated activation of motors networks of limbs and trunk. This coordination is modulated by amines and information from the vestibular nuclei. These data provide new evidence for spinal mechanisms involved in the coordination of motor and postural networks.
269

Modélisation de grands réseaux de neurones par processus de Hawkes / Modelling large neural networks via Hawkes processes

Chevallier, Julien 09 September 2016 (has links)
Comment fonctionne le cerveau ? Peut-on créer un cerveau artificiel ? Une étape essentielle en vue d'obtenir une réponse à ces questions est la modélisation mathématique des phénomènes à l'œuvre dans le cerveau. Ce manuscrit se focalise sur l'étude de modèles de réseaux de neurones inspirés de la réalité.Cette thèse se place à la rencontre entre trois grands domaines des mathématiques - l'étude des équations aux dérivées partielles (EDP), les probabilités et la statistique - et s'intéresse à leur application en neurobiologie. Dans un premier temps, nous établissons les liens qui existent entre deux échelles de modélisation neurobiologique. À un niveau microscopique, l'activité électrique de chaque neurone est représentée par un processus ponctuel. À une plus grande échelle, un système d'EDP structuré en âge décrit la dynamique moyenne de ces activités. Il est alors montré que le modèle macroscopique peut se retrouver de deux manières distinctes : en étudiant la dynamique moyenne d'un neurone typique ou bien en étudiant la dynamique d'un réseau de $n$ neurones en champ-moyen quand $n$ tend vers l’infini. Dans le second cas, la convergence vers une dynamique limite est démontrée et les fluctuations de la dynamique microscopique autour de cette limite sont examinées. Dans un second temps, nous construisons une procédure de test d'indépendance entre processus ponctuels, ces derniers étant destinés à modéliser l'activité de certains neurones. Ses performances sont contrôlées théoriquement et vérifiées d'un point de vue pratique par une étude par simulations. Pour finir, notre procédure est appliquée sur de vraies données / How does the brain compute complex tasks? Is it possible to create en artificial brain? In order to answer these questions, a key step is to build mathematical models for information processing in the brain. Hence this manuscript focuses on biological neural networks and their modelling. This thesis lies in between three domains of mathematics - the study of partial differential equations (PDE), probabilities and statistics - and deals with their application to neuroscience. On the one hand, the bridges between two neural network models, involving two different scales, are highlighted. At a microscopic scale, the electrical activity of each neuron is described by a temporal point process. At a larger scale, an age structured system of PDE gives the global activity. There are two ways to derive the macroscopic model (PDE system) starting from the microscopic one: by studying the mean dynamics of one typical neuron or by investigating the dynamics of a mean-field network of $n$ neurons when $n$ goes to infinity. In the second case, we furthermore prove the convergence towards an explicit limit dynamics and inspect the fluctuations of the microscopic dynamics around its limit. On the other hand, a method to detect synchronisations between two or more neurons is proposed. To do so, tests of independence between temporal point processes are constructed. The level of the tests are theoretically controlled and the practical validity of the method is illustrated by a simulation study. Finally, the method is applied on real data
270

Construction sociale d'une esthétique artificielle : Berenson, un robot amateur d'art / Social construction of artificial aesthetic. : Berenson, an art lover robot

Karaouzene, Ali 28 February 2017 (has links)
Dans cette thèse nous nous intéressons à la problématique de la construction de l'esthétiquechez les humains. Nous proposons d'utiliser un robot comme modèle pour étudier les briquesde bases qui participent au développement des préférences esthétiques. Nous utilisons le termed'esthétique artificielle (E.A ) pour désigner les préférences du robot.Plusieurs travaux de recherche tentent d'établir des théories de l'esthétique que nous séparons icien deux approches. D'une part, les approches empiriques qui étudientles préférences esthétiques d'un point de vue expérimental. Nous nous intéressons notamment àune branche plus radicale des approches empiriques, nommée la neuroesthétique. Celle-ci postulel'existence de structures cérébrales dédiées à l'appréciation des scènes visuelles en général et de l'art en particulier.D'autre part, les approches sociales qui avancent que les préférences esthétiques se transmettent de générationen génération et se construisent selon l'historique de l'individu et de ses interactions avec les autres.Le contextualisme historique est une branchedes approches sociales qui établit un lien entre le contexte dans lequel une œuvre est observée et son appréciation.Sans remettre en cause l'approche neuroscientifique, nous avons choisi de nous positionner dans une approche sociale et développementaleen utilisant des méthodes expérimentales telles que celles utilisées en esthétique empirique.Nous étudions l'émergence du sens esthétique dans le cadre de la référenciation sociale.On appelle référenciation sociale la capacité à attribuer des valences émotionnelles à des objets a priori neutre.Nous testons nos hypothèses sur robot mobile dans un cadre d'interaction triadique : homme-robot objet.Ceci dans un milieu naturel centré sur des humains non initiés à la robotique.Les humains jouent le rôle d'enseignants (professeur) du robot. Ils ont la tâche de suivre le robot dans son développementet de lui enseigner leurs préférences pour lui permettre de développer son propre "goût".Nous avons choisi de mener nos expériences dans des milieux dominés par l'esthétique comme les musées ou les galeries d'art.Toutefois, ces expériences peuvent être menées en tout lieu où des humains et des objets seraient disponibles.Notre robot, nommé Berenson en référence à un célèbre historien de l'art du 19ème siècle, est un outilpour comprendre d'une part comment s'installent des interactions sociales et comment les humainsprêtent des intentions aux machines, et d'autres part il permet d'étudier les briques minimalesd'intelligence artificielle à mettre en place pour construire une esthétique artificielle. / In this thesis we propose a robot as tool to study minimal bricks that helps human develop their aesthetic preferences. We refer to the robot preference using the term Artificial Esthetics (A.E).Several research work tries to establish a unified theory of esthetics. We divide them into two approaches. In one side, the empirical approaches which study esthetic preferences in an experimental manner. We mainly discuss the more radical branch of those approaches named "Neuroesthetic". Neuroesthetic advocates the existence of neural structures dedicated to visual scene preference and particularly to art appreciation. In another side, the social approaches which advocate that esthetic preferences are transmitted generation after generation, and they are built according to the individual historic and his interaction with others. Historical contextualism is a branch of the social approaches of art that draws a link between the appreciation of an artwork and the context where the artwork is observed.Without rejecting the neuroscientific approach, we choose a social and developmental way to study artificial esthetic using experimental methods from the empirical esthetic. We study the esthetic preferences development in the social referencing framework. Social referencing is the ability to attribute emotional values to à priori neutral objects. We test our hypothesis on a mobile robot in a triadic interaction : human-robot-object. This in a natural human centered environment. Humans play the role of the teachers. They have to fololow the robot in his development and teach it their preferences in order to help it develop its own "taste".We chose to conduct our experiment in places dominated by art and esthetics like museums and art galleries, however, this kind of experiment can take place anyway where human and objects are present.We named our robot Berenson in reference to a famous art historian of the 19th century. Berenson is a tool to understand how human project intentions into machines in one hand, and in the other hand the robot helps scientist build and understand minimal artificial intelligence bricks to build an artificial esthetic.

Page generated in 0.0579 seconds