• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • Tagged with
  • 10
  • 10
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes d'analyse non-linéaires pour les modèles de champs neuronaux

Veltz, Romain 16 December 2011 (has links) (PDF)
L'objectif de cette thèse est la compréhension et la modélisation du cortex visuel des mammifères avec des modèles à taux de décharge, appelés les champs neuronaux, où les fines spécificités du calcul neuronal sont négligées. Cette thèse est divisée en trois parties, deux parties théoriques et une plus appliquée. Dans la première partie, nous examinons les états stationnaires des équations des champs neuronaux en utilisant des outils topologiques et la théorie des bifurcations. Nous sommes particulièrement intéressés par le nombre de ces états étant donné un stimulus parce que tous ces états sont des représentations corticales du stimulus. Toutefois, selon les paramètres, les équations du champ de neurones peuvent avoir des solutions stationnaires multiples qui sont autant de représentations corticales du stimulus. Si plus d'une solution stable existe, nous avons montré comment distinguer une de ces activités corticales comme étant la représentation '' principale'' du stimulus et les autres comme des illusions neuronales. L'étude aboutit à un schéma numérique pour calculer les différentes solutions stationnaires du réseau de champ de neurones en utilisant plusieurs paramètres de continuation : ce schéma est utile pour sa capacité à détecter les bifurcations Saddle-Node. Dans la deuxième partie de cette thèse, nous étudions les effets des retards de propagation de l'information, les principaux résultats théoriques étant la preuve d'un théorème de variété centrale. Cependant, le résultat le plus utile est une formule analytique pour les courbes de bifurcation de Hopf dans le plan (vitesse de propagation - délai synaptique). Ces courbes indiquent les paramètres qui produisent des oscillations spontanées des neurones. L'étude du réseau sans cette formule analytique est très laborieuse. Elle a été utilisée pour révéler la structure très complexe du diagramme de bifurcation dans les réseaux de neurones avec retards de propagation. Enfin, dans la dernière partie de cette thèse, nous étudions trois modèles de cortex visuel auxquels nous appliquons les outils développés dans les parties précédentes. Le premier modèle est le Ring Model of orientation tuning pour lequel nous avons découvert l'existence d'un seuil de perception et expliqué comment il peut être observé expérimentalement. Le second modèle étudié est celui Blumenfeld et al., très proche dans sa formulation du modèle précédent, et se fonde sur des données expérimentales (fournis par G. Masson et le laboratoire de F.Chavane à l'INT, Marseille, FRANCE). Nous avons montré comment les symétries imparfaites de la connectivité affectent les réponses du réseau. En particulier, nous avons montré comment le réseau parvient à produire une réponse en accord avec le stimulus malgré ses préférences internes. Enfin, le dernier modèle que nous avons étudié est un modèle de l'aire visuelle V1 que nous avons développé, dans la lignée du travail de Bressloff et al. Nous avons appliqué à ce modèle, les outils mathématiques et informatiques développés dans les parties précédentes. Ce nouveau modèle ne dispose pas d'une connectivité dépendant de l'orientation préférée des neurones. En particulier, nous avons montré que si la vitesse de propagation de l'information était trente fois plus lente, une instabilité pourrait se développer entraînant des illusions périodiques en temps.
2

Nonlinear analysis methods in neural field models / Méthodes d'analyse non linéaires appliquées aux modèles des champs neuronaux

Veltz, Romain 16 December 2011 (has links)
Cette thèse traite de modèles mésoscopiques de cortex appelés champs neuronaux. Les équations des champs neuronaux décrivent l'activité corticale de populations de neurones, ayant des propriétés anatomiques/fonctionnelles communes. Elles ont été introduites dans les années 1950 et portent le nom d'équations de Wilson et Cowan. Mathématiquement, elles consistent en des équations intégro-différentielles avec retards, les retards modélisant les délais de propagation des signaux ainsi que le passage des signaux à travers les synapses et l'arbre dendritique. Dans la première partie, nous rappelons la biologie nécessaire à la compréhension de cette thèse et dérivons les équations principales. Puis, nous étudions ces équations du point de vue des systèmes dynamiques en caractérisant leurs points d'équilibres et la dynamique dans la seconde partie. Dans la troisième partie, nous étudions de façon générale ces équations à retards en donnant des formules pour les diagrammes de bifurcation, en prouvant un théorème de la variété centrale et en calculant les principales formes normales. Nous appliquons tout d'abord ces résultats à des champs neuronaux simples mono-dimensionnels qui permettent une étude détaillée de la dynamique. Enfin, dans la dernière partie, nous appliquons ces différents résultats à trois modèles de cortex visuel. Les deux premiers modèles sont issus de la littérature et décrivent respectivement une hypercolonne, /i.e./ l'élément de base de la première aire visuelle (V1) et un réseau de telles hypercolonnes. Le dernier modèle est un nouveau modèle de V1 qui généralise les deux modèles précédents tout en permettant une étude poussée des effets spécifiques des retards / This thesis deals with mesoscopic models of cortex called neural fields. The neural field equations describe the activity of neuronal populations, with common anatomical / functional properties. They were introduced in the 1950s and are called the equations of Wilson and Cowan. Mathematically, they consist of integro-differential equations with delays, the delays modeling the signal propagation and the passage of signals across synapses and the dendritic tree. In the first part, we recall the biology necessary to understand this thesis and derive the main equations. Then, we study these equations with the theory of dynamical systems by characterizing their equilibrium points and dynamics in the second part. In the third part, we study these delayed equations in general by giving formulas for the bifurcation diagrams, by proving a center manifold theorem, and by calculating the principal normal forms. We apply these results to one-dimensional neural fields which allows a detailed study of the dynamics. Finally, in the last part, we study three models of visual cortex. The first two models are from the literature and describe respectively a hypercolumn, i.e. the basic element of the first visual area (V1) and a network of such hypercolumns. The latest model is a new model of V1 which generalizes the two previous models while allowing a detailed study of specific effects of delays
3

Plasticité corticale, champs neuronaux dynamiques et auto-organisation / Cortical plasticity, dynamic neural fields and self-organization

Detorakis, Georgios 23 October 2013 (has links)
L'objectif de ce travail est de modéliser la formation, la maintenance et la réorganisation des cartes corticales somesthésiques en utilisant la théorie des champs neuronaux dynamiques. Un champ de neurones dynamique est une équation intégro-différentiel qui peut être utilisée pour décrire l'activité d'une surface corticale. Un tel champ a été utilisé pour modéliser une partie des aires 3b de la région du cortex somatosensoriel primaire et un modèle de peau a été conçu afin de fournir les entrées au modèle cortical. D'un point de vue computationel, ce modèle s'inscrit dans une démarche de calculs distribués, numériques et adaptatifs. Ce modèle s'avère en particulier capable d'expliquer la formation initiale des cartes mais aussi de rendre compte de leurs réorganisations en présence de lésions corticales ou de privation sensorielle, l'équilibre entre excitation et inhibition jouant un rôle crucial. De plus, le modèle est en adéquation avec les données neurophysiologiques de la région 3b et se trouve être capable de rendre compte de nombreux résultats expérimentaux. Enfin, il semble que l'attention joue un rôle clé dans l'organisation des champs récepteurs du cortex somato-sensoriel. Nous proposons donc, au travers de ce travail, une définition de l'attention somato-sensorielle ainsi qu'une explication de son influence sur l'organisation des cartes au travers d'un certain nombre de résultats expérimentaux. En modifiant les gains des connexions latérales, il est possible de contrôler la forme de la solution du champ, conduisant à des modifications importantes de l'étendue des champs récepteurs. Cela conduit au final au développement de zones finement cartographiées conduisant à de meilleures performances haptiques / The aim of the present work is the modeling of the formation, maintenance and reorganization of somatosensory cortical maps using the theory of dynamic neural fields. A dynamic neural field is a partial integro-differential equation that is used to model the cortical activity of a part of the cortex. Such a neural field is used in this work in order to model a part of the area 3b of the primary somatosensory cortex. In addition a skin model is used in order to provide input to the cortical model. From a computational point of view the model is able to perform distributed, numerical and adaptive computations. The model is able to explain the formation of topographic maps and their reorganization in the presence of a cortical lesion or a sensory deprivation, where balance between excitation and inhibition plays a crucial role. In addition, the model is consistent with neurophysiological data of area 3b. Finally, it has been shown that attention plays a key role in the organization of receptive fields of neurons of the somatosensory cortex. Therefore, in this work has been proposed a definition of somatosensory attention and a potential explanation of its influence on somatotopic organization through a number of experimental results. By changing the gains of lateral connections, it is possible to control the shape of the solution of the neural field. This leads to significant alterations of receptive fields sizes, resulting to a better performance during the execution of demanding haptic tasks
4

Une approche neuro-dynamique de conception des processus d'auto-organisation

Alecu, Lucian 30 June 2011 (has links) (PDF)
Dans ce manuscrit nous proposons une architecture neuronale d'inspiration corticale, capable de développer un traitement émergent de type auto-organisation. Afin d'implémenter cette architecture neuronale de manière distribuée, nous utilisons le modèle de champs neuronaux dynamiques, un formalisme mathématique générique conçu pour modéliser la compétition des activités neuronales au niveau cortical mésoscopique. Pour analyser en détail les propriétés dynamiques des modèles de référence de ce formalisme, nous proposons un critère formel et un instrument d'évaluation, capable d'examiner et de quantifier le comportement dynamique d'un champ neuronal quelconque dans différents contextes de stimulation. Si cet instrument nous permet de mettre en évidence les avantages pratiques de ces modèles, il nous révèle aussi l'incapacité de ces modèles à conduire l'implantation des processus d'auto-organisation (implémenté par l'architecture décrite) vers des résultats satisfaisants. Ces résultats nous amènent à proposer une alternative aux modèles classiques de champs, basée sur un mécanisme de rétro-inhibition, qui implémente un processus local de régulation neuronale. Grâce à ce mécanisme, le nouveau modèle de champ réussit à implémenter avec succès le processus d'auto-organisation décrit par l'architecture proposée d'inspiration corticale. De plus, une analyse détaillée confirme que ce formalisme garde les caractéristiques dynamiques exhibées par les modèles classiques de champs neuronaux. Ces résultats ouvrent la perspective de développement des architectures de calcul neuronal de traitement d'information pour la conception des solutions logicielles ou robotiques bio-inspirées.
5

Modélisation de la dynamique de l'intégration contextuelle du mouvement chez le primate

Tlapale, Émilien 25 January 2011 (has links) (PDF)
Dans cette thèse, nous étudions l'intégration du mouvement chez le primate. En se basant sur les connaissances actuelles concernant l'anatomie et les fonctions de deux aires corticales impliquées dans le mouvement, v1 et mt, nous expliquons un certain nombre de réponses perceptuelles et oculo-motrices rapportées dans la littérature. Tout d'abord, nous construisons un modèle récurrent d'intégration du mouvement se basant sur un nombre minimal d'hypothèses concernant les inter- actions corticales. En proposant un simple mécanisme de " lecture ", nous sommes capable de reproduire non seulement la perception, mais aussi les dynamiques oculaires de poursuite sur des stimuli de type ligne ou grille. De là, en se bas- ant des études psychophysiques sur l'intégration du mouvement et sur des études physiologique concernant les champs récepteurs, nous construisons un deuxième modèle dynamique dans lequel l'information concernant le mouvement est di- rigée par un signal de forme. Pour cela, nous postulons que le cortex visuel utilise la régularité de la luminance pour diriger la diffusion du mouvement. Un tel mécan- isme élémentaire de diffusion permet de résoudre des problèmes contextuels, dans lesquels les jonctions extrinsèques doivent être ignorées, sans avoir besoin d'util- iser des mécanismes plus complexes tels que les détecteurs de jonctions ou le calcul de profondeur. Enfin, nous reformulons le modèle initial dans le cadre du form- alisme des champs neuronaux afin d'analyser mathématiquement ses propriétés. Nous incorporons la rétroaction multiplicative dans le formalisme et prouvons l'existence et l'unicité de la solution. Afin de généraliser les comparaisons aux per- formances du système visuel, nous proposons une nouvelle méthodologie d'évalu- ation basée sur les performances du système visuel humain, accompagnée d'une série de vidéos issues de la littérature biologique et psychophysique. En effet, une méthodologie d'évaluation adaptée nous semble essentielle afin de continuer les progrès en modélisation des mécanismes neuraux impliqués dans le traitement du mouvement. Pour conclure, nous analysons les performances de notre modèle d'intégration du mouvement en l'appliquant à des problèmes classiques et récents issus de la vision par ordinateur. En dépit de son objectif initial, notre modèle est capable de donner des résultats comparables aux récentes approches proposées en vision par ordinateur au niveau de l'estimation du mouvement.
6

Une approche neuro-dynamique de conception des processus d'auto-organisation / A neuro-dynamic approach for designing self-organizing processes

Alecu, Lucian 30 June 2011 (has links)
Dans ce manuscrit nous proposons une architecture neuronale d'inspiration corticale, capable de développer un traitement émergent de type auto-organisation. Afin d'implémenter cette architecture neuronale de manière distribuée, nous utilisons le modèle de champs neuronaux dynamiques, un formalisme mathématique générique conçu pour modéliser la compétition des activités neuronales au niveau cortical mésoscopique. Pour analyser en détail les propriétés dynamiques des modèles de référence de ce formalisme, nous proposons un critère formel et un instrument d'évaluation, capable d'examiner et de quantifier le comportement dynamique d'un champ neuronal quelconque dans différents contextes de stimulation. Si cet instrument nous permet de mettre en évidence les avantages pratiques de ces modèles, il nous révèle aussi l'incapacité de ces modèles à conduire l'implantation des processus d'auto-organisation (implémenté par l'architecture décrite) vers des résultats satisfaisants. Ces résultats nous amènent à proposer une alternative aux modèles classiques de champs, basée sur un mécanisme de rétro-inhibition, qui implémente un processus local de régulation neuronale. Grâce à ce mécanisme, le nouveau modèle de champ réussit à implémenter avec succès le processus d'auto-organisation décrit par l'architecture proposée d'inspiration corticale. De plus, une analyse détaillée confirme que ce formalisme garde les caractéristiques dynamiques exhibées par les modèles classiques de champs neuronaux. Ces résultats ouvrent la perspective de développement des architectures de calcul neuronal de traitement d'information pour la conception des solutions logicielles ou robotiques bio-inspirées / In this work we propose a cortically inspired neural architecture capable of developping an emergent process of self-organization. In order to implement this neural architecture in a distributed manner, we use the dynamic neural fields paradigm, a generic mathematical formalism aimed at modeling the competition between the neural activities at a mesoscopic level of the cortical structure. In order to examine in detail the dynamic properties of classical models, we design a formal criterion and an evaluation instrument, capable of analysing and quantifying the dynamic behavior of the any neural field, in specific contexts of stimulation. While this instrument highlights the practical advantages of the usage of such models, it also reveals the inability of these models to help implementing the self-organization process (implemented by the described architecture) with satisfactory results. These results lead us to suggest an alternative to the classical neural field models, based on a back-inhibition model which implements a local process of neural activity regulation. Thanks to this mechanism, the new neural field model is capable of achieving successful results in the implementation of the self-organization process described by our cortically inspired neural architecture. Moreover, a detailed analysis confirms that this new neural field maintains the features of the classical field models. The results described in this thesis open the perspectives for developping neuro-computational architectures for the design of software solutions or biologically-inspired robot applications
7

Modèles cellulaires de champs neuronaux dynamiques / Cellular model of dynamic neural fields

Chappet de Vangel, Benoît 14 November 2016 (has links)
Dans la recherche permanente de solutions pour dépasser les limitations de plus en plus visibles de nos architectures matérielles, le calcul non-conventionnel offre des alternatives variées comme l’ingénierie neuromorphique et le calcul cellulaire. Comme von Neumann qui s’était initialement inspiré du cerveau pour concevoir l’architecture des ordinateurs, l’ingénierie neuromorphique prend la même inspiration en utilisant un substrat analogique plus proche des neurones et des synapses. Le calcul cellulaire s’inspire lui des substrats de calcul naturels (chimique, physiques ou biologiques) qui imposent une certaine localité des calculs de laquelle va émerger une organisation et des calculs. La recherche sur les mécanismes neuronaux permet de comprendre les grands principes de calculs émergents des neurones. Un des grands principes que nous allons utiliser dans cette thèse est la dynamique d’attracteurs d’abord décrite par Amari (champs neuronaux dynamiques, ou DNF pour dynamic neural fields), Amit et Zhang (réseaux de neurones à attracteurs continus). Ces champs de neurones ont des propriétés de calcul variées mais sont particulièrement adaptés aux représentations spatiales et aux fonctions des étages précoces du cortex visuel. Ils ont été utilisés entre autres dans des applications de robotique autonome, dans des tâches de classification et clusterisation. Comme de nombreux modèles de calcul neuronal, ils sont également intéressants du point de vue des architectures matérielles en raison de leur robustesse au bruit et aux fautes. On voit donc l’intérêt que ces modèles de calcul peuvent avoir comme solution permettant de dépasser (ou poursuivre) la loi de Moore. La réduction de la taille des transistors provoque en effet beaucoup de bruit, de même que la relaxation de la contrainte de ~ 0% de fautes lors de la production ou du fonctionnement des circuits permettrait d’énormes économies. Par ailleurs, l’évolution actuelle vers des circuits many-core de plus en plus distribués implique des difficultés liées au mode de calcul encore centralisés de la plupart des modèles algorithmiques parallèles, ainsi qu’au goulot d’étranglement des communications. L’approche cellulaire est une réponse naturelle à ces enjeux. Partant de ces différents constats, l’objectif de cette thèse est de rendre possible les calculs et applications riches des champs neuronaux dynamiques sur des substrats matériels grâce à des modèles neuro-cellulaires assurant une véritable localité, décentralisation et mise à l’échelle des calculs. Cette thèse est donc une proposition argumentée pour dépasser les limites des architectures de type von Neumann en utilisant des principes de calcul neuronal et cellulaire. Nous restons cependant dans le cadre numérique en explorant les performances des architectures proposées sur FPGA. L’utilisation de circuits analogiques (VLSI) serait tous aussi intéressante mais n’est pas étudiée ici. Les principales contributions sont les suivantes : 1) Calcul DNF dans un environnement neuromorphique ; 2) Calcul DNF avec communication purement locale : modèle RSDNF (randomly spiking DNF) ; 3) Calcul DNF avec communication purement locale et asynchrone : modèle CASAS-DNF (cellular array of stochastic asynchronous spiking DNF). / In the constant search for design going beyond the limits of the von Neumann architecture, non conventional computing offers various solutions like neuromorphic engineering and cellular computing. Like von Neumann who roughly reproduced brain structures to design computers architecture, neuromorphic engineering takes its inspiration directly from neurons and synapses using analog substratum. Cellular computing influence comes from natural substratum (chemistry, physic or biology) imposing locality of interactions from which organisation and computation emerge. Research on neural mechanisms was able to demonstrate several emergent properties of the neurons and synapses. One of them is the attractor dynamics described in different frameworks by Amari with the dynamic neural fields (DNF) and Amit and Zhang with the continuous attractor neural networks. These neural fields have various computing properties and are particularly relevant for spatial representations and early stages of visual cortex processing. They were used, for instance, in autonomous robotics, classification and clusterization. Similarly to many neuronal computing models, they are robust to noise and faults and thus are good candidates for noisy hardware computation models which would enable to keep up or surpass the Moore law. Indeed, transistor area reductions is leading to more and more noise and the relaxation of the approx. 0% fault during production and operation of integrated circuits would lead to tremendous savings. Furthermore, progress towards many-cores circuits with more and more cores leads to difficulties due to the centralised computation mode of usual parallel algorithms and their communication bottleneck. Cellular computing is the natural answer to these problems. Based on these different arguments, the goal of this thesis is to enable rich computations and applications of dynamic neural fields on hardware substratum with neuro-cellular models enabling a true locality, decentralization and scalability of the computations. This work is an attempt to go beyond von Neumann architectures by using cellular and neuronal computing principles. However, we will stay in the digital framework by exploring performances of proposed architectures on FPGA. Analog hardware like VLSI would also be very interesting but is not studied here. The main contributions of this work are : 1) Neuromorphic DNF computation ; 2) Local DNF computations with randomly spiking dynamic neural fields (RSDNF model) ; 3) Local and asynchronous DNF computations with cellular arrays of stochastic asynchronous spiking DNFs (CASAS-DNF model).
8

Neural networks as cellular computing models for temporal sequence processing. / Les réseaux de neurones comme paradigme de calcul cellulaire pour le traitement de séquences temporelles

Khouzam, Bassem 13 February 2014 (has links)
La thèse propose une approche de l'apprentissage temporel par des mécanismes d'auto-organisation à grain fin. Le manuscrit situe dans un premier temps le travail dans la perspective de contribuer à promouvoir une informatique cellulaire. Il s'agit d'une informatique où les calculs se répartissent en un grand nombre de calculs élémentaires, exécutés en parallèle, échangeant de l'information entre eux. Le caractère cellulaire tient à ce qu'en plus d’être à grain fin, une telle architecture assure que les connexions entre calculateurs respectent une topologie spatiale, en accord avec les contraintes des évolutions technologiques futures des matériels. Dans le manuscrit, la plupart des architectures informatiques distribuées sont examinées suivant cette perspective, pour conclure que peu d'entre elles relèvent strictement du paradigme cellulaire.Nous nous sommes intéressé à la capacité d'apprentissage de ces architectures, du fait de l'importance de cette notion dans le domaine connexe des réseaux de neurones par exemple, sans oublier toutefois que les systèmes cellulaires sont par construction des systèmes complexes dynamiques. Cette composante dynamique incontournable a motivé notre focalisation sur l'apprentissage temporel, dont nous avons passé en revue les déclinaisons dans les domaines des réseaux de neurones supervisés et des cartes auto-organisatrices.Nous avons finalement proposé une architecture qui contribue à la promotion du calcul cellulaire en ce sens qu'elle exhibe des propriétés d'auto-organisation pour l'extraction de la représentation des états du système dynamique qui lui fournit ses entrées, même si ces dernières sont ambiguës et ne reflètent que partiellement cet état. Du fait de la présence d'un cluster pour nos simulations, nous avons pu mettre en œuvre une architecture complexe, et voir émerger des phénomènes nouveaux. Sur la base de ces résultats, nous développons une critique qui ouvre des perspectives sur la suite à donner à nos travaux. / The thesis proposes a sequence learning approach that uses the mechanism of fine grain self-organization. The manuscript initially starts by situating this effort in the perspective of contributing to the promotion of cellular computing paradigm in computer science. Computation within this paradigm is divided into a large number of elementary calculations carried out in parallel by computing cells, with information exchange between them.In addition to their fine grain nature, the cellular nature of such architectures lies in the spatial topology of the connections between cells that complies with to the constraints of the technological evolution of hardware in the future. In the manuscript, most of the distributed architecture known in computer science are examined following this perspective, to find that very few of them fall within the cellular paradigm.We are interested in the learning capacity of these architectures, because of the importance of this notion in the related domain of neural networks for example, without forgetting, however, that cellular systems are complex dynamical systems by construction.This inevitable dynamical component has motivated our focus on the learning of temporal sequences, for which we reviewed the different models in the domains of neural networks and self-organization maps.At the end, we proposed an architecture that contributes to the promotion of cellular computing in the sense that it exhibits self-organization properties employed in the extraction of a representation of a dynamical system states that provides the architecture with its entries, even if the latter are ambiguous such that they partially reflect the system state. We profited from an existing supercomputer to simulate complex architecture, that indeed exhibited a new emergent behavior. Based on these results we pursued a critical study that sets the perspective for future work.
9

Modèle connexionniste neuromimétique pour la perception visuelle embarquée du mouvement

Castellanos SÁnchez, Claudio 21 October 2005 (has links) (PDF)
Le recherche en connexionnisme est en face des fortes contraintes d'autonomie en robotique notamment issues des tâches perceptives visuelles qui n'ont pas encore été satisfaites par les modèles neuronaux utilisés jusqu'à aujourd'hui, surtout celles liées à la perception du mouvement. Dans ce cadre, nous proposons un modèle connexionniste neuromimétique permettant de traiter un ensemble de tâches de perception visuelle dynamique (robot/objets environnants en mouvement). Cela implique le compromis de maintenir la satisfaction des contraintes (bio-inspiration, traitements locaux massivement distribués en vue d'une implantation ultérieure temps-réel embarquée sur circuit FPGA, Field Programmable Gate Array) au coeur de la définition du modèle proposé, malgré la complexité des tâches en jeu.<br />Le modèle connexionniste proposé pour la perception visuelle du mouvement est constitué de trois modules : le premier opère un filtrage spatio-temporel causal issu des filtres de Gabor et inspiré des réponses des cellules simples du cortex visuel primaire, V1. Le deuxième met en place un mécanisme distribué de fortes interactions localisées fondé sur un principe antagoniste inspiré de l'organisation en colonnes d'orientation dans V1. Finalement, en nous inspirant des propriétés des champs récepteurs des neurones de MT et MST (aire temporelle moyenne et supérieur moyenne, respectivement), nous intégrons les réponses du second module et les envoyons au troisième. Ce dernier fait émerger un seul objet en mouvement à travers l'évolution en différentes cartes des interactions latérales, en pro-action et en retro-action d'une population neuronale densément interconnectée selon le principe de la CNFT (Continuum Neural Field Theory). L'attention sur l'objet émergé nous permet donc de le suivre.
10

Plasticité corticale, champs neuronaux dynamiques et auto-organisation

Detorakis, Georgios 23 October 2013 (has links) (PDF)
L'objectif de ce travail est de modéliser la formation, la maintenance et la réorganisation des cartes corticales somesthésiques en utilisant la théorie des champs neuronaux dynamiques. Un champ de neurones dynamique est une équation intégro-différentiel qui peut être utilisée pour décrire l'activité d'une surface corticale. Un tel champ a été utilisé pour modéliser une partie des aires 3b de la région du cortex somatosensoriel primaire et un modèle de peau a été conçu afin de fournir les entrées au modèle cortical. D'un point de vue computationel, ce modèle s'inscrit dans une démarche de calculs distribués, numériques et adaptatifs. Ce modèle s'avère en particulier capable d'expliquer la formation initiale des cartes mais aussi de rendre compte de leurs réorganisations en présence de lésions corticales ou de privation sensorielle, l'équilibre entre excitation et inhibition jouant un rôle crucial. De plus, le modèle est en adéquation avec les données neurophysiologiques de la région 3b et se trouve être capable de rendre compte de nombreux résultats expérimentaux. Enfin, il semble que l'attention joue un rôle clé dans l'organisation des champs récepteurs du cortex somato-sensoriel. Nous proposons donc, au travers de ce travail, une définition de l'attention somato-sensorielle ainsi qu'une explication de son influence sur l'organisation des cartes au travers d'un certain nombre de résultats expérimentaux. En modifiant les gains des connexions latérales, il est possible de contrôler la forme de la solution du champ, conduisant à des modifications importantes de l'étendue des champs récepteurs. Celà conduit au final au développement de zones finement cartographiées conduisant à de meilleures performances haptiques.

Page generated in 0.0507 seconds