Nous proposons une généralisation des modèles actuels, utilisés en neuroscience pour l'analyse des statistiques de trains de potentiels d'action, et basé sur le paradigme de maximisation de l'entropie statistique sous contraintes. Notre méthode permet d'estimer des distributions de Gibbs avec un potentiel paramétrique arbitraire, généralisant les modèles actuels (Ising ou chaines de Markov du premier ordre). Notre méthodologie permet de tenir compte des effets de mémoire dans la dynamique. Elle fournit de manière directe la divergence de Kullback-Leibler entre le statistique empirique et le modèle statistique. Elle ne présuppose pas une forme spécifique du potentiel de Gibbs et ne nécessite pas l'hypothèse de bilan détaillé En outre, elle permet la comparaison de différents modèles statistiques et offre un contrôle des effets de taille finie, propres à la statistique empirique, par le biais de résultats des grandes déviations. Nous avons également développé un logiciel implémentant cette méthode et nous présentons des résultats d'application à des données biologiques issues d'enregistrements par multi-électrode sur des cellules ganglionnaires de rétines animaux. De plus, notre formalisme permet d'étudier l'évolution de la distribution des potentiels d'action lors de la variation des poids synaptiques induits par plasticité. Nous montrons une application a l'analyse de données synthétiques issues d'un réseau neuronal simulé soumis a de la plasticité de type (STDP).
Identifer | oai:union.ndltd.org:CCSD/oai:tel.archives-ouvertes.fr:tel-00851209 |
Date | 07 March 2011 |
Creators | Vasquez Betancur, Juan Carlos |
Publisher | Université Nice Sophia Antipolis |
Source Sets | CCSD theses-EN-ligne, France |
Language | English |
Detected Language | French |
Type | PhD thesis |
Page generated in 0.002 seconds