Doctoral thesis
English

Le statisticien neuronal: comment la perspective bayesienne peut enrichir les neurosciences

ContributorsDehaene, Guillaume
Defense date2016-09-09
Abstract

L'inférence Bayésienne représente un modèle mathématique de la prise de décision rationnelle. Elle est donc à même de répondre à des questions clés de la perception telles que: “Que faut-il que je crois, étant donné ce que j'ai perçu”? Cela en fait une source de modèles tant pour les sciences cognitives que pour les neurosciences (Knill et al. (2008)). En effet, nous pouvons prédire le comportement d'un sujet à l'aide du comportement d'un observateur Bayésien idéal du même stimulus. Nous pouvons alors demander comment l'activité de populations neuronales est capable d'implémenter les calculs demandés par cet observateur Bayésien idéal. Plus précisément, il nous faut comprendre comment le circuit neuronal est capable de transformer ses entrées sensorielles en une décision optimale tout en représentant un certain nombre d'étapes intermédiaires du calcul. Dans ce manuscrit de thèse, nous étudions deux tels modèles neuronaux qui implémentent une inférence Bayésienne. Avant de se poser la question des calculs, la question la plus fondamentale est celle de la représentation: il nous faut comprendre le format dans lequel l'information est représentée dans l'activité neuronale. Nous étudions cette question en premier, en utilisant l'hypothèse du codage efficace (“efficient coding hypothesis”) qui suppose que les populations neuronales représentent autant d'information que possible tout en minimisant leurs coûts physiologiques. Nous innovons par rapport à l'état de l'art de deux façons: nous modélisons une information limitée sur le stimulus d'intérêt, et nous considérons seulement l'information “facile à extraire” dans l'activité neuronale. Nous nous tournons ensuite vers un second modèle: nous étudions comment les animaux comme les chouettes sont capables de localiser la source d'un son dans l'espace. Nous démontrons qu'un observateur idéal simplifié explique simultanément le comportement des animaux et les données électrophysiologiques, tout en faisant des prédictions extrêmement différentes des modèles classiques. Dans une seconde partie, nous étudions des questions de statistiques théoriques. Plus précisément, nous étudions les propriétés de l'algorithme d'inférence approximée “Expectation Propagation” (“propagation de l'espérance”). Cet algorithme est en effet prometteur pour modéliser comment le cerveau est capable d'implémenter les méthodes Bayésiennes sur des modèles génératifs complexes, mais il est aussi très peu compris. Nous présentons deux résultats nouveaux sur cet algorithme. Nous montrons en premier lieu que la dynamique de l'algorithme est très proche de la méthode de Newton mais aussi d'une méthode de Newton “lissée” qui calcule l'approximation Gaussienne variationelle d'une distribution de probabilité donnée. Nous montrons ensuite que les approximations Gaussiennes d'Expectation Propagation et variationelle sont de meilleures approximations que l'approximation classique dite “de Laplace”, dans la limite d'un grand nombre d'observations, ce qui confirme l'état de l'art empirique sur ces méthodes.

Keywords
  • Neuroscience
  • computational neuroscience
  • Approximate inference
  • Bayesian inference
Citation (ISO format)
DEHAENE, Guillaume. Le statisticien neuronal: comment la perspective bayesienne peut enrichir les neurosciences. Doctoral Thesis, 2016. doi: 10.13097/archive-ouverte/unige:87920
Main files (1)
Thesis
accessLevelRestricted
Identifiers
890views
8downloads

Technical informations

Creation26/09/2016 15:45:00
First validation26/09/2016 15:45:00
Update time15/03/2023 01:47:41
Status update15/03/2023 01:47:40
Last indexation31/10/2024 05:39:45
All rights reserved by Archive ouverte UNIGE and the University of GenevaunigeBlack