UNIGE document Doctoral Thesis
previous document  unige:87920  next document
add to browser collection
Title

Le statisticien neuronal: comment la perspective bayesienne peut enrichir les neurosciences

Author
Directors
Mamassian, Pascal
Defense Thèse de doctorat : Univ. Genève, 2016 - Sc. 4976 - 2016/09/09
Abstract L'inférence Bayésienne représente un modèle mathématique de la prise de décision rationnelle. Elle est donc à même de répondre à des questions clés de la perception telles que: “Que faut-il que je crois, étant donné ce que j'ai perçu”? Cela en fait une source de modèles tant pour les sciences cognitives que pour les neurosciences (Knill et al. (2008)). En effet, nous pouvons prédire le comportement d'un sujet à l'aide du comportement d'un observateur Bayésien idéal du même stimulus. Nous pouvons alors demander comment l'activité de populations neuronales est capable d'implémenter les calculs demandés par cet observateur Bayésien idéal. Plus précisément, il nous faut comprendre comment le circuit neuronal est capable de transformer ses entrées sensorielles en une décision optimale tout en représentant un certain nombre d'étapes intermédiaires du calcul. Dans ce manuscrit de thèse, nous étudions deux tels modèles neuronaux qui implémentent une inférence Bayésienne. Avant de se poser la question des calculs, la question la plus fondamentale est celle de la représentation: il nous faut comprendre le format dans lequel l'information est représentée dans l'activité neuronale. Nous étudions cette question en premier, en utilisant l'hypothèse du codage efficace (“efficient coding hypothesis”) qui suppose que les populations neuronales représentent autant d'information que possible tout en minimisant leurs coûts physiologiques. Nous innovons par rapport à l'état de l'art de deux façons: nous modélisons une information limitée sur le stimulus d'intérêt, et nous considérons seulement l'information “facile à extraire” dans l'activité neuronale. Nous nous tournons ensuite vers un second modèle: nous étudions comment les animaux comme les chouettes sont capables de localiser la source d'un son dans l'espace. Nous démontrons qu'un observateur idéal simplifié explique simultanément le comportement des animaux et les données électrophysiologiques, tout en faisant des prédictions extrêmement différentes des modèles classiques. Dans une seconde partie, nous étudions des questions de statistiques théoriques. Plus précisément, nous étudions les propriétés de l'algorithme d'inférence approximée “Expectation Propagation” (“propagation de l'espérance”). Cet algorithme est en effet prometteur pour modéliser comment le cerveau est capable d'implémenter les méthodes Bayésiennes sur des modèles génératifs complexes, mais il est aussi très peu compris. Nous présentons deux résultats nouveaux sur cet algorithme. Nous montrons en premier lieu que la dynamique de l'algorithme est très proche de la méthode de Newton mais aussi d'une méthode de Newton “lissée” qui calcule l'approximation Gaussienne variationelle d'une distribution de probabilité donnée. Nous montrons ensuite que les approximations Gaussiennes d'Expectation Propagation et variationelle sont de meilleures approximations que l'approximation classique dite “de Laplace”, dans la limite d'un grand nombre d'observations, ce qui confirme l'état de l'art empirique sur ces méthodes.
Keywords Neurosciencecomputational neuroscienceApproximate inferenceBayesian inference
Identifiers
URN: urn:nbn:ch:unige-879200
Full text
Thesis (3.6 MB) - document accessible for UNIGE members only Limited access to UNIGE
Structures
Research group Groupe Alexandre Pouget (938)
Citation
(ISO format)
DEHAENE, Guillaume. Le statisticien neuronal: comment la perspective bayesienne peut enrichir les neurosciences. Université de Genève. Thèse, 2016. https://archive-ouverte.unige.ch/unige:87920

211 hits

3 downloads

Update

Deposited on : 2016-10-03

Export document
Format :
Citation style :