Summary

Un système de réalité virtuelle open-source pour la mesure de l’apprentissage spatial chez des souris retenues par la tête

Published: March 03, 2023
doi:

Summary

Ici, nous présentons une configuration matérielle et logicielle open source simplifiée pour étudier l’apprentissage spatial de la souris à l’aide de la réalité virtuelle (VR). Ce système affiche une piste linéaire virtuelle vers une souris retenue par la tête fonctionnant sur une roue en utilisant un réseau de microcontrôleurs et un ordinateur monocarte exécutant un logiciel graphique Python facile à utiliser.

Abstract

Les expériences comportementales restreintes à la tête chez la souris permettent aux neuroscientifiques d’observer l’activité des circuits neuronaux avec des outils d’imagerie électrophysiologique et optique à haute résolution tout en fournissant des stimuli sensoriels précis à un animal qui se comporte. Récemment, des études sur les humains et les rongeurs utilisant des environnements de réalité virtuelle (RV) ont montré que la RV est un outil important pour découvrir les mécanismes neuronaux sous-jacents à l’apprentissage spatial dans l’hippocampe et le cortex, en raison du contrôle extrêmement précis de paramètres tels que les indices spatiaux et contextuels. La mise en place d’environnements virtuels pour les comportements spatiaux des rongeurs peut toutefois être coûteuse et nécessiter une vaste expérience en ingénierie et en programmation informatique. Ici, nous présentons un système simple mais puissant basé sur du matériel et des logiciels peu coûteux, modulaires et open source qui permet aux chercheurs d’étudier l’apprentissage spatial chez des souris retenues à la tête en utilisant un environnement VR. Ce système utilise des microcontrôleurs couplés pour mesurer la locomotion et fournir des stimuli comportementaux tandis que des souris retenues par la tête courent sur une roue de concert avec un environnement de piste linéaire virtuel rendu par un progiciel graphique fonctionnant sur un ordinateur monocarte. L’accent mis sur le traitement distribué permet aux chercheurs de concevoir des systèmes flexibles et modulaires pour susciter et mesurer des comportements spatiaux complexes chez la souris afin de déterminer le lien entre l’activité des circuits neuronaux et l’apprentissage spatial dans le cerveau des mammifères.

Introduction

La navigation spatiale est un comportement éthologiquement important par lequel les animaux codent les caractéristiques de nouveaux emplacements dans une carte cognitive, qui est utilisée pour trouver des zones de récompense possible et éviter les zones de danger potentiel. Inextricablement liés à la mémoire, les processus cognitifs sous-jacents à la navigation spatiale partagent un substrat neuronal dans l’hippocampe1 et le cortex, où les circuits neuronaux de ces zones intègrent les informations entrantes et forment des cartes cognitives des environnements et des événements pour un rappel ultérieur2. Alors que la découverte de cellules de lieu dans l’hippocampe3,4 et de cellules de grille dans le cortex entorhinal5 a mis en lumière la façon dont la carte cognitive dans l’hippocampe est formée, de nombreuses questions demeurent sur la façon dont les sous-types neuronaux spécifiques, les microcircuits et les sous-régions individuelles de l’hippocampe (le gyrus denté et les aires cornu ammonis, CA3-1) interagissent et participent à la formation et au rappel de la mémoire spatiale.

L’imagerie in vivo à deux photons a été un outil utile pour découvrir la dynamique cellulaire et des populations en neurophysiologie sensorielle 6,7; Cependant, la nécessité typique d’un appuie-tête limite l’utilité de cette méthode pour examiner le comportement spatial des mammifères. L’avènement de la réalité virtuelle (RV)8 a comblé cette lacune en présentant des environnements visuospatiaux immersifs et réalistes tandis que des souris retenues à la tête courent sur une balle ou un tapis roulant pour étudier l’encodage spatial et contextuel dans l’hippocampe 8,9,10 et le cortex 11. De plus, l’utilisation d’environnements de RV avec des souris se comportant a permis aux chercheurs en neurosciences de disséquer les composantes du comportement spatial en contrôlant avec précision les éléments de l’environnement VR12 (par exemple, le flux visuel, la modulation contextuelle) d’une manière qui n’est pas possible dans les expériences réelles d’apprentissage spatial, telles que le labyrinthe aquatique Morris, le labyrinthe Barnes ou les tâches de planche de trous.

Les environnements de réalité virtuelle visuelle sont généralement rendus sur l’unité de traitement graphique (GPU) d’un ordinateur, qui gère la charge de calcul rapide des milliers de polygones nécessaires pour modéliser un environnement 3D en mouvement sur un écran en temps réel. Les exigences de traitement importantes nécessitent généralement l’utilisation d’un PC séparé avec un GPU qui rend l’environnement visuel sur un moniteur, plusieurs écrans13 ou un projecteur14 lorsque le mouvement est enregistré à partir d’un tapis roulant, d’une roue ou d’une balle en mousse sous l’animal. L’appareil résultant pour contrôler, rendre et projeter l’environnement VR est donc relativement coûteux, encombrant et encombrant. En outre, de nombreux environnements de ce type dans la littérature ont été mis en œuvre à l’aide de logiciels propriétaires qui sont à la fois coûteux et ne peuvent être exécutés que sur un PC dédié.

Pour ces raisons, nous avons conçu un système de RV open-source pour étudier les comportements d’apprentissage spatial chez des souris retenues à la tête à l’aide d’un ordinateur monocarte Raspberry Pi. Cet ordinateur Linux est à la fois petit et peu coûteux mais contient une puce GPU pour le rendu 3D, permettant l’intégration d’environnements VR avec l’appareil d’affichage ou comportemental dans diverses configurations individuelles. De plus, nous avons développé un logiciel graphique écrit en Python, « HallPassVR », qui utilise l’ordinateur monocarte pour rendre un environnement visuospatial simple, une piste linéaire virtuelle ou un couloir, en recombinant des caractéristiques visuelles personnalisées sélectionnées à l’aide d’une interface utilisateur graphique (GUI). Ceci est combiné avec des sous-systèmes de microcontrôleurs (par exemple, ESP32 ou Arduino) pour mesurer la locomotion et coordonner le comportement, par exemple par la livraison d’autres modalités de stimuli sensoriels ou de récompenses pour faciliter l’apprentissage par renforcement. Ce système fournit une méthode alternative peu coûteuse, flexible et facile à utiliser pour fournir des environnements de RV visuospatiaux à des souris contraintes par la tête pendant l’imagerie à deux photons (ou d’autres techniques nécessitant une fixation de la tête) pour étudier les circuits neuronaux sous-jacents au comportement d’apprentissage spatial.

Protocol

Toutes les procédures de ce protocole ont été approuvées par le Comité institutionnel de soin et d’utilisation des animaux de l’Institut psychiatrique de l’État de New York. REMARQUE: Un ordinateur monocarte est utilisé pour afficher un environnement visuel VR coordonné avec le fonctionnement d’une souris retenue par la tête sur une molette. Les informations de mouvement sont reçues sous forme d’entrée série à partir d’un microcontrôleur ESP32 lisant un codeur rotatif…

Representative Results

Cette configuration comportementale de réalité virtuelle open source nous a permis de quantifier le comportement de léchage en tant que lecture de l’apprentissage spatial alors que des souris retenues à la tête naviguaient dans un environnement de piste linéaire virtuel. Sept souris C57BL / 6 des deux sexes à l’âge de 4 mois ont été placées sur un programme d’eau restreint et d’abord entraînées à lécher continuellement à de faibles niveaux tout en courant sur la roue pour des récompenses spatiale…

Discussion

Ce système VR open-source pour souris ne fonctionnera que si les connexions série sont établies correctement entre les microcontrôleurs rotatifs et de comportement ESP32 et l’ordinateur monocarte (étape 2), ce qui peut être confirmé à l’aide du moniteur série IDE (étape 2.4.5). Pour que les résultats comportementaux réussis de ce protocole (étape 4), les souris doivent être habituées à l’appareil et être à l’aise de courir sur la roue pour obtenir des récompenses liquides (étapes 4.3-4.5). Cel…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Nous tenons à remercier Noah Pettit du laboratoire Harvey pour la discussion et les suggestions lors de l’élaboration du protocole dans ce manuscrit. Ce travail a été soutenu par une bourse de jeune chercheur BBRF et NIMH 1R21MH122965 (G.F.T.), en plus de NINDS R56NS128177 (R.H., C.L.) et NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video