Summary

Un sistema di realtà virtuale open source per la misurazione dell'apprendimento spaziale in topi con la testa trattenuta

Published: March 03, 2023
doi:

Summary

Qui, presentiamo una configurazione hardware e software open source semplificata per studiare l’apprendimento spaziale del mouse utilizzando la realtà virtuale (VR). Questo sistema visualizza una traccia lineare virtuale a un mouse con la testa trattenuta che gira su una ruota utilizzando una rete di microcontrollori e un computer a scheda singola che esegue un pacchetto software grafico Python facile da usare.

Abstract

Gli esperimenti comportamentali sui topi consentono ai neuroscienziati di osservare l’attività del circuito neurale con strumenti di imaging elettrofisiologico e ottico ad alta risoluzione, fornendo al contempo precisi stimoli sensoriali a un animale che si comporta. Recentemente, studi sull’uomo e sui roditori che utilizzano ambienti di realtà virtuale (VR) hanno dimostrato che la realtà virtuale è uno strumento importante per scoprire i meccanismi neurali alla base dell’apprendimento spaziale nell’ippocampo e nella corteccia, grazie al controllo estremamente preciso su parametri come segnali spaziali e contestuali. La creazione di ambienti virtuali per i comportamenti spaziali dei roditori può, tuttavia, essere costosa e richiedere un ampio background in ingegneria e programmazione informatica. Qui, presentiamo un sistema semplice ma potente basato su hardware e software open source economico, modulare e che consente ai ricercatori di studiare l’apprendimento spaziale in topi con la testa trattenuta utilizzando un ambiente VR. Questo sistema utilizza microcontrollori accoppiati per misurare la locomozione e fornire stimoli comportamentali mentre i topi trattenuti dalla testa corrono su una ruota in concerto con un ambiente di binario lineare virtuale reso da un pacchetto software grafico in esecuzione su un computer a scheda singola. L’enfasi sull’elaborazione distribuita consente ai ricercatori di progettare sistemi flessibili e modulari per suscitare e misurare comportamenti spaziali complessi nei topi al fine di determinare la connessione tra l’attività del circuito neurale e l’apprendimento spaziale nel cervello dei mammiferi.

Introduction

La navigazione spaziale è un comportamento etologicamente importante con cui gli animali codificano le caratteristiche di nuove posizioni in una mappa cognitiva, che viene utilizzata per trovare aree di possibile ricompensa ed evitare aree di potenziale pericolo. Inestricabilmente legati alla memoria, i processi cognitivi alla base della navigazione spaziale condividono un substrato neurale nell’ippocampo1 e nella corteccia, dove i circuiti neurali in queste aree integrano le informazioni in entrata e formano mappe cognitive di ambienti ed eventi per il successivo richiamo2. Mentre la scoperta delle cellule di posizione nell’ippocampo3,4 e delle cellule griglia nella corteccia entorinale5 ha fatto luce su come si forma la mappa cognitiva all’interno dell’ippocampo, rimangono molte domande su come specifici sottotipi neurali, microcircuiti e singole sottoregioni dell’ippocampo (il giro dentato e le aree di cornu ammonis, CA3-1) interagiscono e partecipano alla formazione e al richiamo della memoria spaziale.

L’imaging a due fotoni in vivo è stato uno strumento utile per scoprire le dinamiche cellulari e di popolazione nella neurofisiologia sensoriale 6,7; Tuttavia, la tipica necessità di poggiatesta limita l’utilità di questo metodo per esaminare il comportamento spaziale dei mammiferi. L’avvento della realtà virtuale (VR)8 ha affrontato questa carenza presentando ambienti visuospaziali immersivi e realistici mentre topi con la testa trattenuta corrono su una palla o un tapis roulant per studiare la codifica spaziale e contestuale nell’ippocampo 8,9,10 e nella corteccia 11. Inoltre, l’uso di ambienti VR con topi che si comportano ha permesso ai ricercatori di neuroscienze di sezionare le componenti del comportamento spaziale controllando con precisione gli elementi dell’ambiente VR12 (ad esempio, flusso visivo, modulazione contestuale) in modi non possibili negli esperimenti del mondo reale di apprendimento spaziale, come il labirinto d’acqua di Morris, il labirinto di Barnes o le attività di holboard.

Gli ambienti VR visivi sono tipicamente renderizzati sull’unità di elaborazione grafica (GPU) di un computer, che gestisce il carico di calcolo rapido delle migliaia di poligoni necessari per modellare un ambiente 3D in movimento su uno schermo in tempo reale. I grandi requisiti di elaborazione richiedono generalmente l’uso di un PC separato con una GPU che esegue il rendering dell’ambiente visivo su un monitor, più schermi13 o un proiettore14 mentre il movimento viene registrato da un tapis roulant, una ruota o una palla di schiuma sotto l’animale. L’apparato risultante per il controllo, il rendering e la proiezione dell’ambiente VR è, quindi, relativamente costoso, ingombrante e ingombrante. Inoltre, molti di questi ambienti in letteratura sono stati implementati utilizzando software proprietario che è costoso e può essere eseguito solo su un PC dedicato.

Per questi motivi, abbiamo progettato un sistema VR open source per studiare i comportamenti di apprendimento spaziale nei topi con controllo della testa utilizzando un computer a scheda singola Raspberry Pi. Questo computer Linux è piccolo ed economico, ma contiene un chip GPU per il rendering 3D, consentendo l’integrazione di ambienti VR con il display o l’apparato comportamentale in varie configurazioni individuali. Inoltre, abbiamo sviluppato un pacchetto software grafico scritto in Python, “HallPassVR”, che utilizza il computer a scheda singola per rendere un semplice ambiente visuospaziale, una traccia lineare virtuale o un corridoio, ricombinando caratteristiche visive personalizzate selezionate utilizzando un’interfaccia utente grafica (GUI). Questo è combinato con sottosistemi di microcontrollori (ad esempio, ESP32 o Arduino) per misurare la locomozione e coordinare il comportamento, ad esempio mediante la consegna di altre modalità di stimoli sensoriali o ricompense per facilitare l’apprendimento per rinforzo. Questo sistema fornisce un metodo alternativo economico, flessibile e facile da usare per fornire ambienti VR visuospaziali a topi con ritenuta della testa durante l’imaging a due fotoni (o altre tecniche che richiedono la fissazione della testa) per studiare i circuiti neurali alla base del comportamento di apprendimento spaziale.

Protocol

Tutte le procedure di questo protocollo sono state approvate dall’Institutional Animal Care and Use Committee del New York State Psychiatric Institute. NOTA: un computer a scheda singola viene utilizzato per visualizzare un ambiente visivo VR coordinato con l’esecuzione di un mouse con ritenuta per la testa su una ruota. Le informazioni di movimento vengono ricevute come input seriale da un microcontrollore ESP32 che legge un encoder rotativo accoppiato all’asse ruota. L’ambiente VR viene rend…

Representative Results

Questa configurazione comportamentale di realtà virtuale open source ci ha permesso di quantificare il comportamento di licking come una lettura dell’apprendimento spaziale mentre i topi con la testa trattenuta navigavano in un ambiente di binario lineare virtuale. Sette topi C57BL / 6 di entrambi i sessi a 4 mesi di età sono stati sottoposti a un programma di acqua limitato e prima addestrati a leccare continuamente a bassi livelli mentre correvano sulla ruota per ricompense spaziali casuali (“foraggiamento casuale”) …

Discussion

Questo sistema VR open source per mouse funzionerà solo se le connessioni seriali sono effettuate correttamente tra i microcontrollori rotativi e comportamentali ESP32 e il computer a scheda singola (passaggio 2), che può essere confermato utilizzando il monitor seriale IDE (passaggio 2.4.5). Per risultati comportamentali di successo da questo protocollo (fase 4), i topi devono essere abituati all’apparato ed essere a proprio agio nel correre sulla ruota per ricompense liquide (passaggi 4.3-4.5). Ciò richiede una rest…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Vorremmo ringraziare Noah Pettit del laboratorio Harvey per la discussione e i suggerimenti durante lo sviluppo del protocollo in questo manoscritto. Questo lavoro è stato supportato da un BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), oltre a NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video