Summary

Een open-source virtual reality-systeem voor het meten van ruimtelijk leren bij hoofdremmende muizen

Published: March 03, 2023
doi:

Summary

Hier presenteren we een vereenvoudigde open-source hardware- en software-opstelling voor het onderzoeken van ruimtelijk leren van muizen met behulp van virtual reality (VR). Dit systeem toont een virtueel lineair spoor naar een hoofd-ingetogen muis die op een wiel draait door gebruik te maken van een netwerk van microcontrollers en een single-board computer met een eenvoudig te gebruiken Python grafisch softwarepakket.

Abstract

Hoofd-ingetogen gedragsexperimenten bij muizen stellen neurowetenschappers in staat om neurale circuitactiviteit te observeren met elektrofysiologische en optische beeldvormingshulpmiddelen met hoge resolutie, terwijl ze nauwkeurige sensorische stimuli leveren aan een zich gedragend dier. Onlangs hebben menselijke en knaagdierstudies met behulp van virtual reality (VR) -omgevingen aangetoond dat VR een belangrijk hulpmiddel is voor het blootleggen van de neurale mechanismen die ten grondslag liggen aan ruimtelijk leren in de hippocampus en cortex, vanwege de uiterst nauwkeurige controle over parameters zoals ruimtelijke en contextuele signalen. Het opzetten van virtuele omgevingen voor ruimtelijk gedrag van knaagdieren kan echter duur zijn en vereist een uitgebreide achtergrond in engineering en computerprogrammering. Hier presenteren we een eenvoudig maar krachtig systeem op basis van goedkope, modulaire, open-source hardware en software waarmee onderzoekers ruimtelijk leren kunnen bestuderen in hoofd-ingetogen muizen met behulp van een VR-omgeving. Dit systeem maakt gebruik van gekoppelde microcontrollers om de voortbeweging te meten en gedragsstimuli te leveren, terwijl hoofd-ingehouden muizen op een wiel rennen in combinatie met een virtuele lineaire spooromgeving die wordt weergegeven door een grafisch softwarepakket dat op een single-board computer draait. De nadruk op gedistribueerde verwerking stelt onderzoekers in staat om flexibele, modulaire systemen te ontwerpen om complex ruimtelijk gedrag bij muizen uit te lokken en te meten om het verband tussen neurale circuitactiviteit en ruimtelijk leren in het zoogdierbrein te bepalen.

Introduction

Ruimtelijke navigatie is een ethologisch belangrijk gedrag waarbij dieren de kenmerken van nieuwe locaties coderen in een cognitieve kaart, die wordt gebruikt voor het vinden van gebieden met mogelijke beloning en het vermijden van gebieden met potentieel gevaar. Onlosmakelijk verbonden met het geheugen, delen de cognitieve processen die ten grondslag liggen aan ruimtelijke navigatie een neuraal substraat in de hippocampus1 en cortex, waar neurale circuits in deze gebieden binnenkomende informatie integreren en cognitieve kaarten van omgevingen en gebeurtenissen vormen voor latere herinnering2. Hoewel de ontdekking van plaatscellen in de hippocampus3,4 en rastercellen in de entorhinale cortex5 licht heeft geworpen op hoe de cognitieve kaart in de hippocampus wordt gevormd, blijven er veel vragen over hoe specifieke neurale subtypen, microcircuits en individuele subregio’s van de hippocampus (de gyrus dentate en cornu ammonis-gebieden, CA3-1) interageren en deelnemen aan ruimtelijke geheugenvorming en -herinnering.

In vivo beeldvorming van twee fotonen is een nuttig hulpmiddel geweest bij het blootleggen van cellulaire en populatiedynamiek in sensorische neurofysiologie 6,7; De typische noodzaak voor hoofdsteun beperkt echter het nut van deze methode voor het onderzoeken van ruimtelijk gedrag van zoogdieren. De komst van virtual reality (VR)8 heeft deze tekortkoming aangepakt door meeslepende en realistische visuospatiale omgevingen te presenteren terwijl hoofd-ingetogen muizen op een bal of loopband rennen om ruimtelijke en contextuele codering in de hippocampus 8,9,10 en cortex 11 te bestuderen. Bovendien heeft het gebruik van VR-omgevingen met zich gedragende muizen neurowetenschappelijke onderzoekers in staat gesteld om de componenten van ruimtelijk gedrag te ontleden door de elementen van de VR-omgeving12 (bijv. Visuele stroom, contextuele modulatie) nauwkeurig te regelen op manieren die niet mogelijk zijn in real-world experimenten van ruimtelijk leren, zoals het Morris waterdoolhof, Barnes doolhof of hole board-taken.

Visuele VR-omgevingen worden meestal gerenderd op de grafische verwerkingseenheid (GPU) van een computer, die de belasting van het snel berekenen van de duizenden polygonen verwerkt die nodig zijn om een bewegende 3D-omgeving in realtime op een scherm te modelleren. De grote verwerkingsvereisten vereisen over het algemeen het gebruik van een afzonderlijke pc met een GPU die de visuele omgeving weergeeft aan een monitor, meerdere schermen13 of een projector14 terwijl de beweging wordt opgenomen vanaf een loopband, wiel of schuimbal onder het dier. Het resulterende apparaat voor het besturen, renderen en projecteren van de VR-omgeving is daarom relatief duur, omvangrijk en omslachtig. Bovendien zijn veel van dergelijke omgevingen in de literatuur geïmplementeerd met behulp van propriëtaire software die zowel duur is als alleen op een speciale pc kan worden uitgevoerd.

Om deze redenen hebben we een open-source VR-systeem ontworpen om ruimtelijk leergedrag bij hoofd-ingetogen muizen te bestuderen met behulp van een Raspberry Pi single-board computer. Deze Linux-computer is zowel klein als goedkoop, maar bevat een GPU-chip voor 3D-rendering, waardoor VR-omgevingen kunnen worden geïntegreerd met het weergave- of gedragsapparaat in verschillende individuele opstellingen. Verder hebben we een grafisch softwarepakket ontwikkeld dat is geschreven in Python, “HallPassVR”, dat de single-board computer gebruikt om een eenvoudige visuospatiale omgeving, een virtuele lineaire track of gang weer te geven, door aangepaste visuele functies die zijn geselecteerd met behulp van een grafische gebruikersinterface (GUI) opnieuw te combineren. Dit wordt gecombineerd met microcontroller-subsystemen (bijv. ESP32 of Arduino) om voortbeweging te meten en gedrag te coördineren, zoals door de levering van andere modaliteiten van sensorische stimuli of beloningen om reinforcement learning te vergemakkelijken. Dit systeem biedt een goedkope, flexibele en eenvoudig te gebruiken alternatieve methode voor het leveren van visuospatiale VR-omgevingen aan hoofd-ingehouden muizen tijdens twee-foton beeldvorming (of andere technieken die hoofdfixatie vereisen) voor het bestuderen van de neurale circuits die ten grondslag liggen aan ruimtelijk leergedrag.

Protocol

Alle procedures in dit protocol zijn goedgekeurd door de Institutional Animal Care and Use Committee van het New York State Psychiatric Institute. OPMERKING: Een single-board computer wordt gebruikt om een VR visuele omgeving weer te geven die gecoördineerd is met het draaien van een hoofd-ingehouden muis op een wiel. Bewegingsinformatie wordt ontvangen als seriële invoer van een ESP32-microcontroller die een roterende encoder leest die aan de wielas is gekoppeld. De VR-omgeving wordt gerend…

Representative Results

Deze open-source virtual reality-gedragsopstelling stelde ons in staat om likgedrag te kwantificeren als een uitlezing van ruimtelijk leren terwijl hoofd-ingetogen muizen door een virtuele lineaire spooromgeving navigeerden. Zeven C57BL / 6-muizen van beide geslachten op de leeftijd van 4 maanden werden op een beperkt waterschema geplaatst en eerst getraind om continu op lage niveaus te likken terwijl ze op het wiel liepen voor willekeurige ruimtelijke beloningen (“willekeurig foerageren”) zonder VR. Hoewel hun prestatie…

Discussion

Dit open-source VR-systeem voor muizen werkt alleen als de seriële verbindingen goed zijn gemaakt tussen de roterende en gedragsmatige ESP32-microcontrollers en de single-board computer (stap 2), wat kan worden bevestigd met behulp van de IDE seriële monitor (stap 2.4.5). Voor succesvolle gedragsresultaten van dit protocol (stap 4), moeten de muizen gewend zijn aan het apparaat en comfortabel op het wiel lopen voor vloeibare beloningen (stappen 4.3-4.5). Dit vereist voldoende (maar niet overmatige) waterbeperking, omda…

Disclosures

The authors have nothing to disclose.

Acknowledgements

We willen Noah Pettit van het Harvey-lab bedanken voor de discussie en suggesties tijdens het ontwikkelen van het protocol in dit manuscript. Dit werk werd ondersteund door een BBRF Young Investigator Award en NIMH 1R21MH122965 (G.F.T.), naast NINDS R56NS128177 (R.H., C.L.) en NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video