Summary

Un sistema de realidad virtual de código abierto para la medición del aprendizaje espacial en ratones con cabeza restringida

Published: March 03, 2023
doi:

Summary

Aquí, presentamos una configuración simplificada de hardware y software de código abierto para investigar el aprendizaje espacial del mouse utilizando realidad virtual (VR). Este sistema muestra una pista lineal virtual a un ratón con cabeza restringida que se ejecuta en una rueda utilizando una red de microcontroladores y una computadora de placa única que ejecuta un paquete de software gráfico Python fácil de usar.

Abstract

Los experimentos de comportamiento con la cabeza restringida en ratones permiten a los neurocientíficos observar la actividad del circuito neuronal con herramientas de imágenes electrofisiológicas y ópticas de alta resolución mientras administran estímulos sensoriales precisos a un animal que se comporta. Recientemente, estudios en humanos y roedores que utilizan entornos de realidad virtual (VR) han demostrado que la VR es una herramienta importante para descubrir los mecanismos neuronales subyacentes al aprendizaje espacial en el hipocampo y la corteza, debido al control extremadamente preciso sobre parámetros como las señales espaciales y contextuales. Sin embargo, la configuración de entornos virtuales para comportamientos espaciales de roedores puede ser costosa y requiere una amplia experiencia en ingeniería y programación de computadoras. Aquí, presentamos un sistema simple pero potente basado en hardware y software de código abierto, modular y económico que permite a los investigadores estudiar el aprendizaje espacial en ratones con cabeza restringida utilizando un entorno de realidad virtual. Este sistema utiliza microcontroladores acoplados para medir la locomoción y entregar estímulos de comportamiento mientras los ratones con cabeza restringida corren en una rueda en concierto con un entorno de pista lineal virtual renderizado por un paquete de software gráfico que se ejecuta en una computadora de placa única. El énfasis en el procesamiento distribuido permite a los investigadores diseñar sistemas flexibles y modulares para provocar y medir comportamientos espaciales complejos en ratones con el fin de determinar la conexión entre la actividad del circuito neuronal y el aprendizaje espacial en el cerebro de los mamíferos.

Introduction

La navegación espacial es un comportamiento etológicamente importante por el cual los animales codifican las características de nuevas ubicaciones en un mapa cognitivo, que se utiliza para encontrar áreas de posible recompensa y evitar áreas de peligro potencial. Inextricablemente vinculados con la memoria, los procesos cognitivos subyacentes a la navegación espacial comparten un sustrato neuronal en el hipocampo1 y la corteza, donde los circuitos neuronales en estas áreas integran la información entrante y forman mapas cognitivos de entornos y eventos para su posterior recuperación2. Si bien el descubrimiento de células de lugar en el hipocampo3,4 y células de cuadrícula en la corteza entorrinal5 ha arrojado luz sobre cómo se forma el mapa cognitivo dentro del hipocampo, quedan muchas preguntas sobre cómo los subtipos neuronales específicos, los microcircuitos y las subregiones individuales del hipocampo (el giro dentado y las áreas de cornu amonis, CA3-1) interactúan y participan en la formación y recuperación de la memoria espacial.

La imagen in vivo de dos fotones ha sido una herramienta útil para descubrir la dinámica celular y poblacional en neurofisiología sensorial 6,7; Sin embargo, la necesidad típica de reposacabezas limita la utilidad de este método para examinar el comportamiento espacial de los mamíferos. El advenimiento de la realidad virtual (VR)8 ha abordado esta deficiencia presentando entornos visuoespaciales inmersivos y realistas mientras los ratones con cabeza restringida corren en una pelota o cinta de correr para estudiar la codificación espacial y contextual en el hipocampo 8,9,10 y la corteza 11. Además, el uso de entornos de realidad virtual con ratones que se comportan ha permitido a los investigadores de neurociencia diseccionar los componentes del comportamiento espacial mediante el control preciso de los elementos del entorno de realidad virtual12 (por ejemplo, flujo visual, modulación contextual) de maneras que no son posibles en experimentos del mundo real de aprendizaje espacial, como el laberinto de agua de Morris, el laberinto de Barnes o las tareas de tablero de agujeros.

Los entornos de realidad virtual visual generalmente se representan en la unidad de procesamiento gráfico (GPU) de una computadora, que maneja la carga de calcular rápidamente los miles de polígonos necesarios para modelar un entorno 3D en movimiento en una pantalla en tiempo real. Los grandes requisitos de procesamiento generalmente requieren el uso de una PC separada con una GPU que renderiza el entorno visual en un monitor, múltiples pantallas13 o un proyector14 a medida que el movimiento se registra desde una cinta de correr, rueda o bola de espuma debajo del animal. El aparato resultante para controlar, renderizar y proyectar el entorno de realidad virtual es, por lo tanto, relativamente caro, voluminoso y engorroso. Además, muchos de estos entornos en la literatura se han implementado utilizando software propietario que es costoso y solo se puede ejecutar en una PC dedicada.

Por estas razones, hemos diseñado un sistema de realidad virtual de código abierto para estudiar los comportamientos de aprendizaje espacial en ratones con cabeza restringida utilizando una computadora de placa única Raspberry Pi. Esta computadora Linux es pequeña y económica, pero contiene un chip GPU para la representación 3D, lo que permite la integración de entornos de realidad virtual con la pantalla o el aparato de comportamiento en diversas configuraciones individuales. Además, hemos desarrollado un paquete de software gráfico escrito en Python, “HallPassVR”, que utiliza la computadora de placa única para representar un entorno visuoespacial simple, una pista lineal virtual o pasillo, mediante la recombinación de características visuales personalizadas seleccionadas mediante una interfaz gráfica de usuario (GUI). Esto se combina con subsistemas de microcontroladores (por ejemplo, ESP32 o Arduino) para medir la locomoción y coordinar el comportamiento, como por ejemplo mediante la entrega de otras modalidades de estímulos sensoriales o recompensas para facilitar el aprendizaje por refuerzo. Este sistema proporciona un método alternativo económico, flexible y fácil de usar para entregar entornos de realidad virtual visoespaciales a ratones con cabeza restringida durante imágenes de dos fotones (u otras técnicas que requieren fijación de la cabeza) para estudiar los circuitos neuronales subyacentes al comportamiento de aprendizaje espacial.

Protocol

Todos los procedimientos en este protocolo fueron aprobados por el Comité Institucional de Cuidado y Uso de Animales del Instituto Psiquiátrico del Estado de Nueva York. NOTA: Una computadora de placa única se utiliza para mostrar un entorno visual de realidad virtual coordinado con el funcionamiento de un mouse con retención de cabeza en una rueda. La información de movimiento se recibe como entrada en serie de un microcontrolador ESP32 que lee un codificador giratorio acoplado al eje de…

Representative Results

Esta configuración de comportamiento de realidad virtual de código abierto nos permitió cuantificar el comportamiento de lamido como una lectura del aprendizaje espacial a medida que los ratones con la cabeza restringida navegaban por un entorno de pista lineal virtual. Siete ratones C57BL / 6 de ambos sexos a los 4 meses de edad fueron colocados en un horario de agua restringido y primero entrenados para lamer continuamente a niveles bajos mientras corrían en la rueda para obtener recompensas espaciales aleatorias (…

Discussion

Este sistema VR de código abierto para ratones solo funcionará si las conexiones seriales se realizan correctamente entre los microcontroladores ESP32 giratorios y de comportamiento y la computadora de placa única (paso 2), que se puede confirmar utilizando el monitor serie IDE (paso 2.4.5). Para obtener resultados conductuales exitosos de este protocolo (paso 4), los ratones deben estar habituados al aparato y sentirse cómodos corriendo en la rueda para obtener recompensas líquidas (pasos 4.3-4.5). Esto requiere su…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Nos gustaría agradecer a Noah Pettit del laboratorio Harvey por la discusión y las sugerencias mientras desarrollamos el protocolo en este manuscrito. Este trabajo fue apoyado por un BBRF Young Investigator Award y NIMH 1R21MH122965 (G.F.T.), además de NINDS R56NS128177 (R.H., C.L.) y NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video