Summary

Um Sistema de Realidade Virtual de Código Aberto para a Medição da Aprendizagem Espacial em Camundongos Contidos na Cabeça

Published: March 03, 2023
doi:

Summary

Aqui, apresentamos uma configuração simplificada de hardware e software de código aberto para investigar o aprendizado espacial de mouse usando realidade virtual (RV). Este sistema exibe uma trilha linear virtual para um mouse com restrição de cabeça rodando em uma roda utilizando uma rede de microcontroladores e um computador de placa única executando um pacote de software gráfico Python fácil de usar.

Abstract

Experimentos comportamentais contidos na cabeça em camundongos permitem que os neurocientistas observem a atividade do circuito neural com ferramentas de imagem eletrofisiológica e óptica de alta resolução, ao mesmo tempo em que fornecem estímulos sensoriais precisos a um animal que se comporta. Recentemente, estudos em humanos e roedores utilizando ambientes de realidade virtual (RV) têm mostrado que a RV é uma importante ferramenta para descobrir os mecanismos neurais subjacentes ao aprendizado espacial no hipocampo e córtex, devido ao controle extremamente preciso sobre parâmetros como pistas espaciais e contextuais. A configuração de ambientes virtuais para comportamentos espaciais de roedores pode, no entanto, ser cara e exigir uma extensa formação em engenharia e programação de computadores. Aqui, apresentamos um sistema simples, mas poderoso, baseado em hardware e software baratos, modulares e de código aberto que permite aos pesquisadores estudar o aprendizado espacial em camundongos com restrição de cabeça usando um ambiente de RV. Este sistema usa microcontroladores acoplados para medir a locomoção e fornecer estímulos comportamentais enquanto ratos com a cabeça contida correm em uma roda em conjunto com um ambiente de trilha linear virtual renderizado por um pacote de software gráfico executado em um computador de placa única. A ênfase no processamento distribuído permite que os pesquisadores projetem sistemas flexíveis e modulares para eliciar e medir comportamentos espaciais complexos em camundongos, a fim de determinar a conexão entre a atividade do circuito neural e o aprendizado espacial no cérebro de mamíferos.

Introduction

A navegação espacial é um comportamento etologicamente importante pelo qual os animais codificam as características de novos locais em um mapa cognitivo, que é usado para encontrar áreas de possível recompensa e evitar áreas de perigo potencial. Inextricavelmente ligados à memória, os processos cognitivos subjacentes à navegação espacial compartilham um substrato neural no hipocampo1 e córtex, onde circuitos neurais nessas áreas integram informações recebidas e formam mapas cognitivos de ambientes e eventos para posterior recordação2. Embora a descoberta de células de lugar no hipocampo3,4 e células de grade no córtex entorrinal5 tenha lançado luz sobre como o mapa cognitivo dentro do hipocampo é formado, muitas questões permanecem sobre como subtipos neurais específicos, microcircuitos e sub-regiões individuais do hipocampo (o giro denteado e áreas de cornu amonis, CA3-1) interagem e participam da formação e evocação da memória espacial.

A imagem in vivo de dois fótons tem sido uma ferramenta útil na descoberta da dinâmica celular e populacional em neurofisiologia sensorial 6,7; no entanto, a necessidade típica de apoio de cabeça limita a utilidade deste método para examinar o comportamento espacial de mamíferos. O advento da realidade virtual (RV)8 abordou essa lacuna ao apresentar ambientes visuoespaciais imersivos e realistas enquanto camundongos com restrição da cabeça correm em uma bola ou esteira para estudar a codificação espacial e contextual no hipocampo 8,9,10 e córtex 11. Além disso, o uso de ambientes de RV com camundongos que se comportam permitiu que os pesquisadores da neurociência dissecassem os componentes do comportamento espacial controlando precisamente os elementos do ambiente de RV12 (por exemplo, fluxo visual, modulação contextual) de maneiras não possíveis em experimentos do mundo real de aprendizagem espacial, como o labirinto aquático de Morris, labirinto de Barnes ou tarefas de hole board.

Ambientes de RV visual são normalmente renderizados na unidade de processamento gráfico (GPU) de um computador, que lida com a carga de computação rápida dos milhares de polígonos necessários para modelar um ambiente 3D em movimento em uma tela em tempo real. Os grandes requisitos de processamento geralmente exigem o uso de um PC separado com uma GPU que renderiza o ambiente visual para um monitor, várias telas13 ou um projetor14 , pois o movimento é gravado de uma esteira, roda ou bola de espuma sob o animal. O aparato resultante para controlar, renderizar e projetar o ambiente de RV é, portanto, relativamente caro, volumoso e pesado. Além disso, muitos desses ambientes na literatura foram implementados usando software proprietário que é caro e só pode ser executado em um PC dedicado.

Por essas razões, projetamos um sistema de RV de código aberto para estudar comportamentos de aprendizagem espacial em camundongos com restrição de cabeça usando um computador de placa única Raspberry Pi. Este computador Linux é pequeno e barato, mas contém um chip GPU para renderização 3D, permitindo a integração de ambientes VR com o display ou aparato comportamental em configurações individuais variadas. Além disso, desenvolvemos um pacote gráfico escrito em Python, “HallPassVR”, que utiliza o computador de placa única para renderizar um ambiente visuoespacial simples, uma trilha linear virtual ou corredor, recombinando recursos visuais personalizados selecionados usando uma interface gráfica do usuário (GUI). Isso é combinado com subsistemas de microcontroladores (por exemplo, ESP32 ou Arduino) para medir a locomoção e coordenar o comportamento, como a entrega de outras modalidades de estímulos sensoriais ou recompensas para facilitar o aprendizado por reforço. Este sistema fornece um método alternativo barato, flexível e fácil de usar para fornecer ambientes de RV visuoespaciais para camundongos com restrição de cabeça durante imagens de dois fótons (ou outras técnicas que exigem fixação da cabeça) para estudar os circuitos neurais subjacentes ao comportamento de aprendizagem espacial.

Protocol

Todos os procedimentos deste protocolo foram aprovados pelo Comitê Institucional de Cuidados e Uso de Animais do New York State Psychiatric Institute. NOTA: Um computador de placa única é usado para exibir um ambiente visual de RV coordenado com a execução de um mouse com restrição de cabeça em uma roda. As informações de movimento são recebidas como entrada serial de um microcontrolador ESP32 lendo um encoder rotativo acoplado ao eixo da roda. O ambiente VR é renderizado usando ac…

Representative Results

Essa configuração comportamental de realidade virtual de código aberto nos permitiu quantificar o comportamento de lamber como uma leitura do aprendizado espacial enquanto camundongos com a cabeça contida navegavam em um ambiente de trilha linear virtual. Sete camundongos C57BL/6 de ambos os sexos aos 4 meses de idade foram colocados em um esquema de água restrita e primeiro treinados para lamber continuamente em níveis baixos enquanto corriam na roda para recompensas espaciais aleatórias (“forrageamento aleatóri…

Discussion

Este sistema VR de código aberto para ratos só funcionará se as conexões seriais forem feitas corretamente entre os microcontroladores ESP32 rotativos e comportamentais e o computador de placa única (etapa 2), o que pode ser confirmado usando o monitor serial IDE (etapa 2.4.5). Para obter resultados comportamentais bem-sucedidos deste protocolo (passo 4), os camundongos devem estar habituados ao aparelho e estar confortáveis correndo na roda para obter recompensas líquidas (passos 4.3-4.5). Isso requer restrição…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Gostaríamos de agradecer a Noah Pettit do laboratório Harvey pela discussão e sugestões durante o desenvolvimento do protocolo neste manuscrito. Este trabalho foi apoiado por um BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), além de NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video