Ici, nous présentons une configuration matérielle et logicielle open source simplifiée pour étudier l’apprentissage spatial de la souris à l’aide de la réalité virtuelle (VR). Ce système affiche une piste linéaire virtuelle vers une souris retenue par la tête fonctionnant sur une roue en utilisant un réseau de microcontrôleurs et un ordinateur monocarte exécutant un logiciel graphique Python facile à utiliser.
Les expériences comportementales restreintes à la tête chez la souris permettent aux neuroscientifiques d’observer l’activité des circuits neuronaux avec des outils d’imagerie électrophysiologique et optique à haute résolution tout en fournissant des stimuli sensoriels précis à un animal qui se comporte. Récemment, des études sur les humains et les rongeurs utilisant des environnements de réalité virtuelle (RV) ont montré que la RV est un outil important pour découvrir les mécanismes neuronaux sous-jacents à l’apprentissage spatial dans l’hippocampe et le cortex, en raison du contrôle extrêmement précis de paramètres tels que les indices spatiaux et contextuels. La mise en place d’environnements virtuels pour les comportements spatiaux des rongeurs peut toutefois être coûteuse et nécessiter une vaste expérience en ingénierie et en programmation informatique. Ici, nous présentons un système simple mais puissant basé sur du matériel et des logiciels peu coûteux, modulaires et open source qui permet aux chercheurs d’étudier l’apprentissage spatial chez des souris retenues à la tête en utilisant un environnement VR. Ce système utilise des microcontrôleurs couplés pour mesurer la locomotion et fournir des stimuli comportementaux tandis que des souris retenues par la tête courent sur une roue de concert avec un environnement de piste linéaire virtuel rendu par un progiciel graphique fonctionnant sur un ordinateur monocarte. L’accent mis sur le traitement distribué permet aux chercheurs de concevoir des systèmes flexibles et modulaires pour susciter et mesurer des comportements spatiaux complexes chez la souris afin de déterminer le lien entre l’activité des circuits neuronaux et l’apprentissage spatial dans le cerveau des mammifères.
La navigation spatiale est un comportement éthologiquement important par lequel les animaux codent les caractéristiques de nouveaux emplacements dans une carte cognitive, qui est utilisée pour trouver des zones de récompense possible et éviter les zones de danger potentiel. Inextricablement liés à la mémoire, les processus cognitifs sous-jacents à la navigation spatiale partagent un substrat neuronal dans l’hippocampe1 et le cortex, où les circuits neuronaux de ces zones intègrent les informations entrantes et forment des cartes cognitives des environnements et des événements pour un rappel ultérieur2. Alors que la découverte de cellules de lieu dans l’hippocampe3,4 et de cellules de grille dans le cortex entorhinal5 a mis en lumière la façon dont la carte cognitive dans l’hippocampe est formée, de nombreuses questions demeurent sur la façon dont les sous-types neuronaux spécifiques, les microcircuits et les sous-régions individuelles de l’hippocampe (le gyrus denté et les aires cornu ammonis, CA3-1) interagissent et participent à la formation et au rappel de la mémoire spatiale.
L’imagerie in vivo à deux photons a été un outil utile pour découvrir la dynamique cellulaire et des populations en neurophysiologie sensorielle 6,7; Cependant, la nécessité typique d’un appuie-tête limite l’utilité de cette méthode pour examiner le comportement spatial des mammifères. L’avènement de la réalité virtuelle (RV)8 a comblé cette lacune en présentant des environnements visuospatiaux immersifs et réalistes tandis que des souris retenues à la tête courent sur une balle ou un tapis roulant pour étudier l’encodage spatial et contextuel dans l’hippocampe 8,9,10 et le cortex 11. De plus, l’utilisation d’environnements de RV avec des souris se comportant a permis aux chercheurs en neurosciences de disséquer les composantes du comportement spatial en contrôlant avec précision les éléments de l’environnement VR12 (par exemple, le flux visuel, la modulation contextuelle) d’une manière qui n’est pas possible dans les expériences réelles d’apprentissage spatial, telles que le labyrinthe aquatique Morris, le labyrinthe Barnes ou les tâches de planche de trous.
Les environnements de réalité virtuelle visuelle sont généralement rendus sur l’unité de traitement graphique (GPU) d’un ordinateur, qui gère la charge de calcul rapide des milliers de polygones nécessaires pour modéliser un environnement 3D en mouvement sur un écran en temps réel. Les exigences de traitement importantes nécessitent généralement l’utilisation d’un PC séparé avec un GPU qui rend l’environnement visuel sur un moniteur, plusieurs écrans13 ou un projecteur14 lorsque le mouvement est enregistré à partir d’un tapis roulant, d’une roue ou d’une balle en mousse sous l’animal. L’appareil résultant pour contrôler, rendre et projeter l’environnement VR est donc relativement coûteux, encombrant et encombrant. En outre, de nombreux environnements de ce type dans la littérature ont été mis en œuvre à l’aide de logiciels propriétaires qui sont à la fois coûteux et ne peuvent être exécutés que sur un PC dédié.
Pour ces raisons, nous avons conçu un système de RV open-source pour étudier les comportements d’apprentissage spatial chez des souris retenues à la tête à l’aide d’un ordinateur monocarte Raspberry Pi. Cet ordinateur Linux est à la fois petit et peu coûteux mais contient une puce GPU pour le rendu 3D, permettant l’intégration d’environnements VR avec l’appareil d’affichage ou comportemental dans diverses configurations individuelles. De plus, nous avons développé un logiciel graphique écrit en Python, « HallPassVR », qui utilise l’ordinateur monocarte pour rendre un environnement visuospatial simple, une piste linéaire virtuelle ou un couloir, en recombinant des caractéristiques visuelles personnalisées sélectionnées à l’aide d’une interface utilisateur graphique (GUI). Ceci est combiné avec des sous-systèmes de microcontrôleurs (par exemple, ESP32 ou Arduino) pour mesurer la locomotion et coordonner le comportement, par exemple par la livraison d’autres modalités de stimuli sensoriels ou de récompenses pour faciliter l’apprentissage par renforcement. Ce système fournit une méthode alternative peu coûteuse, flexible et facile à utiliser pour fournir des environnements de RV visuospatiaux à des souris contraintes par la tête pendant l’imagerie à deux photons (ou d’autres techniques nécessitant une fixation de la tête) pour étudier les circuits neuronaux sous-jacents au comportement d’apprentissage spatial.
Ce système VR open-source pour souris ne fonctionnera que si les connexions série sont établies correctement entre les microcontrôleurs rotatifs et de comportement ESP32 et l’ordinateur monocarte (étape 2), ce qui peut être confirmé à l’aide du moniteur série IDE (étape 2.4.5). Pour que les résultats comportementaux réussis de ce protocole (étape 4), les souris doivent être habituées à l’appareil et être à l’aise de courir sur la roue pour obtenir des récompenses liquides (étapes 4.3-4.5). Cel…
The authors have nothing to disclose.
Nous tenons à remercier Noah Pettit du laboratoire Harvey pour la discussion et les suggestions lors de l’élaboration du protocole dans ce manuscrit. Ce travail a été soutenu par une bourse de jeune chercheur BBRF et NIMH 1R21MH122965 (G.F.T.), en plus de NINDS R56NS128177 (R.H., C.L.) et NIMH R01MH068542 (R.H.).
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |