Qui, presentiamo una configurazione hardware e software open source semplificata per studiare l’apprendimento spaziale del mouse utilizzando la realtà virtuale (VR). Questo sistema visualizza una traccia lineare virtuale a un mouse con la testa trattenuta che gira su una ruota utilizzando una rete di microcontrollori e un computer a scheda singola che esegue un pacchetto software grafico Python facile da usare.
Gli esperimenti comportamentali sui topi consentono ai neuroscienziati di osservare l’attività del circuito neurale con strumenti di imaging elettrofisiologico e ottico ad alta risoluzione, fornendo al contempo precisi stimoli sensoriali a un animale che si comporta. Recentemente, studi sull’uomo e sui roditori che utilizzano ambienti di realtà virtuale (VR) hanno dimostrato che la realtà virtuale è uno strumento importante per scoprire i meccanismi neurali alla base dell’apprendimento spaziale nell’ippocampo e nella corteccia, grazie al controllo estremamente preciso su parametri come segnali spaziali e contestuali. La creazione di ambienti virtuali per i comportamenti spaziali dei roditori può, tuttavia, essere costosa e richiedere un ampio background in ingegneria e programmazione informatica. Qui, presentiamo un sistema semplice ma potente basato su hardware e software open source economico, modulare e che consente ai ricercatori di studiare l’apprendimento spaziale in topi con la testa trattenuta utilizzando un ambiente VR. Questo sistema utilizza microcontrollori accoppiati per misurare la locomozione e fornire stimoli comportamentali mentre i topi trattenuti dalla testa corrono su una ruota in concerto con un ambiente di binario lineare virtuale reso da un pacchetto software grafico in esecuzione su un computer a scheda singola. L’enfasi sull’elaborazione distribuita consente ai ricercatori di progettare sistemi flessibili e modulari per suscitare e misurare comportamenti spaziali complessi nei topi al fine di determinare la connessione tra l’attività del circuito neurale e l’apprendimento spaziale nel cervello dei mammiferi.
La navigazione spaziale è un comportamento etologicamente importante con cui gli animali codificano le caratteristiche di nuove posizioni in una mappa cognitiva, che viene utilizzata per trovare aree di possibile ricompensa ed evitare aree di potenziale pericolo. Inestricabilmente legati alla memoria, i processi cognitivi alla base della navigazione spaziale condividono un substrato neurale nell’ippocampo1 e nella corteccia, dove i circuiti neurali in queste aree integrano le informazioni in entrata e formano mappe cognitive di ambienti ed eventi per il successivo richiamo2. Mentre la scoperta delle cellule di posizione nell’ippocampo3,4 e delle cellule griglia nella corteccia entorinale5 ha fatto luce su come si forma la mappa cognitiva all’interno dell’ippocampo, rimangono molte domande su come specifici sottotipi neurali, microcircuiti e singole sottoregioni dell’ippocampo (il giro dentato e le aree di cornu ammonis, CA3-1) interagiscono e partecipano alla formazione e al richiamo della memoria spaziale.
L’imaging a due fotoni in vivo è stato uno strumento utile per scoprire le dinamiche cellulari e di popolazione nella neurofisiologia sensoriale 6,7; Tuttavia, la tipica necessità di poggiatesta limita l’utilità di questo metodo per esaminare il comportamento spaziale dei mammiferi. L’avvento della realtà virtuale (VR)8 ha affrontato questa carenza presentando ambienti visuospaziali immersivi e realistici mentre topi con la testa trattenuta corrono su una palla o un tapis roulant per studiare la codifica spaziale e contestuale nell’ippocampo 8,9,10 e nella corteccia 11. Inoltre, l’uso di ambienti VR con topi che si comportano ha permesso ai ricercatori di neuroscienze di sezionare le componenti del comportamento spaziale controllando con precisione gli elementi dell’ambiente VR12 (ad esempio, flusso visivo, modulazione contestuale) in modi non possibili negli esperimenti del mondo reale di apprendimento spaziale, come il labirinto d’acqua di Morris, il labirinto di Barnes o le attività di holboard.
Gli ambienti VR visivi sono tipicamente renderizzati sull’unità di elaborazione grafica (GPU) di un computer, che gestisce il carico di calcolo rapido delle migliaia di poligoni necessari per modellare un ambiente 3D in movimento su uno schermo in tempo reale. I grandi requisiti di elaborazione richiedono generalmente l’uso di un PC separato con una GPU che esegue il rendering dell’ambiente visivo su un monitor, più schermi13 o un proiettore14 mentre il movimento viene registrato da un tapis roulant, una ruota o una palla di schiuma sotto l’animale. L’apparato risultante per il controllo, il rendering e la proiezione dell’ambiente VR è, quindi, relativamente costoso, ingombrante e ingombrante. Inoltre, molti di questi ambienti in letteratura sono stati implementati utilizzando software proprietario che è costoso e può essere eseguito solo su un PC dedicato.
Per questi motivi, abbiamo progettato un sistema VR open source per studiare i comportamenti di apprendimento spaziale nei topi con controllo della testa utilizzando un computer a scheda singola Raspberry Pi. Questo computer Linux è piccolo ed economico, ma contiene un chip GPU per il rendering 3D, consentendo l’integrazione di ambienti VR con il display o l’apparato comportamentale in varie configurazioni individuali. Inoltre, abbiamo sviluppato un pacchetto software grafico scritto in Python, “HallPassVR”, che utilizza il computer a scheda singola per rendere un semplice ambiente visuospaziale, una traccia lineare virtuale o un corridoio, ricombinando caratteristiche visive personalizzate selezionate utilizzando un’interfaccia utente grafica (GUI). Questo è combinato con sottosistemi di microcontrollori (ad esempio, ESP32 o Arduino) per misurare la locomozione e coordinare il comportamento, ad esempio mediante la consegna di altre modalità di stimoli sensoriali o ricompense per facilitare l’apprendimento per rinforzo. Questo sistema fornisce un metodo alternativo economico, flessibile e facile da usare per fornire ambienti VR visuospaziali a topi con ritenuta della testa durante l’imaging a due fotoni (o altre tecniche che richiedono la fissazione della testa) per studiare i circuiti neurali alla base del comportamento di apprendimento spaziale.
Questo sistema VR open source per mouse funzionerà solo se le connessioni seriali sono effettuate correttamente tra i microcontrollori rotativi e comportamentali ESP32 e il computer a scheda singola (passaggio 2), che può essere confermato utilizzando il monitor seriale IDE (passaggio 2.4.5). Per risultati comportamentali di successo da questo protocollo (fase 4), i topi devono essere abituati all’apparato ed essere a proprio agio nel correre sulla ruota per ricompense liquide (passaggi 4.3-4.5). Ciò richiede una rest…
The authors have nothing to disclose.
Vorremmo ringraziare Noah Pettit del laboratorio Harvey per la discussione e i suggerimenti durante lo sviluppo del protocollo in questo manoscritto. Questo lavoro è stato supportato da un BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), oltre a NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |