Hier stellen wir ein vereinfachtes Open-Source-Hardware- und Software-Setup zur Untersuchung des räumlichen Lernens von Mäusen mit Hilfe von Virtual Reality (VR) vor. Dieses System zeigt einer kopfgebundenen Maus, die auf einem Rad läuft, eine virtuelle lineare Spur an, indem es ein Netzwerk von Mikrocontrollern und einen Einplatinencomputer verwendet, auf dem ein einfach zu bedienendes grafisches Python-Softwarepaket ausgeführt wird.
Kopfgebundene Verhaltensexperimente an Mäusen ermöglichen es Neurowissenschaftlern, die Aktivität neuronaler Schaltkreise mit hochauflösenden elektrophysiologischen und optischen Bildgebungswerkzeugen zu beobachten und gleichzeitig einem sich verhaltenden Tier präzise sensorische Reize zu geben. In jüngster Zeit haben Studien an Menschen und Nagetieren mit Virtual-Reality-Umgebungen (VR) gezeigt, dass VR aufgrund der äußerst präzisen Kontrolle von Parametern wie räumlichen und kontextuellen Hinweisen ein wichtiges Werkzeug ist, um die neuronalen Mechanismen aufzudecken, die dem räumlichen Lernen im Hippocampus und im Kortex zugrunde liegen. Das Einrichten virtueller Umgebungen für das räumliche Verhalten von Nagetieren kann jedoch kostspielig sein und erfordert einen umfangreichen Hintergrund in Ingenieurwesen und Computerprogrammierung. Hier stellen wir ein einfaches, aber leistungsfähiges System vor, das auf kostengünstiger, modularer Open-Source-Hard- und Software basiert und es Forschern ermöglicht, räumliches Lernen in kopfgebundenen Mäusen mithilfe einer VR-Umgebung zu untersuchen. Dieses System verwendet gekoppelte Mikrocontroller, um die Fortbewegung zu messen und Verhaltensreize zu liefern, während kopfgebundene Mäuse auf einem Rad in Verbindung mit einer virtuellen linearen Spurumgebung laufen, die von einem grafischen Softwarepaket gerendert wird, das auf einem Einplatinencomputer läuft. Der Schwerpunkt auf verteilter Verarbeitung ermöglicht es den Forschern, flexible, modulare Systeme zu entwickeln, um komplexe räumliche Verhaltensweisen bei Mäusen zu ermitteln und zu messen, um den Zusammenhang zwischen der Aktivität neuronaler Schaltkreise und dem räumlichen Lernen im Gehirn von Säugetieren zu bestimmen.
Räumliche Navigation ist ein ethologisch wichtiges Verhalten, bei dem Tiere die Merkmale neuer Orte in einer kognitiven Karte kodieren, die verwendet wird, um Bereiche möglicher Belohnungen zu finden und potenzielle Gefahrenbereiche zu vermeiden. Die kognitiven Prozesse, die der räumlichen Navigation zugrunde liegen, sind untrennbar mit dem Gedächtnis verbunden und teilen sich ein neuronales Substrat im Hippocampus1 und im Kortex, wo neuronale Schaltkreise in diesen Bereichen eingehende Informationen integrieren und kognitive Karten von Umgebungen und Ereignissen für den späteren Abrufbilden 2. Während die Entdeckung von Ortszellen im Hippocampus3,4 und von Gitterzellen im entorhinalen Kortex5 Aufschluss darüber gegeben hat, wie die kognitive Karte innerhalb des Hippocampus gebildet wird, bleiben viele Fragen darüber offen, wie bestimmte neuronale Subtypen, Mikroschaltkreise und einzelne Subregionen des Hippocampus (Gyrus dentatus und Cornu ammonis Areale, CA3-1) interagieren und an der Bildung und dem Abruf des räumlichen Gedächtnisses beteiligt sind.
Die In-vivo-Zwei-Photonen-Bildgebung ist ein nützliches Werkzeug zur Aufdeckung der Zell- und Populationsdynamik in der sensorischen Neurophysiologie 6,7; Die typische Notwendigkeit einer Kopfstütze schränkt jedoch den Nutzen dieser Methode zur Untersuchung des räumlichen Verhaltens von Säugetieren ein. Das Aufkommen der virtuellen Realität (VR)8 hat dieses Manko behoben, indem immersive und realistische visuell-räumliche Umgebungen präsentiert wurden, während kopfgebundene Mäuse auf einem Ball oder Laufband liefen, um die räumliche und kontextuelle Kodierung im Hippocampus 8,9,10 und im Kortex 11 zu untersuchen. Darüber hinaus hat die Verwendung von VR-Umgebungen mit sich verhaltenden Mäusen es neurowissenschaftlichen Forschern ermöglicht, die Komponenten des räumlichen Verhaltens zu analysieren, indem sie die Elemente der VR-Umgebung12 (z. B. visueller Fluss, kontextuelle Modulation) auf eine Weise präzise steuern, die in realen Experimenten des räumlichen Lernens, wie z. B. dem Morris-Wasserlabyrinth, dem Barnes-Labyrinth oder Lochbrettaufgaben, nicht möglich ist.
Visuelle VR-Umgebungen werden in der Regel auf der Graphical Processing Unit (GPU) eines Computers gerendert, die die Last der schnellen Berechnung der Tausenden von Polygonen bewältigt, die erforderlich sind, um eine sich bewegende 3D-Umgebung in Echtzeit auf einem Bildschirm zu modellieren. Die großen Verarbeitungsanforderungen erfordern im Allgemeinen die Verwendung eines separaten PCs mit einer GPU, die die visuelle Umgebung auf einem Monitor, mehreren Bildschirmen13 oder einem Projektor14 wiedergibt, während die Bewegung von einem Laufband, einem Rad oder einem Schaumstoffball unter dem Tier aufgezeichnet wird. Die daraus resultierende Vorrichtung zur Steuerung, zum Rendern und zur Projektion der VR-Umgebung ist daher relativ teuer, sperrig und umständlich. Darüber hinaus wurden viele solcher Umgebungen in der Literatur mit proprietärer Software implementiert, die sowohl kostspielig ist als auch nur auf einem dedizierten PC ausgeführt werden kann.
Aus diesen Gründen haben wir ein Open-Source-VR-System entwickelt, um das räumliche Lernverhalten von kopfgebundenen Mäusen mit einem Raspberry Pi-Einplatinencomputer zu untersuchen. Dieser Linux-Computer ist sowohl klein als auch kostengünstig und enthält dennoch einen GPU-Chip für 3D-Rendering, der die Integration von VR-Umgebungen mit dem Display oder dem Verhaltensapparat in verschiedenen individuellen Setups ermöglicht. Darüber hinaus haben wir ein in Python geschriebenes grafisches Softwarepaket, “HallPassVR”, entwickelt, das den Einplatinencomputer nutzt, um eine einfache visuell-räumliche Umgebung, eine virtuelle lineare Strecke oder einen Flur, zu rendern, indem benutzerdefinierte visuelle Merkmale, die über eine grafische Benutzeroberfläche (GUI) ausgewählt wurden, neu kombiniert werden. Dies wird mit Mikrocontroller-Subsystemen (z. B. ESP32 oder Arduino) kombiniert, um die Fortbewegung zu messen und das Verhalten zu koordinieren, z. B. durch die Abgabe anderer Modalitäten von Sinnesreizen oder Belohnungen, um das Reinforcement Learning zu erleichtern. Dieses System bietet eine kostengünstige, flexible und einfach zu bedienende alternative Methode zur Bereitstellung visuell-räumlicher VR-Umgebungen für kopfgebundene Mäuse während der Zwei-Photonen-Bildgebung (oder anderer Techniken, die eine Kopffixierung erfordern), um die neuronalen Schaltkreise zu untersuchen, die dem räumlichen Lernverhalten zugrunde liegen.
Dieses Open-Source-VR-System für Mäuse funktioniert nur, wenn die seriellen Verbindungen zwischen den rotierenden und verhaltensfähigen ESP32-Mikrocontrollern und dem Einplatinencomputer korrekt hergestellt sind (Schritt 2), was mit dem seriellen IDE-Monitor bestätigt werden kann (Schritt 2.4.5). Für erfolgreiche Verhaltensergebnisse aus diesem Protokoll (Schritt 4) müssen die Mäuse an den Apparat gewöhnt sein und sich wohl fühlen, auf dem Rad zu laufen, um flüssige Belohnungen zu erhalten (Schritte 4.3-4.5). D…
The authors have nothing to disclose.
Wir bedanken uns bei Noah Pettit vom Harvey-Labor für die Diskussion und die Anregungen bei der Entwicklung des Protokolls in diesem Manuskript. Diese Arbeit wurde durch einen BBRF Young Investigator Award und NIMH 1R21MH122965 (G.F.T.) unterstützt, zusätzlich zu NINDS R56NS128177 (R.H., C.L.) und NIMH R01MH068542 (R.H.).
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |