Wir beschreiben hier PyOKR, eine halbautomatische quantitative Analysemethode, die Augenbewegungen direkt misst, die sich aus visuellen Reaktionen auf zweidimensionale Bildbewegungen ergeben. Eine Python-basierte Benutzeroberfläche und ein Analysealgorithmus ermöglichen einen höheren Durchsatz und genauere quantitative Messungen von Eye-Tracking-Parametern als bisherige Methoden.
Die Untersuchung von Verhaltensreaktionen auf visuelle Reize ist eine Schlüsselkomponente für das Verständnis der Funktion des visuellen Systems. Eine bemerkenswerte Reaktion ist der optokinetische Reflex (OKR), ein hochkonserviertes angeborenes Verhalten, das für die Bildstabilisierung auf der Netzhaut notwendig ist. Das OKR bietet eine robuste Auslesung der Bildverfolgungsfähigkeit und wurde ausgiebig untersucht, um die Schaltkreise und Funktionen des visuellen Systems bei Tieren mit unterschiedlichem genetischem Hintergrund zu verstehen. Das OKR besteht aus zwei Phasen: einer langsamen Tracking-Phase, in der das Auge einem Reiz bis zum Rand der visuellen Ebene folgt, und einer kompensatorischen Fast-Phase-Sakkade, die die Position des Auges in der Augenhöhle zurücksetzt. Bisherige Methoden zur Quantifizierung des Gewinns sind zwar zuverlässig, aber arbeitsintensiv und können subjektiv oder willkürlich abgeleitet werden. Um eine schnellere und reproduzierbare Quantifizierung der Eye-Tracking-Fähigkeit zu erhalten, haben wir ein neuartiges halbautomatisches Analyseprogramm, PyOKR, entwickelt, das die Quantifizierung der zweidimensionalen Eye-Tracking-Bewegung als Reaktion auf jeden Richtungsreiz ermöglicht und an jede Art von Video-Okulographie-Gerät angepasst werden kann. Diese Methode bietet eine automatisierte Filterung, die Auswahl langsamer Tracking-Phasen, die Modellierung vertikaler und horizontaler Augenvektoren, die Quantifizierung von Augenbewegungsgewinnen im Verhältnis zur Reizgeschwindigkeit und die Organisation der resultierenden Daten in einer nutzbaren Tabelle für statistische und grafische Vergleiche. Diese quantitative und optimierte Analysepipeline, die über den PyPI-Import leicht zugänglich ist, ermöglicht eine schnelle und direkte Messung von OKR-Antworten und erleichtert so die Untersuchung visueller Verhaltensreaktionen.
Die Bildstabilisierung beruht auf präzisen okulomotorischen Reaktionen, um den globalen optischen Fluss zu kompensieren, der während der Selbstbewegung auftritt. Diese Stabilisierung wird hauptsächlich durch zwei motorische Reaktionen angetrieben: den optokinetischen Reflex (OKR) und den vestibulo-okulären Reflex (VOR)1,2,3. Eine langsame globale Bewegung über die Netzhaut induziert das OKR, das eine reflexive Augenrotation in die entsprechende Richtung hervorruft, um das Bildzu stabilisieren 1,2. Diese Bewegung, die als langsame Phase bezeichnet wird, wird durch Ausgleichssakkaden unterbrochen, die als schnelle Phase bezeichnet werden, in der sich das Auge schnell in die entgegengesetzte Richtung zurücksetzt, um eine neue langsame Phase zu ermöglichen. Hier definieren wir diese Schnellphasesakkaden als Eye-Tracking-Bewegungen (ETMs). Während das VOR auf das vestibuläre System angewiesen ist, um Augenbewegungen auszulösen, um Kopfbewegungen zu kompensieren3, wird das OKR in der Netzhaut durch das Abfeuern von ON und die anschließende Signalisierung an das Accessory Optic System (AOS) im Mittelhirn initiiert 4,5. Aufgrund seiner direkten Abhängigkeit von retinalen Schaltkreisen wurde das OKR sowohl in der Forschung als auch im klinischen Umfeld häufig zur Bestimmung der visuellen Tracking-Fähigkeit verwendet 6,7.
Das OKR wurde ausgiebig als Instrument zur Beurteilung der grundlegenden visuellen Fähigkeiten 2,6,8, der DSGC-Entwicklung 9,10,11,12, der okulomotorischen Reaktionen13 und physiologischer Unterschiede zwischen den genetischen Hintergründen7 untersucht. Die OKR wird an Tieren mit fixiertem Kopf bewertet, denen ein beweglicher Reiz präsentiert wird14. Okulomotorische Reaktionen werden in der Regel mit einer Vielzahl von Videotools erfasst, und Eye-Tracking-Bewegungen werden als OKR-Wellenformen in horizontaler und vertikaler Richtung erfasst9. Um die Tracking-Fähigkeit zu quantifizieren, wurden zwei primäre Metriken beschrieben: die Tracking-Verstärkung (die Geschwindigkeit des Auges im Verhältnis zur Geschwindigkeit des Stimulus) und die ETM-Frequenz (die Anzahl der schnellen Phasenakkaden über einen bestimmten Zeitraum). Die Berechnung der Verstärkung wurde in der Vergangenheit verwendet, um die Winkelgeschwindigkeit des Auges direkt zu messen und die Verfolgungsfähigkeit abzuschätzen. Diese Berechnungen sind jedoch arbeitsintensiv und können auf der Grundlage von Video-Okulographie-Erhebungsmethoden und anschließender Quantifizierung beliebig abgeleitet werden. Für eine schnellere OKR-Bewertung wurde die Zählung der ETM-Häufigkeit als alternative Methode zur Messung der Tracking-Schärfe7 verwendet. Obwohl dies eine ziemlich genaue Schätzung der Tracking-Fähigkeit ermöglicht, stützt sich diese Methode auf eine indirekte Metrik zur Quantifizierung der langsamen Phasenreaktion und führt zu einer Reihe von Verzerrungen. Dazu gehören eine Beobachterverzerrung bei der Sakkadenbestimmung, ein Vertrauen auf zeitlich konsistente sakkadische Reaktionen über eine festgelegte Epoche und die Unfähigkeit, das Ausmaß der langsamen Phasenreaktion zu beurteilen.
Um diese Bedenken mit aktuellen OKR-Assessment-Ansätzen auszuräumen und eine tiefgehende Quantifizierung von OKR-Parametern mit hohem Durchsatz zu ermöglichen, haben wir eine neue Analysemethode zur Quantifizierung von OKR-Wellenformen entwickelt. Unser Ansatz verwendet eine zugängliche Python-basierte Softwareplattform namens “PyOKR”. Mit dieser Software kann die Modellierung und Quantifizierung von OKR-Slow-Phase-Antworten tiefer und mit erhöhter Parametrisierung untersucht werden. Die Software bietet zugängliche und reproduzierbare quantitative Bewertungen der Reaktionen auf eine Vielzahl von visuellen Reizen sowie zweidimensionales visuelles Tracking als Reaktion auf horizontale und vertikale Bewegungen.
PyOKR bietet mehrere Vorteile für die Untersuchung visueller Reaktionen, die sich in Augenbewegungen widerspiegeln. Dazu gehören Genauigkeit, Zugänglichkeit und Datenerfassungsoptionen sowie die Möglichkeit, Parametrisierung und variable Stimulusgeschwindigkeiten zu integrieren.
Die direkte Bewertung des Eye-Tracking-Gain bietet eine genaue Charakterisierung der Augenbewegung, die eine direktere quantitative Metrik darstellt als die herkömmliche manuelle Zählung von schnellen Phasenakkad…
The authors have nothing to disclose.
Diese Arbeit wurde unterstützt durch R01 EY032095 (ALK), VSTP pre-doctoral fellowship 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD und ALK) und R01 EY-029772 (FAD).
C57BL/6J mice | Jackson Labs | 664 | |
Igor Pro | WaveMetrics | RRID: SCR_000325 | |
MATLAB | MathWorks | RRID: SCR_001622 | |
Optokinetic reflex recording chamber – JHUSOM | Custom-built | N/A | As described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 |
Optokinetic reflex recording chamber – UCSF | Custom-built | N/A | As described in Harris and Dunn, 201510 |
Python | Python Software Foundation | RRID: SCR_008394 | |
Tbx5 flox/+ mice | Gift from B. Bruneau | N/A | As described in Al-Khindi et al.(2022)9 |
Tg(Pcdh9-cre)NP276Gsat/Mmucd | MMRRC | MMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD |