Summary

PyOKR: Eine halbautomatische Methode zur Quantifizierung der Fähigkeit zur Verfolgung optokinetischer Reflexe

Published: April 12, 2024
doi:

Summary

Wir beschreiben hier PyOKR, eine halbautomatische quantitative Analysemethode, die Augenbewegungen direkt misst, die sich aus visuellen Reaktionen auf zweidimensionale Bildbewegungen ergeben. Eine Python-basierte Benutzeroberfläche und ein Analysealgorithmus ermöglichen einen höheren Durchsatz und genauere quantitative Messungen von Eye-Tracking-Parametern als bisherige Methoden.

Abstract

Die Untersuchung von Verhaltensreaktionen auf visuelle Reize ist eine Schlüsselkomponente für das Verständnis der Funktion des visuellen Systems. Eine bemerkenswerte Reaktion ist der optokinetische Reflex (OKR), ein hochkonserviertes angeborenes Verhalten, das für die Bildstabilisierung auf der Netzhaut notwendig ist. Das OKR bietet eine robuste Auslesung der Bildverfolgungsfähigkeit und wurde ausgiebig untersucht, um die Schaltkreise und Funktionen des visuellen Systems bei Tieren mit unterschiedlichem genetischem Hintergrund zu verstehen. Das OKR besteht aus zwei Phasen: einer langsamen Tracking-Phase, in der das Auge einem Reiz bis zum Rand der visuellen Ebene folgt, und einer kompensatorischen Fast-Phase-Sakkade, die die Position des Auges in der Augenhöhle zurücksetzt. Bisherige Methoden zur Quantifizierung des Gewinns sind zwar zuverlässig, aber arbeitsintensiv und können subjektiv oder willkürlich abgeleitet werden. Um eine schnellere und reproduzierbare Quantifizierung der Eye-Tracking-Fähigkeit zu erhalten, haben wir ein neuartiges halbautomatisches Analyseprogramm, PyOKR, entwickelt, das die Quantifizierung der zweidimensionalen Eye-Tracking-Bewegung als Reaktion auf jeden Richtungsreiz ermöglicht und an jede Art von Video-Okulographie-Gerät angepasst werden kann. Diese Methode bietet eine automatisierte Filterung, die Auswahl langsamer Tracking-Phasen, die Modellierung vertikaler und horizontaler Augenvektoren, die Quantifizierung von Augenbewegungsgewinnen im Verhältnis zur Reizgeschwindigkeit und die Organisation der resultierenden Daten in einer nutzbaren Tabelle für statistische und grafische Vergleiche. Diese quantitative und optimierte Analysepipeline, die über den PyPI-Import leicht zugänglich ist, ermöglicht eine schnelle und direkte Messung von OKR-Antworten und erleichtert so die Untersuchung visueller Verhaltensreaktionen.

Introduction

Die Bildstabilisierung beruht auf präzisen okulomotorischen Reaktionen, um den globalen optischen Fluss zu kompensieren, der während der Selbstbewegung auftritt. Diese Stabilisierung wird hauptsächlich durch zwei motorische Reaktionen angetrieben: den optokinetischen Reflex (OKR) und den vestibulo-okulären Reflex (VOR)1,2,3. Eine langsame globale Bewegung über die Netzhaut induziert das OKR, das eine reflexive Augenrotation in die entsprechende Richtung hervorruft, um das Bildzu stabilisieren 1,2. Diese Bewegung, die als langsame Phase bezeichnet wird, wird durch Ausgleichssakkaden unterbrochen, die als schnelle Phase bezeichnet werden, in der sich das Auge schnell in die entgegengesetzte Richtung zurücksetzt, um eine neue langsame Phase zu ermöglichen. Hier definieren wir diese Schnellphasesakkaden als Eye-Tracking-Bewegungen (ETMs). Während das VOR auf das vestibuläre System angewiesen ist, um Augenbewegungen auszulösen, um Kopfbewegungen zu kompensieren3, wird das OKR in der Netzhaut durch das Abfeuern von ON und die anschließende Signalisierung an das Accessory Optic System (AOS) im Mittelhirn initiiert 4,5. Aufgrund seiner direkten Abhängigkeit von retinalen Schaltkreisen wurde das OKR sowohl in der Forschung als auch im klinischen Umfeld häufig zur Bestimmung der visuellen Tracking-Fähigkeit verwendet 6,7.

Das OKR wurde ausgiebig als Instrument zur Beurteilung der grundlegenden visuellen Fähigkeiten 2,6,8, der DSGC-Entwicklung 9,10,11,12, der okulomotorischen Reaktionen13 und physiologischer Unterschiede zwischen den genetischen Hintergründen7 untersucht. Die OKR wird an Tieren mit fixiertem Kopf bewertet, denen ein beweglicher Reiz präsentiert wird14. Okulomotorische Reaktionen werden in der Regel mit einer Vielzahl von Videotools erfasst, und Eye-Tracking-Bewegungen werden als OKR-Wellenformen in horizontaler und vertikaler Richtung erfasst9. Um die Tracking-Fähigkeit zu quantifizieren, wurden zwei primäre Metriken beschrieben: die Tracking-Verstärkung (die Geschwindigkeit des Auges im Verhältnis zur Geschwindigkeit des Stimulus) und die ETM-Frequenz (die Anzahl der schnellen Phasenakkaden über einen bestimmten Zeitraum). Die Berechnung der Verstärkung wurde in der Vergangenheit verwendet, um die Winkelgeschwindigkeit des Auges direkt zu messen und die Verfolgungsfähigkeit abzuschätzen. Diese Berechnungen sind jedoch arbeitsintensiv und können auf der Grundlage von Video-Okulographie-Erhebungsmethoden und anschließender Quantifizierung beliebig abgeleitet werden. Für eine schnellere OKR-Bewertung wurde die Zählung der ETM-Häufigkeit als alternative Methode zur Messung der Tracking-Schärfe7 verwendet. Obwohl dies eine ziemlich genaue Schätzung der Tracking-Fähigkeit ermöglicht, stützt sich diese Methode auf eine indirekte Metrik zur Quantifizierung der langsamen Phasenreaktion und führt zu einer Reihe von Verzerrungen. Dazu gehören eine Beobachterverzerrung bei der Sakkadenbestimmung, ein Vertrauen auf zeitlich konsistente sakkadische Reaktionen über eine festgelegte Epoche und die Unfähigkeit, das Ausmaß der langsamen Phasenreaktion zu beurteilen.

Um diese Bedenken mit aktuellen OKR-Assessment-Ansätzen auszuräumen und eine tiefgehende Quantifizierung von OKR-Parametern mit hohem Durchsatz zu ermöglichen, haben wir eine neue Analysemethode zur Quantifizierung von OKR-Wellenformen entwickelt. Unser Ansatz verwendet eine zugängliche Python-basierte Softwareplattform namens “PyOKR”. Mit dieser Software kann die Modellierung und Quantifizierung von OKR-Slow-Phase-Antworten tiefer und mit erhöhter Parametrisierung untersucht werden. Die Software bietet zugängliche und reproduzierbare quantitative Bewertungen der Reaktionen auf eine Vielzahl von visuellen Reizen sowie zweidimensionales visuelles Tracking als Reaktion auf horizontale und vertikale Bewegungen.

Protocol

Alle Tierversuche, die an der Johns Hopkins University School of Medicine (JHUSOM) durchgeführt wurden, wurden vom Institutional Animal Care and Use Committee (IACUC) an der JHUSOM genehmigt. Alle Experimente, die an der University of California, San Francisco (UCSF) durchgeführt wurden, wurden in Übereinstimmung mit Protokollen durchgeführt, die vom UCSF Institutional Animal Care and Use Program genehmigt wurden. 1. Erhebung von Verhaltensdaten Zeichnen Sie OKR-…

Representative Results

Um die oben beschriebene Analysemethode zu validieren, quantifizierten wir den OKR-Tracking-Gewinn auf Wellenspuren, die von Wildtyp-Mäusen und einer bedingten Knockout-Mutante mit bekanntem Tracking-Defizit gesammelt wurden. Um die breitere Anwendbarkeit unserer Analysemethode zu testen, analysierten wir außerdem Spuren aus einer separaten Kohorte von Wildtyp-Mäusen, die mit einer anderen Video-Okulographie-Erfassungsmethode gewonnen wurden. Die automatische Filterung von Sakkaden erleichtert die OKR-Datenverarbeitun…

Discussion

PyOKR bietet mehrere Vorteile für die Untersuchung visueller Reaktionen, die sich in Augenbewegungen widerspiegeln. Dazu gehören Genauigkeit, Zugänglichkeit und Datenerfassungsoptionen sowie die Möglichkeit, Parametrisierung und variable Stimulusgeschwindigkeiten zu integrieren.

Die direkte Bewertung des Eye-Tracking-Gain bietet eine genaue Charakterisierung der Augenbewegung, die eine direktere quantitative Metrik darstellt als die herkömmliche manuelle Zählung von schnellen Phasenakkad…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Diese Arbeit wurde unterstützt durch R01 EY032095 (ALK), VSTP pre-doctoral fellowship 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD und ALK) und R01 EY-029772 (FAD).

Materials

C57BL/6J  mice Jackson Labs 664
Igor Pro WaveMetrics RRID: SCR_000325
MATLAB MathWorks RRID: SCR_001622
Optokinetic reflex recording chamber – JHUSOM Custom-built N/A As described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber – UCSF Custom-built N/A As described in Harris and Dunn, 201510
Python Python Software Foundation RRID: SCR_008394
Tbx5 flox/+ mice Gift from B. Bruneau N/A As described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/Mmucd MMRRC MMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

References

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections – How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Play Video

Cite This Article
Kiraly, J. K., Harris, S. C., Al-Khindi, T., Dunn, F. A., Kolodkin, A. L. PyOKR: A Semi-Automated Method for Quantifying Optokinetic Reflex Tracking Ability. J. Vis. Exp. (206), e66779, doi:10.3791/66779 (2024).

View Video