JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Wir beschreiben hier PyOKR, eine halbautomatische quantitative Analysemethode, die Augenbewegungen direkt misst, die sich aus visuellen Reaktionen auf zweidimensionale Bildbewegungen ergeben. Eine Python-basierte Benutzeroberfläche und ein Analysealgorithmus ermöglichen einen höheren Durchsatz und genauere quantitative Messungen von Eye-Tracking-Parametern als bisherige Methoden.

Zusammenfassung

Die Untersuchung von Verhaltensreaktionen auf visuelle Reize ist eine Schlüsselkomponente für das Verständnis der Funktion des visuellen Systems. Eine bemerkenswerte Reaktion ist der optokinetische Reflex (OKR), ein hochkonserviertes angeborenes Verhalten, das für die Bildstabilisierung auf der Netzhaut notwendig ist. Das OKR bietet eine robuste Auslesung der Bildverfolgungsfähigkeit und wurde ausgiebig untersucht, um die Schaltkreise und Funktionen des visuellen Systems bei Tieren mit unterschiedlichem genetischem Hintergrund zu verstehen. Das OKR besteht aus zwei Phasen: einer langsamen Tracking-Phase, in der das Auge einem Reiz bis zum Rand der visuellen Ebene folgt, und einer kompensatorischen Fast-Phase-Sakkade, die die Position des Auges in der Augenhöhle zurücksetzt. Bisherige Methoden zur Quantifizierung des Gewinns sind zwar zuverlässig, aber arbeitsintensiv und können subjektiv oder willkürlich abgeleitet werden. Um eine schnellere und reproduzierbare Quantifizierung der Eye-Tracking-Fähigkeit zu erhalten, haben wir ein neuartiges halbautomatisches Analyseprogramm, PyOKR, entwickelt, das die Quantifizierung der zweidimensionalen Eye-Tracking-Bewegung als Reaktion auf jeden Richtungsreiz ermöglicht und an jede Art von Video-Okulographie-Gerät angepasst werden kann. Diese Methode bietet eine automatisierte Filterung, die Auswahl langsamer Tracking-Phasen, die Modellierung vertikaler und horizontaler Augenvektoren, die Quantifizierung von Augenbewegungsgewinnen im Verhältnis zur Reizgeschwindigkeit und die Organisation der resultierenden Daten in einer nutzbaren Tabelle für statistische und grafische Vergleiche. Diese quantitative und optimierte Analysepipeline, die über den PyPI-Import leicht zugänglich ist, ermöglicht eine schnelle und direkte Messung von OKR-Antworten und erleichtert so die Untersuchung visueller Verhaltensreaktionen.

Einleitung

Die Bildstabilisierung beruht auf präzisen okulomotorischen Reaktionen, um den globalen optischen Fluss zu kompensieren, der während der Selbstbewegung auftritt. Diese Stabilisierung wird hauptsächlich durch zwei motorische Reaktionen angetrieben: den optokinetischen Reflex (OKR) und den vestibulo-okulären Reflex (VOR)1,2,3. Eine langsame globale Bewegung über die Netzhaut induziert das OKR, das eine reflexive Augenrotation in die entsprechende Richtung hervorruft, um das Bildzu stabilisieren 1,2. Diese Bewegung, die als langsame Phase bezeichnet wird, wird durch Ausgleichssakkaden unterbrochen, die als schnelle Phase bezeichnet werden, in der sich das Auge schnell in die entgegengesetzte Richtung zurücksetzt, um eine neue langsame Phase zu ermöglichen. Hier definieren wir diese Schnellphasesakkaden als Eye-Tracking-Bewegungen (ETMs). Während das VOR auf das vestibuläre System angewiesen ist, um Augenbewegungen auszulösen, um Kopfbewegungen zu kompensieren3, wird das OKR in der Netzhaut durch das Abfeuern von ON und die anschließende Signalisierung an das Accessory Optic System (AOS) im Mittelhirn initiiert 4,5. Aufgrund seiner direkten Abhängigkeit von retinalen Schaltkreisen wurde das OKR sowohl in der Forschung als auch im klinischen Umfeld häufig zur Bestimmung der visuellen Tracking-Fähigkeit verwendet 6,7.

Das OKR wurde ausgiebig als Instrument zur Beurteilung der grundlegenden visuellen Fähigkeiten 2,6,8, der DSGC-Entwicklung 9,10,11,12, der okulomotorischen Reaktionen13 und physiologischer Unterschiede zwischen den genetischen Hintergründen7 untersucht. Die OKR wird an Tieren mit fixiertem Kopf bewertet, denen ein beweglicher Reiz präsentiert wird14. Okulomotorische Reaktionen werden in der Regel mit einer Vielzahl von Videotools erfasst, und Eye-Tracking-Bewegungen werden als OKR-Wellenformen in horizontaler und vertikaler Richtung erfasst9. Um die Tracking-Fähigkeit zu quantifizieren, wurden zwei primäre Metriken beschrieben: die Tracking-Verstärkung (die Geschwindigkeit des Auges im Verhältnis zur Geschwindigkeit des Stimulus) und die ETM-Frequenz (die Anzahl der schnellen Phasenakkaden über einen bestimmten Zeitraum). Die Berechnung der Verstärkung wurde in der Vergangenheit verwendet, um die Winkelgeschwindigkeit des Auges direkt zu messen und die Verfolgungsfähigkeit abzuschätzen. Diese Berechnungen sind jedoch arbeitsintensiv und können auf der Grundlage von Video-Okulographie-Erhebungsmethoden und anschließender Quantifizierung beliebig abgeleitet werden. Für eine schnellere OKR-Bewertung wurde die Zählung der ETM-Häufigkeit als alternative Methode zur Messung der Tracking-Schärfe7 verwendet. Obwohl dies eine ziemlich genaue Schätzung der Tracking-Fähigkeit ermöglicht, stützt sich diese Methode auf eine indirekte Metrik zur Quantifizierung der langsamen Phasenreaktion und führt zu einer Reihe von Verzerrungen. Dazu gehören eine Beobachterverzerrung bei der Sakkadenbestimmung, ein Vertrauen auf zeitlich konsistente sakkadische Reaktionen über eine festgelegte Epoche und die Unfähigkeit, das Ausmaß der langsamen Phasenreaktion zu beurteilen.

Um diese Bedenken mit aktuellen OKR-Assessment-Ansätzen auszuräumen und eine tiefgehende Quantifizierung von OKR-Parametern mit hohem Durchsatz zu ermöglichen, haben wir eine neue Analysemethode zur Quantifizierung von OKR-Wellenformen entwickelt. Unser Ansatz verwendet eine zugängliche Python-basierte Softwareplattform namens "PyOKR". Mit dieser Software kann die Modellierung und Quantifizierung von OKR-Slow-Phase-Antworten tiefer und mit erhöhter Parametrisierung untersucht werden. Die Software bietet zugängliche und reproduzierbare quantitative Bewertungen der Reaktionen auf eine Vielzahl von visuellen Reizen sowie zweidimensionales visuelles Tracking als Reaktion auf horizontale und vertikale Bewegungen.

Protokoll

Alle Tierversuche, die an der Johns Hopkins University School of Medicine (JHUSOM) durchgeführt wurden, wurden vom Institutional Animal Care and Use Committee (IACUC) an der JHUSOM genehmigt. Alle Experimente, die an der University of California, San Francisco (UCSF) durchgeführt wurden, wurden in Übereinstimmung mit Protokollen durchgeführt, die vom UCSF Institutional Animal Care and Use Program genehmigt wurden.

1. Erhebung von Verhaltensdaten

  1. Zeichnen Sie OKR-Augenbewegungen mit der Video-Okulographie-Methode der Wahl auf, um Wellendaten zu generieren (d. h. eine Zeitreihe des Blickwinkels des Auges in sphärischen Koordinaten).
    HINWEIS: Repräsentative Daten, die am JHUSOM erhoben wurden, wurden mittels Kopfpostimplantation und Video-Okulographie gewonnen, wie zuvor beschrieben 9,13 (Abbildung 1). Repräsentative Daten, die von der UCSF erhoben wurden, wurden durch die Kopfimplantationschirurgie und die Video-Okulographie-Methode gewonnen, wie in zuvor10 beschrieben (Abbildung 7).
    1. Notieren Sie sich die Stimulus- und Aufnahmeparameter: Aufnahmebildrate, Stimulusgeschwindigkeit und -richtung sowie Zeiträume zwischen und nach den Stimulusepochen. Bei sinusförmigen Reizen ist auch die Amplitude und Frequenz der Reizwelle zu beachten.
  2. Exportieren Sie gesammelte Wellendaten als . CSV-Datei mit horizontalen und vertikalen (Azimut und Höhe) Wellendaten.
    1. Organisieren Sie Wellendaten als tabulatorgetrennte . CSV-Datei mit zwei Spalten mit horizontalen Daten (epxWave) und vertikalen Daten (epyWave).

2. Installation der Analysesoftware

  1. Laden Sie Python herunter und installieren Sie es.
    1. Für die Graphenüberwachung installieren Sie Spyder über Anaconda.
    2. Um sicherzustellen, dass Diagramme in Spyder korrekt funktionieren, gehen Sie zu Tools > Einstellungen > Ipython-Konsole > Grafik > Grafik-Backend. Legen Sie Inline auf Automatisch fest.
  2. Erstellen Sie eine neue Anaconda-Umgebung mit Python.
  3. Installieren Sie PyOKR über PyPi mit pip install PyOKR , um die neueste Version zusammen mit den Paketabhängigkeiten (Supplementary Coding File 1 und Supplementary Coding File 2) zu installieren.
  4. Wenn ein Windows-Computer verwendet wird, führen Sie aus dem PyOKR-Import OKR_win als o und dann o.run() aus.
  5. Wenn ein Mac-Computer verwendet wird, führen Sie aus dem PyOKR-Import OKR_osx als o und dann o.run() aus.

3. Analyse der Wellendaten

  1. Initialisierung von Analysen und Dateiimporten
    1. Führen Sie o.run() in einem .py Skript aus, um die Benutzeroberfläche zu öffnen.
    2. Verwenden Sie unter Datei die Funktion Öffnen oder den Befehl Strg+O [iOS-Befehl], um einen Browser zu öffnen, der es dem Benutzer ermöglicht, die gewünschte Wave-Datei auszuwählen.
    3. Unter Datei öffnen Sie mit der Schaltfläche Ordner exportieren oder mit dem Befehl Strg+E einen Ordnerbrowser, der die Auswahl eines Ausgabeordners ermöglicht, in den die endgültigen Analysen exportiert werden sollen.
    4. Geben Sie den Namen der endgültigen Analysedatei unter der Ausgabedatei in einem empfohlenen Format ein , z. B. AnimalGenotype_AnimalNumber_Analysis.
    5. Stellen Sie das Programm für ein einzelnes Tier ein, indem Sie den Befehl Betreff unter Datei setzen oder den Befehl Strg+S verwenden, um den Datensatz für ein einzelnes Tier zu initialisieren.
  2. Definition von Wavefile-Parametern
    1. Um mit dem Einstellen von Stimulusparametern zu beginnen, definieren Sie die Richtungsabhängigkeit unter Stimulusrichtung auswählen , indem Sie eine der vier Himmelsrichtungen auswählen. Wählen Sie für sinusförmige Stimuli einen Stimulus aus, der entsprechend (Horizontal) oder (Vertikal) enthält, wobei die Himmelsrichtung die Anfangsrichtung der sinusförmigen Welle definiert.
    2. Legen Sie den Stimulus-Typ unter "Stimulus-Typ auswählen " auf "Unidirektional", "Oszillatorisch" oder "Schräg" fest.
    3. Nach dem Einstellen der Richtungsabhängigkeit wird entweder der eigene Stimuluspositionsdatensatz importiert (Eigene Stimulusvektordaten importieren) oder automatisch ein Vektor auf Basis von Parametern generiert (Stimulusvektor aus Parametern generieren). Wenn Sie einen Stimulusvektor importieren, fahren Sie mit 3.2.3.1 fort und fahren Sie dann mit Schritt 3.3 fort. Wenn Sie einen Stimulusvektor erzeugen, fahren Sie mit den nächsten Schritten fort.
      1. Wenn Sie Ihre eigenen Vektordaten importieren, importieren Sie die Entfernungswerte des Stimulus (d.h. eine Zeitreihe, die beschreibt, wie weit sich der Stimulus zwischen den einzelnen benachbarten Erfassungsrahmen bewegt) in dem Format, das in Schritt 3.2.1 beschrieben wurde. Darüber hinaus können Sie den gesamten Datensatz als eine Epoche analysieren, anstatt ihn in einzelne Epochen aufzuteilen, da die Funktion zum Unterteilen des importierten Stimuluswerts ab PyOKR v1.1.2 nicht mehr hinzugefügt wurde.
    4. Legen Sie unter Stimulus-Parameter die Parameter des Stimulus fest, der für die Datenerfassung verwendet wird.
      1. Legen Sie die Zeitdauer fest, in der am Anfang (Kopf) und Ende (Schwanz) eines bestimmten Versuchs kein Stimulus vorhanden ist, mit Kopf und Schwanz.
      2. Legen Sie die Zeitspanne fest, in der ein Stimulus angezeigt wird, die Zeit, in der kein Stimulus danach erfolgt, und die Anzahl der Gesamtepochen innerhalb eines bestimmten Versuchs mit der Länge der Epoche, der Länge des Nachstimulus bzw. der Anzahl der Epochen.
      3. Für unidirektionale und schräge Stimuli stellen Sie die Stimulusgeschwindigkeit in Grad pro Sekunde mit "Horizontale Geschwindigkeit " und "Vertikale Geschwindigkeit" ein.
      4. Legen Sie die Aufnahmerate der Erfassungskamera mit der Bildrate für die Aufnahme fest.
      5. Erzeugen Sie für sinusförmige Stimuli die sinusförmige Welle zur Modellierung oszillatorischer Stimuli mit Frequenz und Amplitude.
    5. Erstellen Sie nach der Parametrisierung das entsprechende Modell aus den oben eingegebenen Stimulusinformationen mit Stimulusvektor aus Parametern generieren.
    6. Wählen Sie eine bestimmte Epoche für den eingegebenen Stimulus aus, indem Sie Epoche auswählen verwenden, um die gesamte Wave-Datei zu durchsuchen.
  3. Überwachte Auswahl von Tracking-Phasen
    1. Um Bereiche mit langsamer Verfolgung zu identifizieren, wählen Sie automatisch Sakkaden für schnelle Phasen mit Vorabanpassung aus, indem Sie entweder auf Ungefilterte Daten oder Gefilterte Daten klicken, wodurch potenzielle Sakkaden basierend auf maximalen Geschwindigkeitsänderungen beschriftet werden.
    2. Vergewissern Sie sich unter Ungefilterte Daten, dass Sakkaden korrekt ausgewählt sind, mit einem blauen Punkt. Wenn die automatische Auswahl nicht genau ist, entfernen Sie Punkte manuell mit der linken Maustaste (LMT) oder fügen Sie Punkte mit der rechten Maustaste (RMB) hinzu. Wenn die Sakkaden der schnellen Phase ausreichend ausgewählt sind, speichern Sie die Punkte mit der mittleren Maustaste (MMB) und schließen Sie das Diagramm.
    3. Wenn eine automatische Filterung gewünscht ist, legen Sie einen Z-Score-Schwellenwert fest und klicken Sie auf Gefilterte Daten , um Sakkaden automatisch zu filtern. Verwenden Sie bei Bedarf die gleiche manuelle Aufsicht wie in Schritt 3.3.2 beschrieben, um Geräusche zu entfernen.
    4. Nachdem Sie die Sakkade richtig ausgewählt haben, drücken Sie die Punktanpassung, um den zu entfernenden Bereich auszuwählen. Ändern Sie die oberen und unteren Punkte durch ein ähnliches Steuerungsschema, wie zuvor in Schritt 3.3.2 beschrieben. Bearbeiten Sie die oberen (grünen) Punkte mit der LMT oder der RMB und bearbeiten Sie die unteren (roten) Punkte mit der Umschalt+LMT oder Umschalt+RMB. Wenn die Punkte richtig platziert sind, verwenden Sie die MMB , um die Punkte zu speichern.
      HINWEIS: Wenn Sie einen Mac verwenden, befinden sich die Einstellung des unteren und oberen Punktes über zwei separate Tasten und folgen dem gleichen Steuerungsschema wie in Schritt 3.3.2 beschrieben.
  4. Analyse von Slow-Tracking-Phasen
    1. Legen Sie die Reihenfolge des Polynommodells mit Polynomreihenfolge festlegen fest, um das Polynommodell zu definieren, das an einzelne langsame Phasen angepasst wird.
      HINWEIS: Für unidirektionale oder schräge Stimuli ist der Standardwert 1, da Linearität zur Berechnung der Tracking-Verstärkung erforderlich ist. Für sinusförmige Stimuli wird eine höhere Ordnung benötigt, um die Kurve der Welle zu modellieren, mit einem Standardwert von 15.
    2. Um die Kurve zu analysieren, wählen Sie Abschließende Analyse, um die Modelle für langsame Phasen (Abbildung 2) für die ausgewählten langsamen Phasen zu generieren (siehe Abbildung 2A-D) und die Entfernungen, Geschwindigkeiten und Verfolgungsgewinne zu berechnen, die über die Epoche gemittelt werden (Abbildung 2E).
    3. Um das zweidimensionale (2D) oder dreidimensionale (3D) Diagramm der ausgewählten Bereiche anzuzeigen, wählen Sie 2D-Diagramm anzeigen bzw. 3D-Diagramm anzeigen .
    4. Wählen Sie Epoche hinzufügen aus, um die in Schritt 3.4.2 generierten gesammelten Werte zu speichern. Um alle Mehrwerte für ein bestimmtes Tier sowie die Durchschnittswerte für gesammelte Versuche anzuzeigen, wählen Sie Aktuellen Datensatz anzeigen aus.
    5. Nachdem Sie eine Epoche hinzugefügt haben, durchlaufen Sie den Rest der Datei mit Epoche auswählen, indem Sie die Schritte 3.3.1 bis 3.4.4 ausführen.
    6. Sobald eine Wellendatei vollständig analysiert ist, wiederholen Sie diesen Vorgang für alle anderen Dateien für ein bestimmtes Tier, indem Sie neue Dateien öffnen, geeignete Parameter festlegen und sie entsprechend analysieren. Indem Sie die Schritte 3.2.1 bis 3.4.5 für jede Datei wiederholen, generieren Sie einen endgültigen Datensatz, der alle Wellendaten für ein bestimmtes Tier enthält.
  5. Endgültiger Export der Daten
    1. Nachdem die Datenanalyse für ein bestimmtes Tier abgeschlossen ist und alle Richtungen oder Reize analysiert wurden, exportieren Sie den Datensatz über Daten exportieren.
      HINWEIS: Der Rohdatensatz wird basierend auf dem Namen der Ausgabedatei exportiert und entlang des vom Ausgabeordner festgelegten Pfads als CSV gespeichert, die einzelne Epochendaten mit dem Gesamtmittelwert für jeden Stimulusparameter enthält.
    2. Nachdem Sie ein einzelnes Tier exportiert haben, initialisieren Sie das Dataset mit Strg+S neu, und wiederholen Sie dann alle vorherigen Schritte, um ein neues Tier zu analysieren.
    3. Bei Bedarf können Sie alle Ausgabedaten, die für mehrere Tiere gesammelt wurden, neu organisieren, um die Analyse zu erleichtern, indem Sie den Befehl Daten sortieren auf der Registerkarte Analyse verwenden.
      HINWEIS: Diese Funktion kompiliert und sortiert alle Durchschnittswerte für alle analysierten Tierdateien, die im Ausgabeordner gespeichert sind, um die Erstellung von Diagrammen und statistischen Vergleichen zu erleichtern. Die Sortierung hängt von der Benennung der Dateien ab v1.1.2 ab. Verwenden Sie das empfohlene Benennungsschema, wie in Schritt 3.1.4 beschrieben, für jede Datei (z. B. WT_123_Analysis).

Ergebnisse

Um die oben beschriebene Analysemethode zu validieren, quantifizierten wir den OKR-Tracking-Gewinn auf Wellenspuren, die von Wildtyp-Mäusen und einer bedingten Knockout-Mutante mit bekanntem Tracking-Defizit gesammelt wurden. Um die breitere Anwendbarkeit unserer Analysemethode zu testen, analysierten wir außerdem Spuren aus einer separaten Kohorte von Wildtyp-Mäusen, die mit einer anderen Video-Okulographie-Erfassungsmethode gewonnen wurden. Die automatische Filterung von Sakkaden erleichtert die OKR-Datenverarbeitun...

Diskussion

PyOKR bietet mehrere Vorteile für die Untersuchung visueller Reaktionen, die sich in Augenbewegungen widerspiegeln. Dazu gehören Genauigkeit, Zugänglichkeit und Datenerfassungsoptionen sowie die Möglichkeit, Parametrisierung und variable Stimulusgeschwindigkeiten zu integrieren.

Die direkte Bewertung des Eye-Tracking-Gain bietet eine genaue Charakterisierung der Augenbewegung, die eine direktere quantitative Metrik darstellt als die herkömmliche manuelle Zählung von schnellen Phasenakkad...

Offenlegungen

Die Autoren haben keine Interessenkonflikte.

Danksagungen

Diese Arbeit wurde unterstützt durch R01 EY032095 (ALK), VSTP pre-doctoral fellowship 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD und ALK) und R01 EY-029772 (FAD).

Materialien

NameCompanyCatalog NumberComments
C57BL/6J  miceJackson Labs664
Igor ProWaveMetricsRRID: SCR_000325
MATLABMathWorksRRID: SCR_001622
Optokinetic reflex recording chamber - JHUSOMCustom-builtN/AAs described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber - UCSFCustom-builtN/AAs described in Harris and Dunn, 201510
PythonPython Software FoundationRRID: SCR_008394
Tbx5 flox/+ miceGift from B. BruneauN/AAs described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/MmucdMMRRCMMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

Referenzen

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections - How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

Optokinetischer ReflexOKREye TrackingVisuelles SystemBildstabilisierungPyOKRHalbautomatische AnalyseVideo OkulographieSlow Tracking PhaseFast Phase SakkadeAugenbewegungsverst rkung

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten