Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Describimos aquí PyOKR, un método de análisis cuantitativo semiautomatizado que mide directamente los movimientos oculares resultantes de las respuestas visuales al movimiento bidimensional de la imagen. Una interfaz de usuario y un algoritmo de análisis basados en Python permiten un mayor rendimiento y mediciones cuantitativas más precisas de los parámetros de seguimiento ocular que los métodos anteriores.

Resumen

El estudio de las respuestas conductuales a los estímulos visuales es un componente clave para comprender la función del sistema visual. Una respuesta notable es el reflejo optocinético (OKR), un comportamiento innato altamente conservado necesario para la estabilización de la imagen en la retina. El OKR proporciona una lectura robusta de la capacidad de seguimiento de imágenes y ha sido ampliamente estudiado para comprender los circuitos y la función del sistema visual en animales de diferentes orígenes genéticos. El OKR consta de dos fases: una fase de seguimiento lento en la que el ojo sigue un estímulo hasta el borde del plano visual y una fase rápida compensatoria que restablece la posición del ojo en la órbita. Los métodos anteriores de seguimiento de la cuantificación de la ganancia, aunque fiables, requieren mucha mano de obra y pueden ser subjetivos o derivados arbitrariamente. Para obtener una cuantificación más rápida y reproducible de la capacidad de seguimiento ocular, hemos desarrollado un novedoso programa de análisis semiautomatizado, PyOKR, que permite cuantificar el movimiento bidimensional de seguimiento ocular en respuesta a cualquier estímulo direccional, además de ser adaptable a cualquier tipo de equipo de video-oculografía. Este método proporciona filtrado automatizado, selección de fases de seguimiento lentas, modelado de vectores oculares verticales y horizontales, cuantificación de las ganancias de movimiento ocular en relación con la velocidad del estímulo y organización de los datos resultantes en una hoja de cálculo utilizable para comparaciones estadísticas y gráficas. Este canal de análisis cuantitativo y optimizado, fácilmente accesible a través de la importación de PyPI, proporciona una medición rápida y directa de las respuestas de OKR, lo que facilita el estudio de las respuestas visuales del comportamiento.

Introducción

La estabilización de imagen se basa en respuestas oculomotoras precisas para compensar el flujo óptico global que se produce durante el movimiento propio. Esta estabilización es impulsada principalmente por dos respuestas motoras: el reflejo optocinético (OKR) y el reflejo vestíbulo-ocular (VOR)1,2,3. El movimiento global lento a través de la retina induce el OKR, que provoca una rotación ocular reflexiva en la dirección correspondiente para estabilizar la imagen 1,2. Este movimiento, conocido como fase lenta, es interrumpido por movimientos sacádicos compensatorios, conocidos como fase rápida, en los que el ojo se restablece rápidamente en la dirección opuesta para permitir una nueva fase lenta. Aquí, definimos estos movimientos sacádicos de fase rápida como movimientos de seguimiento ocular (ETM). Mientras que el VOR se basa en el sistema vestibular para provocar movimientos oculares para compensar los movimientos de la cabeza3, el OKR se inicia en la retina mediante la activación de ON y la posterior señalización al Sistema Óptico Accesorio (AOS) en el mesencéfalo 4,5. Debido a su dependencia directa de los circuitos retinianos, el OKR se ha utilizado con frecuencia para determinar la capacidad de seguimiento visual tanto en investigación como en entornos clínicos 6,7.

El OKR se ha estudiado ampliamente como una herramienta para evaluar la capacidad visual básica 2,6,8, el desarrollo de DSGC 9,10,11,12, las respuestas oculomotoras13 y las diferencias fisiológicas entre los antecedentes genéticos7. El OKR se evalúa en animales con la cabeza fija a los que se les presenta un estímulo móvil14. Las respuestas oculomotoras generalmente se capturan utilizando una variedad de herramientas de video, y los movimientos de seguimiento ocular se capturan como formas de onda OKR en las direcciones horizontal y vertical9. Para cuantificar la capacidad de seguimiento, se han descrito dos métricas principales: la ganancia de seguimiento (la velocidad del ojo en relación con la velocidad del estímulo) y la frecuencia ETM (el número de movimientos sacádicos de fase rápida durante un período de tiempo determinado). El cálculo de la ganancia se ha utilizado históricamente para medir directamente la velocidad angular del ojo para estimar la capacidad de seguimiento; Sin embargo, estos cálculos requieren mucha mano de obra y pueden derivarse arbitrariamente en función de los métodos de recolección de videooculografía y su posterior cuantificación. Para una evaluación más rápida de los OKR, se ha utilizado el recuento de la frecuencia de ETM como método alternativo para medir la agudeza de seguimiento7. Aunque esto proporciona una estimación bastante precisa de la capacidad de seguimiento, este método se basa en una métrica indirecta para cuantificar la respuesta de fase lenta e introduce una serie de sesgos. Estos incluyen un sesgo del observador en la determinación de la masa sacádica, una dependencia de respuestas sacádicas temporalmente consistentes a lo largo de una época determinada y una incapacidad para evaluar la magnitud de la respuesta de fase lenta.

Con el fin de abordar estas preocupaciones con los enfoques actuales de evaluación de OKR y permitir una cuantificación en profundidad de alto rendimiento de los parámetros de OKR, hemos desarrollado un nuevo método de análisis para cuantificar las formas de onda de OKR. Nuestro enfoque utiliza una plataforma de software accesible basada en Python llamada "PyOKR". Con este software, el modelado y la cuantificación de las respuestas de fase lenta de OKR se pueden estudiar con mayor profundidad y con una mayor parametrización. El software proporciona evaluaciones cuantitativas accesibles y reproducibles de las respuestas a una gran variedad de estímulos visuales y también seguimiento visual bidimensional en respuesta al movimiento horizontal y vertical.

Protocolo

Todos los experimentos con animales realizados en la Facultad de Medicina de la Universidad Johns Hopkins (JHUSOM) fueron aprobados por el Comité Institucional de Cuidado y Uso de Animales (IACUC) de la JHUSOM. Todos los experimentos realizados en la Universidad de California, San Francisco (UCSF) se realizaron de acuerdo con los protocolos aprobados por el Programa Institucional de Cuidado y Uso de Animales de la UCSF.

1. Recopilación de datos de comportamiento

  1. Registre los movimientos oculares OKR utilizando el método de video-oculografía de elección para generar datos de onda (es decir, una serie temporal del ángulo de mirada del ojo en coordenadas esféricas).
    NOTA: Los datos representativos recolectados en JHUSOM se obtuvieron mediante cirugía de implante de cabeza y video-oculografía, como se describió anteriormente 9,13 (Figura 1). Los datos representativos recogidos en la UCSF se obtuvieron a través de la cirugía de implante de cabecera y el método de videooculografía, tal y como se ha descrito anteriormente en10 (Figura 7).
    1. Tome nota de los parámetros del estímulo y de la grabación: la velocidad de fotogramas de la grabación, la velocidad y la dirección del estímulo, y los períodos de tiempo entre y después de las épocas del estímulo. En el caso de los estímulos sinusoidales, fíjate también en la amplitud y la frecuencia de la onda del estímulo.
  2. Exporte los datos de onda recopilados como un archivo . Archivo CSV que contiene datos de ondas horizontales y verticales (acimut y elevación).
    1. Organice los datos de onda como un archivo delimitado por tabulaciones. Fichero CSV con dos columnas que contienen datos horizontales (epxWave) y datos verticales (epyWave).

2. Instalación de software de análisis

  1. Descarga e instala Python.
    1. Para la supervisión de gráficos, instale Spyder a través de Anaconda.
    2. Para asegurarse de que los gráficos funcionen correctamente en Spyder, vaya a Herramientas > Preferencias > Consola de Ipython > Gráficos > Backend de gráficos. Establezca En línea en Automático.
  2. Cree un nuevo entorno de Anaconda con Python.
  3. Instale PyOKR a través de PyPi con pip install PyOKR para instalar la versión más reciente junto con las dependencias del paquete (Archivo de codificación suplementario 1 y Archivo de codificación suplementario 2)
  4. Si se está utilizando una computadora con Windows, ejecute desde PyOKR import OKR_win como o y luego o.run().
  5. Si se está utilizando una computadora Mac, ejecute desde el OKR_osx de importación de PyOKR como o y luego o.run().

3. Análisis de los datos de las olas

  1. Inicialización de análisis e importación de archivos
    1. Ejecute o.run() en un script .py para abrir la interfaz de usuario.
    2. En Archivo, utilice la función Abrir o el comando Ctrl+O [comando de iOS] para abrir un navegador que permitirá al usuario seleccionar el archivo de onda deseado.
    3. En Archivo, utilice el botón Exportar carpeta o el comando Ctrl+E para abrir un explorador de carpetas que permitirá seleccionar una carpeta de salida a la que se exportarán los análisis finales.
    4. Introduzca el nombre del archivo de análisis final en el archivo de salida en un formato recomendado, como AnimalGenotype_AnimalNumber_Analysis.
    5. Configure el programa para un animal individual utilizando el comando Establecer asunto en Archivo o el comando Ctrl+S para inicializar el conjunto de datos para un animal individual.
  2. Definición de los parámetros del archivo de onda
    1. Para comenzar a establecer los parámetros del estímulo, defina la direccionalidad en Seleccionar la dirección del estímulo seleccionando una de las cuatro direcciones cardinales. Para estímulos sinusoidales, seleccione uno que contenga (Horizontal) o (Vertical) según corresponda, con la dirección cardinal definiendo la dirección inicial de la onda sinusoidal.
    2. Establezca el tipo de estímulo en Seleccionar el tipo de estímulo como Unidireccional, Oscilatorio u Oblicuo.
    3. Después de establecer la direccionalidad, importe su propio conjunto de datos de posición de estímulo (Importar datos de vectores de estímulo propios) o genere automáticamente un vector basado en parámetros (Generar vector de estímulo a partir de parámetros). Si importa un vector de estímulo, continúe con 3.2.3.1 y luego salte al paso 3.3. Si genera un vector de estímulo, continúe con los siguientes pasos.
      1. Si importa sus propios datos vectoriales, importe los valores de distancia del estímulo (es decir, una serie temporal que describa cuánto se mueve el estímulo entre cada marco de adquisición adyacente) en el mismo formato descrito en el paso 3.2.1. Además, analice todo el conjunto de datos como una época en lugar de dividirlo en épocas individuales, ya que la funcionalidad para crear subconjuntos de valores de estímulo importados no se ha agregado a partir de PyOKR v1.1.2.
    4. En Parámetros de estímulo, establezca los parámetros del estímulo utilizado para la recopilación de datos.
      1. Establezca el período de tiempo sin estímulo al principio (cabeza) y al final (cola) de una prueba dada con cara y cruz.
      2. Establezca la cantidad de tiempo que se muestra un estímulo, la cantidad de tiempo sin estímulo después y el número de épocas totales dentro de un ensayo determinado con Duración de la época, Longitud del postestímulo y Número de épocas, respectivamente.
      3. Para estímulos unidireccionales y oblicuos, establezca la velocidad del estímulo en grados por segundo con Velocidad horizontal y Velocidad vertical.
      4. Establezca la velocidad de captura de la cámara de colección con Velocidad de fotogramas de captura.
      5. Para estímulos sinusoidales, genere la onda sinusoidal para modelar estímulos oscilatorios con frecuencia y amplitud.
    5. Después de la parametrización, cree el modelo apropiado a partir de la información de estímulo ingresada anteriormente con Generar vector de estímulo a partir de parámetros.
    6. Seleccione una época determinada para el estímulo ingresado utilizando Seleccionar época para escanear el archivo de onda total.
  3. Selección supervisada de las fases de seguimiento
    1. Para identificar las regiones de seguimiento lento, seleccione automáticamente las sacadas de fase rápida con Ajuste preliminar haciendo clic en Datos sin filtrar o Datos filtrados, que etiquetarán las posibles sacadas en función de los cambios de velocidad máxima.
    2. En Datos sin filtrar, confirme que las sacadas se seleccionan con precisión con un punto azul. Si la selección automática no es precisa, elimine manualmente los puntos con el botón izquierdo del ratón (LMB) o añada puntos con el botón derecho del ratón (RMB). Cuando las sacadas de fase rápida estén adecuadamente seleccionadas, guarde los puntos con el botón central del ratón (MMB) y cierre el gráfico.
    3. Si desea el filtrado automático, establezca un umbral de puntuación Z y haga clic en Datos filtrados para filtrar automáticamente las sacadas. Si es necesario, utilice la misma supervisión manual que se describe en el paso 3.3.2 para eliminar cualquier ruido.
    4. Después de una selección sacádica adecuada, presione Ajuste de punto para seleccionar la región que desea eliminar. Modifique los puntos superior e inferior a través de un esquema de control similar al descrito anteriormente en el paso 3.3.2. Edite los puntos superiores (verdes) con el LMB o el RMB y edite los puntos inferiores (rojos) con Mayús+LMB o Mayús+RMB. Cuando los puntos estén colocados correctamente, use el MMB para guardar los puntos.
      NOTA: si utiliza una Mac, el ajuste de los puntos inferior y superior se realiza en dos botones separados y sigue el mismo esquema de control que se describe en el paso 3.3.2.
  4. Análisis de las fases de seguimiento lento
    1. Establezca el orden del modelo polinómico utilizando Establecer orden polinómico para definir el modelo polinómico que se ajustará a las fases lentas individuales.
      NOTA: Para estímulos unidireccionales u oblicuos, el valor predeterminado es 1 ya que la linealidad es necesaria para calcular la ganancia de seguimiento. Para los estímulos sinusoidales, se necesita un orden superior para modelar la curva de la onda, con un valor predeterminado de 15.
    2. Para analizar el seguimiento, seleccione Análisis final para generar los modelos de fase lenta (Figura 2) para las fases lentas seleccionadas (consulte la Figura 2A-D) y calcule las distancias, las velocidades y las ganancias de seguimiento promediadas a lo largo de la época (Figura 2E).
    3. Para ver el gráfico bidimensional (2D) o tridimensional (3D) de las regiones seleccionadas, seleccione Ver gráfico 2D o Ver gráfico 3D , respectivamente.
    4. Seleccione Agregar época para guardar los valores recopilados generados en el paso 3.4.2. Para ver todos los valores agregados de un animal determinado, así como los promedios de los ensayos recopilados, seleccione Ver conjunto de datos actual.
    5. Después de agregar una época, recorra el resto del archivo con Seleccionar época, siguiendo los pasos 3.3.1 a 3.4.4.
    6. Una vez que un archivo de onda se haya analizado completamente, repita este proceso para todos los demás archivos de un animal determinado abriendo nuevos archivos, estableciendo los parámetros apropiados y analizándolos en consecuencia. Repitiendo los pasos 3.2.1-3.4.5 para cada archivo, genere un conjunto de datos final que contenga todos los datos de oleaje de un animal determinado.
  5. Exportación final de datos
    1. Una vez completado el análisis de datos para un animal determinado, con todas las direcciones o estímulos analizados, exporte el conjunto de datos a través de Exportar datos.
      NOTA: El conjunto de datos sin procesar se exportará en función del nombre del archivo de salida y se guardará a lo largo de la ruta establecida por la carpeta de salida como un CSV que contiene datos de época individuales con la media total de cada parámetro de estímulo.
    2. Después de exportar un animal individual, vuelva a inicializar el conjunto de datos con Ctrl+S y, a continuación, repita todos los pasos anteriores para analizar un nuevo animal.
    3. Si es necesario, reorganice todos los datos de salida recopilados para varios animales para facilitar el análisis utilizando el comando Ordenar datos en la pestaña Análisis .
      NOTA: Esta función compilará y ordenará todos los valores promedio de todos los archivos de animales analizados almacenados dentro de la carpeta de salida para permitir una generación más fácil de gráficos y comparaciones estadísticas. La ordenación depende de la nomenclatura de los archivos a partir de v1.1.2. Utilice el esquema de nomenclatura recomendado como se describe en el paso 3.1.4 para cada archivo (por ejemplo, WT_123_Analysis).

Resultados

Para validar el método de análisis descrito anteriormente, cuantificamos la ganancia de seguimiento de OKR en trazas de onda recolectadas de ratones de tipo salvaje y un mutante knockout condicional con un déficit de seguimiento conocido. Además, para probar la aplicabilidad más amplia de nuestro método de análisis, analizamos trazas derivadas de una cohorte separada de ratones de tipo salvaje adquiridos utilizando un método de recolección de video-oculografía diferente. El filtrado automático de los movimient...

Discusión

PyOKR proporciona varias ventajas para estudiar las respuestas visuales reflejadas en los movimientos oculares. Estos incluyen opciones de precisión, accesibilidad y recopilación de datos, además de la capacidad de incorporar parametrización y velocidades de estímulo variables.

La evaluación de la ganancia de seguimiento ocular directo proporciona una caracterización precisa del movimiento ocular que es una métrica cuantitativa más directa que el recuento manual tradicional de sacadas...

Divulgaciones

Los autores no tienen conflictos de intereses.

Agradecimientos

Este trabajo ha contado con el apoyo de R01 EY032095 (ALK), VSTP predoctoral fellowship 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD y ALK) y R01 EY-029772 (FAD).

Materiales

NameCompanyCatalog NumberComments
C57BL/6J  miceJackson Labs664
Igor ProWaveMetricsRRID: SCR_000325
MATLABMathWorksRRID: SCR_001622
Optokinetic reflex recording chamber - JHUSOMCustom-builtN/AAs described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber - UCSFCustom-builtN/AAs described in Harris and Dunn, 201510
PythonPython Software FoundationRRID: SCR_008394
Tbx5 flox/+ miceGift from B. BruneauN/AAs described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/MmucdMMRRCMMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

Referencias

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections - How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

Reflejo optocin ticoOKRSeguimiento ocularSistema visualEstabilizaci n de imagenPyOKRAn lisis semiautomatizadoVideo oculograf aFase de seguimiento lentoFase sac dica r pidaGanancia de movimiento ocular

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados