JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Este protocolo proporciona un método para rastrear el estrabismo ocular automatizado en roedores a lo largo del tiempo de una manera compatible con el bloqueo de tiempo a las medidas neurofisiológicas. Se espera que este protocolo sea útil para los investigadores que estudian los mecanismos de los trastornos del dolor, como la migraña.

Resumen

El dolor espontáneo ha sido difícil de rastrear en tiempo real y cuantificar de una manera que evite el sesgo humano. Esto es especialmente cierto para las métricas de dolor de cabeza, como en trastornos como la migraña. El estrabismo se ha convertido en una métrica variable continua que puede medirse a lo largo del tiempo y es eficaz para predecir los estados de dolor en este tipo de ensayos. Este artículo proporciona un protocolo para el uso de DeepLabCut (DLC) para automatizar y cuantificar el estrabismo (distancia euclidiana entre párpados) en ratones restringidos con movimientos de cabeza que giran libremente. Este protocolo permite emparejar y comparar directamente la cuantificación no sesgada del estrabismo ocular con medidas mecanicistas como la neurofisiología. Proporcionamos una evaluación de los parámetros de entrenamiento de IA necesarios para lograr el éxito definido por la discriminación de los períodos de estrabismo y no estrabismo. Demostramos la capacidad de rastrear y diferenciar de manera confiable el estrabismo en un fenotipo similar a la migraña inducida por CGRP con una resolución de menos de un segundo.

Introducción

La migraña es uno de los trastornos cerebrales más prevalentes en todo el mundo y afecta a más de mil millonesde personas. Los modelos preclínicos de migraña en ratones han surgido como una forma informativa de estudiar los mecanismos de la migraña, ya que estos estudios pueden controlarse más fácilmente que los estudios en humanos, lo que permite el estudio causal del comportamiento relacionado con la migraña. Estos modelos han demostrado una respuesta fenotípica fuerte y repetible a los compuestos inductores de migraña, como el péptido relacionado con el gen de la calcitonina (CGRP). Persiste la necesidad de mediciones sólidas de los comportamientos relevantes para la migraña en modelos de roedores, especialmente aquellos que pueden combinarse con métricas mecanicistas como imágenes y enfoques electrofisiológicos.

Los estados cerebrales similares a la migraña se han caracterizado fenotípicamente por la presencia de aversión a la luz, alodinia de la pata, hiperalgesia facial a estímulos nocivos y mueca facial3. Dichos comportamientos se miden por el tiempo total que se pasa en la luz (aversión a la luz) y los umbrales de sensibilidad al tacto facial o de las patas (alodinia de las patas e hiperalgesia facial) y se restringen a una sola lectura durante largos períodos de tiempo (minutos o más). Los comportamientos similares a la migraña se pueden provocar en animales mediante la dosificación de compuestos inductores de migraña como el CGRP, imitando los síntomas experimentados por los pacientes humanos con migraña3 (es decir, demostrando validez aparente). Dichos compuestos también producen síntomas de migraña cuando se administran en humanos, lo que demuestra la validez de constructo de estos modelos4. Los estudios en los que los fenotipos conductuales se atenuaron farmacológicamente han conducido a descubrimientos relacionados con el tratamiento de la migraña y proporcionan una mayor justificación de estos modelos (es decir, demuestran validez predictiva)5,6.

Por ejemplo, se demostró que un anticuerpo monoclonal anti-CGRP (ALD405) reduce el comportamiento de aversión a la luz5 y la mueca facial en ratones6 tratados con CGRP, y otros estudios han demostrado que los fármacos antagonistas del CGRP reducen los comportamientos similares a la migraña inducidos por el óxido nitroso en animales 7,8. Ensayos clínicos recientes han demostrado éxito en el tratamiento de la migraña mediante el bloqueo de CGRP 9,10, lo que ha llevado a múltiples medicamentos aprobados por la FDA dirigidos al CGRP o a su receptor. La evaluación preclínica de los fenotipos relacionados con la migraña ha dado lugar a avances en los hallazgos clínicos y, por lo tanto, es esencial para comprender algunos de los aspectos más complejos de la migraña que son difíciles de probar directamente en humanos.

A pesar de las numerosas ventajas, los experimentos que utilizan estas lecturas del comportamiento de la migraña en roedores a menudo están restringidos en su capacidad de muestreo de puntos de tiempo y pueden ser subjetivos y propensos a errores experimentales humanos. Muchos ensayos conductuales están limitados en la capacidad de capturar la actividad a resoluciones temporales más finas, lo que a menudo dificulta la captura de elementos más dinámicos que ocurren en una escala de tiempo de menos de un segundo, como a nivel de la actividad cerebral. Ha resultado difícil cuantificar los elementos más espontáneos y naturales del comportamiento a lo largo del tiempo con una resolución temporal significativa para el estudio de los mecanismos neurofisiológicos. La creación de una forma de identificar la actividad similar a la migraña en escalas de tiempo más rápidas permitiría validar externamente los estados cerebrales similares a la migraña. Esto, a su vez, podría sincronizarse con la actividad cerebral para crear perfiles de actividad cerebral más robustos de la migraña.

Uno de estos fenotipos relacionados con la migraña, la mueca facial, se utiliza en varios contextos como una medida del dolor en animales que se puede medir instantáneamente y rastrear a lo largodel tiempo. La mueca facial se utiliza a menudo como un indicador de dolor espontáneo, basándose en la idea de que los humanos (especialmente los humanos no verbales) y otras especies de mamíferos muestran cambios naturales en la expresión facial cuando experimentan dolor. Los estudios que miden la mueca facial como indicación de dolor en ratones en la última década han utilizado escalas como la Escala de Muecas de Ratón (MGS) para estandarizar la caracterización del dolor en roedores12. Las variables de expresión facial del MGS incluyen el endurecimiento orbital (estrabismo), el abultamiento de la nariz, el abultamiento de las mejillas, la posición de las orejas y el cambio de bigotes. A pesar de que se ha demostrado que el MGS caracteriza de manera confiable el dolor en animales13, es notoriamente subjetivo y se basa en puntuaciones precisas, que pueden variar entre los experimentadores. Además, el MGS es limitado en el sentido de que utiliza una escala no continua y carece de la resolución temporal necesaria para rastrear el comportamiento natural a lo largo del tiempo.

Una forma de combatir esto es cuantificar objetivamente un rasgo facial consistente. El estrabismo es el rasgo facial más rastreable6. El estrabismo explica la mayor parte de la variabilidad total de los datos cuando se tienen en cuenta todas las variables del MGS (estrabismo, protuberancia de la nariz, protuberancia de las mejillas, posición de las orejas y cambio de bigotes)6. Debido a que el estrabismo contribuye más a la puntuación general obtenida utilizando el MGS y rastrea de manera confiable la respuesta a CGRP 6,14, es la forma más confiable de rastrear el dolor espontáneo en modelos de ratones con migraña. Esto hace que el estrabismo sea un comportamiento no homeostático cuantificable inducido por el CGRP. Varios laboratorios han utilizado las características de la expresión facial, incluido el estrabismo, para representar el posible dolor espontáneo asociado con la migraña 6,15.

Han persistido varios desafíos con respecto a la realización de estrabismos automatizados de una manera que pueda combinarse con estudios mecánicos de la migraña. Por ejemplo, ha sido difícil realizar un seguimiento fiable del estrabismo sin depender de una posición fija que debe calibrarse de la misma manera en todas las sesiones. Otro desafío es la capacidad de llevar a cabo este tipo de análisis a escala continua en lugar de escalas discretas como el MGS. Para mitigar estos desafíos, nos propusimos integrar el aprendizaje automático, en forma de DeepLabCut (DLC), en nuestra canalización de análisis de datos. DLC es un modelo de aprendizaje automático de estimación de pose desarrollado por Mathis y sus colegas y se ha aplicado a una amplia gama de comportamientos16. Usando su software de estimación de pose, pudimos entrenar modelos que podían predecir con precisión puntos en el ojo de un ratón con una precisión casi humana. Esto resuelve los problemas de puntuación manual repetitiva y, al mismo tiempo, aumenta drásticamente la resolución temporal. Además, al crear estos modelos, hemos creado un medio repetible para puntuar el estrabismo y estimar la actividad cerebral similar a la migraña en grupos experimentales más grandes. Aquí, presentamos el desarrollo y la validación de este método para rastrear los comportamientos de estrabismo de una manera que puede bloquearse en el tiempo con otras mediciones mecanicistas como la neurofisiología. El objetivo general es catalizar estudios mecanicistas que requieran comportamientos de estrabismo bloqueados en el tiempo en modelos de roedores.

Protocolo

NOTA: Todos los animales utilizados en estos experimentos fueron manejados de acuerdo con los protocolos aprobados por el Comité Institucional de Cuidado y Uso de Animales (IACUC) de la Universidad de Iowa.

1. Preparar el equipo para la recopilación de datos

  1. Asegure la disponibilidad de todo el equipo necesario: asegúrese de que el hardware recomendado para ejecutar DLC tenga al menos 8 GB de memoria. Consulte la Tabla de materiales para obtener información relacionada con el hardware y el software.
    NOTA: Los datos se pueden recopilar en cualquier formato, pero deben convertirse a un formato legible por DLC antes del análisis. Los formatos más comunes son AVI y MP4.
  2. Configure al menos una cámara para que se pueda detectar un ojo de un animal. Si ambos ojos son visibles, realice un filtrado adicional, ya que puede causar interferencias en el seguimiento. Consulte la sección 10 para ver un ejemplo de dicho filtrado para los datos proporcionados aquí.
  3. Instale DLC usando el paquete que se encuentra en Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. En la configuración de la cámara, incluya una sola cámara en un ángulo lateral (~90°) con respecto al ratón. Para seguir este ejemplo, muestree a 10 Hz, con los ratones restringidos pero libres de acceder a toda su gama de movimientos de la cabeza en relación con el cuerpo. Manténgase entre 2 y 4 pulgadas de la cámara al animal.

2. Configuración de DLC

  1. Después de instalar DLC, cree el entorno para trabajar. Para ello, vaya a la carpeta donde se descargó el software DLC utilizando el directorio de cambios con el siguiente comando.
    CD folder_name
    NOTA: Aquí es donde se encuentra el archivo DEEPLABCUT.yaml.
  2. Ejecute el primer comando para crear el entorno y habilítelo escribiendo el segundo comando.
    conda env create -f DEEPLABCUT.yaml
    conda activar Deeplabcut
    NOTA: Asegúrese de que el entorno esté activado antes de cada uso de DLC.
    Después de activar el entorno, abra la interfaz gráfica de usuario (GUI) con el siguiente comando y comience a crear el modelo.
    python -m deeplabcut

3. Crear el modelo

  1. Después de abrir la GUI, comience a crear un modelo haciendo clic en Crear nuevo proyecto en la parte inferior.
  2. Asigne al proyecto un nombre significativo y único para identificarlo más adelante e introduzca un nombre como experimentador. Consulte la sección Ubicación para ver dónde se guardará el proyecto.
  3. Seleccione Examinar carpetas y busque los vídeos para entrenar el modelo. Seleccione Copiar vídeos a la carpeta del proyecto si los vídeos no se van a mover de su directorio original.
  4. Seleccione Crear para generar un nuevo proyecto en el equipo.
    NOTA: Los videos deben cubrir toda la gama de comportamientos que observará (es decir, entrecerrar los ojos, no entrecerrar los ojos y todos los comportamientos intermedios). El modelo solo podrá reconocer un comportamiento similar al de los datos de entrenamiento y, si faltan algunos componentes del comportamiento, es posible que el modelo tenga problemas para reconocerlo.

4. Configurar los ajustes

NOTA: Aquí es donde se pueden definir detalles como qué puntos rastrear, cuántos fotogramas extraer de cada video de entrenamiento, tamaño de punto de etiquetado predeterminado y variables relacionadas con cómo se entrenará el modelo.

  1. Después de crear el modelo, edite las opciones de configuración seleccionando Editar config.yaml. Seleccione editar para abrir el archivo de ajustes de configuración y especificar los ajustes clave relacionados con el modelo.
  2. Modifique las partes del cuerpo para incluir todas las partes del ojo que desea rastrear, luego modifique numframes2pick al número de fotogramas necesarios por video de entrenamiento para obtener 400 fotogramas en total. Por último, cambie el tamaño del punto a seis para que el tamaño predeterminado al etiquetar sea lo suficientemente pequeño como para colocarlo con precisión alrededor de los bordes del ojo.

5. Extraer fotogramas de entrenamiento

  1. Después de la configuración, navegue hasta la pestaña Extraer fotogramas en la parte superior de la GUI y seleccione Extraer fotogramas en la parte inferior derecha de la página.
  2. Supervise el progreso usando la barra de carga en la parte inferior de la GUI.

6. Etiquetar marcos de entrenamiento

  1. Vaya a la pestaña Marcos de etiqueta en la GUI y seleccione Marcos de etiqueta. Busque la nueva ventana que muestra las carpetas para cada uno de los videos de capacitación seleccionados. Seleccione la primera carpeta y se abrirá una nueva GUI de etiquetado.
  2. Etiquete los puntos definidos durante la configuración para cada fotograma del vídeo seleccionado. Una vez que todos los fotogramas estén etiquetados, guárdelos y repita el proceso para el siguiente video.
  3. Para un etiquetado adecuado del estrabismo, use dos puntos lo más cerca posible del pico más grande del ojo (centro) e indique las posiciones arriba/abajo para cada punto. Estrabismo aproximado como el promedio de estas dos longitudes.
    NOTA: Al etiquetar, el DLC no guarda automáticamente el progreso. Se recomienda guardar periódicamente para evitar la pérdida de datos etiquetados.

7. Crear un conjunto de datos de entrenamiento

  1. Después de etiquetar manualmente, vaya a la pestaña Entrenar red y seleccione Entrenar red para solicitar al software que comience a entrenar el modelo.
  2. Supervise el progreso en la ventana de comandos.

8. Evalúe la red

  1. Una vez completado el entrenamiento de red, vaya a la pestaña Evaluar red y seleccione Evaluar red. Espere unos momentos hasta que desaparezca el círculo de carga azul, lo que indica que ha terminado de autoevaluarse y que el modelo está listo para su uso.

9. Analizar datos/generar videos etiquetados

  1. Para analizar vídeos, vaya a la pestaña Analizar vídeos . Seleccione Agregar más videos y seleccione los videos que se van a analizar.
  2. Seleccione Guardar resultado(s) como csv si una salida csv de los datos es suficiente.
  3. Cuando se hayan adquirido todos los vídeos, seleccione Analizar vídeos en la parte inferior para comenzar el análisis de los vídeos.
    NOTA: Este paso debe completarse antes de generar videos etiquetados en el paso 9.5
  4. Una vez que se hayan analizado los videos, vaya a la pestaña Crear videos y seleccione los videos analizados.
  5. Seleccione Crear videos y el software comenzará a generar videos etiquetados que representan los datos que se muestran en el .csv correspondiente.

10. Procesar los datos finales

  1. Aplique las macros que se encuentran en https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc para convertir los datos sin procesar al formato utilizado para este análisis (es decir, la distancia euclidiana).
  2. Importe y aplique macros etiquetadas como Paso 1 y Paso 2 al csv para filtrar todos los puntos de datos subóptimos y convertir los datos a una distancia euclidiana promediada para los puntos más centrados en la parte superior e inferior del ojo.
  3. Ejecute la macro llamada Step3 para marcar cada punto como 0 sin estrabismo y 1 entrecerrar los ojos en función del valor de umbral en el script, que se establece en 75 píxeles.
    NOTA: Los parámetros de estas macros pueden requerir ajustes dependiendo de la configuración experimental (ver discusión). El umbral para entrecerrar los ojos y el filtro automático para el valor máximo del ojo son parámetros que pueden modificarse en función del tamaño del animal y de la distancia a la cámara. También puede ajustar los valores utilizados para eliminar puntos subóptimos en función de la selectividad con la que se deban filtrar los datos.

Resultados

Aquí, proporcionamos un método para la detección confiable de estrabismo a alta resolución temporal utilizando DeepLabCut. Optimizamos los parámetros de entrenamiento y proporcionamos una evaluación de las fortalezas y debilidades de este método (Figura 1).

Después de entrenar nuestros modelos, comprobamos que eran capaces de estimar correctamente los puntos superior e inferior del párpado (Figura 2

Discusión

Este protocolo proporciona un método detallado de fácil acceso para el uso de herramientas basadas en el aprendizaje automático que pueden diferenciar el estrabismo con una precisión casi humana mientras mantienen la misma (o mejor) resolución temporal de los enfoques anteriores. Principalmente, hace que la evaluación del estrabismo automatizado esté más disponible para un público más amplio. Nuestro nuevo método para evaluar el estrabismo automatizado tiene varias mejoras en ...

Divulgaciones

No tenemos conflictos de intereses que revelar. Las opiniones expresadas en este documento no son representativas del VA ni del Gobierno de los Estados Unidos.

Agradecimientos

Gracias a Rajyashree Sen por sus conversaciones perspicaces. Gracias al Premio de Neurobiología de la Enfermedad de la Fundación McKnight (RH), NIH 1DP2MH126377-01 (RH), el Roy J. Carver Charitable Trust (RH), NINDS T32NS007124 (MJ), Ramon D. Buckley Graduate Student Award (MJ) y VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Materiales

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Referencias

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

MedicinaN mero 213Comportamiento automatizadomueca facialestrabismodolormigra acomportamiento del rat n

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados