Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.
Method Article
* Estos autores han contribuido por igual
Este protocolo proporciona un método para rastrear el estrabismo ocular automatizado en roedores a lo largo del tiempo de una manera compatible con el bloqueo de tiempo a las medidas neurofisiológicas. Se espera que este protocolo sea útil para los investigadores que estudian los mecanismos de los trastornos del dolor, como la migraña.
El dolor espontáneo ha sido difícil de rastrear en tiempo real y cuantificar de una manera que evite el sesgo humano. Esto es especialmente cierto para las métricas de dolor de cabeza, como en trastornos como la migraña. El estrabismo se ha convertido en una métrica variable continua que puede medirse a lo largo del tiempo y es eficaz para predecir los estados de dolor en este tipo de ensayos. Este artículo proporciona un protocolo para el uso de DeepLabCut (DLC) para automatizar y cuantificar el estrabismo (distancia euclidiana entre párpados) en ratones restringidos con movimientos de cabeza que giran libremente. Este protocolo permite emparejar y comparar directamente la cuantificación no sesgada del estrabismo ocular con medidas mecanicistas como la neurofisiología. Proporcionamos una evaluación de los parámetros de entrenamiento de IA necesarios para lograr el éxito definido por la discriminación de los períodos de estrabismo y no estrabismo. Demostramos la capacidad de rastrear y diferenciar de manera confiable el estrabismo en un fenotipo similar a la migraña inducida por CGRP con una resolución de menos de un segundo.
La migraña es uno de los trastornos cerebrales más prevalentes en todo el mundo y afecta a más de mil millonesde personas. Los modelos preclínicos de migraña en ratones han surgido como una forma informativa de estudiar los mecanismos de la migraña, ya que estos estudios pueden controlarse más fácilmente que los estudios en humanos, lo que permite el estudio causal del comportamiento relacionado con la migraña. Estos modelos han demostrado una respuesta fenotípica fuerte y repetible a los compuestos inductores de migraña, como el péptido relacionado con el gen de la calcitonina (CGRP). Persiste la necesidad de mediciones sólidas de los comportamientos relevantes para la migraña en modelos de roedores, especialmente aquellos que pueden combinarse con métricas mecanicistas como imágenes y enfoques electrofisiológicos.
Los estados cerebrales similares a la migraña se han caracterizado fenotípicamente por la presencia de aversión a la luz, alodinia de la pata, hiperalgesia facial a estímulos nocivos y mueca facial3. Dichos comportamientos se miden por el tiempo total que se pasa en la luz (aversión a la luz) y los umbrales de sensibilidad al tacto facial o de las patas (alodinia de las patas e hiperalgesia facial) y se restringen a una sola lectura durante largos períodos de tiempo (minutos o más). Los comportamientos similares a la migraña se pueden provocar en animales mediante la dosificación de compuestos inductores de migraña como el CGRP, imitando los síntomas experimentados por los pacientes humanos con migraña3 (es decir, demostrando validez aparente). Dichos compuestos también producen síntomas de migraña cuando se administran en humanos, lo que demuestra la validez de constructo de estos modelos4. Los estudios en los que los fenotipos conductuales se atenuaron farmacológicamente han conducido a descubrimientos relacionados con el tratamiento de la migraña y proporcionan una mayor justificación de estos modelos (es decir, demuestran validez predictiva)5,6.
Por ejemplo, se demostró que un anticuerpo monoclonal anti-CGRP (ALD405) reduce el comportamiento de aversión a la luz5 y la mueca facial en ratones6 tratados con CGRP, y otros estudios han demostrado que los fármacos antagonistas del CGRP reducen los comportamientos similares a la migraña inducidos por el óxido nitroso en animales 7,8. Ensayos clínicos recientes han demostrado éxito en el tratamiento de la migraña mediante el bloqueo de CGRP 9,10, lo que ha llevado a múltiples medicamentos aprobados por la FDA dirigidos al CGRP o a su receptor. La evaluación preclínica de los fenotipos relacionados con la migraña ha dado lugar a avances en los hallazgos clínicos y, por lo tanto, es esencial para comprender algunos de los aspectos más complejos de la migraña que son difíciles de probar directamente en humanos.
A pesar de las numerosas ventajas, los experimentos que utilizan estas lecturas del comportamiento de la migraña en roedores a menudo están restringidos en su capacidad de muestreo de puntos de tiempo y pueden ser subjetivos y propensos a errores experimentales humanos. Muchos ensayos conductuales están limitados en la capacidad de capturar la actividad a resoluciones temporales más finas, lo que a menudo dificulta la captura de elementos más dinámicos que ocurren en una escala de tiempo de menos de un segundo, como a nivel de la actividad cerebral. Ha resultado difícil cuantificar los elementos más espontáneos y naturales del comportamiento a lo largo del tiempo con una resolución temporal significativa para el estudio de los mecanismos neurofisiológicos. La creación de una forma de identificar la actividad similar a la migraña en escalas de tiempo más rápidas permitiría validar externamente los estados cerebrales similares a la migraña. Esto, a su vez, podría sincronizarse con la actividad cerebral para crear perfiles de actividad cerebral más robustos de la migraña.
Uno de estos fenotipos relacionados con la migraña, la mueca facial, se utiliza en varios contextos como una medida del dolor en animales que se puede medir instantáneamente y rastrear a lo largodel tiempo. La mueca facial se utiliza a menudo como un indicador de dolor espontáneo, basándose en la idea de que los humanos (especialmente los humanos no verbales) y otras especies de mamíferos muestran cambios naturales en la expresión facial cuando experimentan dolor. Los estudios que miden la mueca facial como indicación de dolor en ratones en la última década han utilizado escalas como la Escala de Muecas de Ratón (MGS) para estandarizar la caracterización del dolor en roedores12. Las variables de expresión facial del MGS incluyen el endurecimiento orbital (estrabismo), el abultamiento de la nariz, el abultamiento de las mejillas, la posición de las orejas y el cambio de bigotes. A pesar de que se ha demostrado que el MGS caracteriza de manera confiable el dolor en animales13, es notoriamente subjetivo y se basa en puntuaciones precisas, que pueden variar entre los experimentadores. Además, el MGS es limitado en el sentido de que utiliza una escala no continua y carece de la resolución temporal necesaria para rastrear el comportamiento natural a lo largo del tiempo.
Una forma de combatir esto es cuantificar objetivamente un rasgo facial consistente. El estrabismo es el rasgo facial más rastreable6. El estrabismo explica la mayor parte de la variabilidad total de los datos cuando se tienen en cuenta todas las variables del MGS (estrabismo, protuberancia de la nariz, protuberancia de las mejillas, posición de las orejas y cambio de bigotes)6. Debido a que el estrabismo contribuye más a la puntuación general obtenida utilizando el MGS y rastrea de manera confiable la respuesta a CGRP 6,14, es la forma más confiable de rastrear el dolor espontáneo en modelos de ratones con migraña. Esto hace que el estrabismo sea un comportamiento no homeostático cuantificable inducido por el CGRP. Varios laboratorios han utilizado las características de la expresión facial, incluido el estrabismo, para representar el posible dolor espontáneo asociado con la migraña 6,15.
Han persistido varios desafíos con respecto a la realización de estrabismos automatizados de una manera que pueda combinarse con estudios mecánicos de la migraña. Por ejemplo, ha sido difícil realizar un seguimiento fiable del estrabismo sin depender de una posición fija que debe calibrarse de la misma manera en todas las sesiones. Otro desafío es la capacidad de llevar a cabo este tipo de análisis a escala continua en lugar de escalas discretas como el MGS. Para mitigar estos desafíos, nos propusimos integrar el aprendizaje automático, en forma de DeepLabCut (DLC), en nuestra canalización de análisis de datos. DLC es un modelo de aprendizaje automático de estimación de pose desarrollado por Mathis y sus colegas y se ha aplicado a una amplia gama de comportamientos16. Usando su software de estimación de pose, pudimos entrenar modelos que podían predecir con precisión puntos en el ojo de un ratón con una precisión casi humana. Esto resuelve los problemas de puntuación manual repetitiva y, al mismo tiempo, aumenta drásticamente la resolución temporal. Además, al crear estos modelos, hemos creado un medio repetible para puntuar el estrabismo y estimar la actividad cerebral similar a la migraña en grupos experimentales más grandes. Aquí, presentamos el desarrollo y la validación de este método para rastrear los comportamientos de estrabismo de una manera que puede bloquearse en el tiempo con otras mediciones mecanicistas como la neurofisiología. El objetivo general es catalizar estudios mecanicistas que requieran comportamientos de estrabismo bloqueados en el tiempo en modelos de roedores.
NOTA: Todos los animales utilizados en estos experimentos fueron manejados de acuerdo con los protocolos aprobados por el Comité Institucional de Cuidado y Uso de Animales (IACUC) de la Universidad de Iowa.
1. Preparar el equipo para la recopilación de datos
2. Configuración de DLC
3. Crear el modelo
4. Configurar los ajustes
NOTA: Aquí es donde se pueden definir detalles como qué puntos rastrear, cuántos fotogramas extraer de cada video de entrenamiento, tamaño de punto de etiquetado predeterminado y variables relacionadas con cómo se entrenará el modelo.
5. Extraer fotogramas de entrenamiento
6. Etiquetar marcos de entrenamiento
7. Crear un conjunto de datos de entrenamiento
8. Evalúe la red
9. Analizar datos/generar videos etiquetados
10. Procesar los datos finales
Aquí, proporcionamos un método para la detección confiable de estrabismo a alta resolución temporal utilizando DeepLabCut. Optimizamos los parámetros de entrenamiento y proporcionamos una evaluación de las fortalezas y debilidades de este método (Figura 1).
Después de entrenar nuestros modelos, comprobamos que eran capaces de estimar correctamente los puntos superior e inferior del párpado (Figura 2
Este protocolo proporciona un método detallado de fácil acceso para el uso de herramientas basadas en el aprendizaje automático que pueden diferenciar el estrabismo con una precisión casi humana mientras mantienen la misma (o mejor) resolución temporal de los enfoques anteriores. Principalmente, hace que la evaluación del estrabismo automatizado esté más disponible para un público más amplio. Nuestro nuevo método para evaluar el estrabismo automatizado tiene varias mejoras en ...
No tenemos conflictos de intereses que revelar. Las opiniones expresadas en este documento no son representativas del VA ni del Gobierno de los Estados Unidos.
Gracias a Rajyashree Sen por sus conversaciones perspicaces. Gracias al Premio de Neurobiología de la Enfermedad de la Fundación McKnight (RH), NIH 1DP2MH126377-01 (RH), el Roy J. Carver Charitable Trust (RH), NINDS T32NS007124 (MJ), Ramon D. Buckley Graduate Student Award (MJ) y VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).
Name | Company | Catalog Number | Comments |
CUDA toolkit 11.8 | |||
cuDNN SDK 8.6.0 | |||
Intel computers with Windows 11, 13th gen | |||
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse: | FaceX LLC | NA | Any camera that can record an animal's eye is sufficient, but this is our eye tracking hardware. |
NVIDIA GPU driver that is version 450.80.02 or higher | |||
NVIDIA RTX A5500, 24 GB DDR6 | NVIDIA | [490-BHXV] | Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU |
Python 3.9-3.11 | |||
TensorFlow version 2.10 |
Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos
Solicitar permisoThis article has been published
Video Coming Soon
ACERCA DE JoVE
Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados