Para comenzar, organice el equipo e instale el software para el procedimiento DeepLabCut o DLC. Para crear el entorno, vaya a la carpeta donde se descargó el software DLC. Utilice el comando de cambio de directorio, nombre de la carpeta cd.
Ejecute el primer comando, conda env create f DEEPLABCUT.yaml. A continuación, escriba conda activate Deeplabcut para habilitar el entorno. A continuación, abra la interfaz gráfica de usuario utilizando python m deeplabcut.
Una vez que se abra la interfaz, haga clic en Crear nuevo proyecto en la parte inferior de la interfaz. Asigne un nombre al proyecto para facilitar su identificación posterior. Introduzca un nombre para el experimentador y compruebe la sección de ubicación para comprobar dónde se guardará el proyecto.
Seleccione Examinar carpetas para localizar los vídeos para entrenar el modelo y elija Copiar vídeos en la carpeta del proyecto si los vídeos deben permanecer en su directorio original. Haga clic en Crear para generar un nuevo proyecto. Después de crear el modelo, seleccione Editar configuración.
yaml, seguido de Edit para abrir el archivo de ajustes de configuración. Modifique las partes del cuerpo para incluir todas las partes del ojo para el seguimiento. Ajuste el número de fotogramas que se seleccionarán para obtener un total de 400 fotogramas para el vídeo de formación.
Cambie el tamaño del punto a seis para asegurarse de que el tamaño de etiqueta predeterminado sea lo suficientemente pequeño para una colocación precisa alrededor de los bordes del ojo. Después de la configuración, navegue hasta la pestaña Extraer fotogramas de la interfaz gráfica de usuario y seleccione Extraer fotogramas en la parte inferior. Vaya a la pestaña Marcos de etiqueta y seleccione Marcos de etiqueta.
En la nueva ventana, busque carpetas para cada uno de los videos de capacitación seleccionados y elija la primera carpeta para abrir una nueva interfaz de etiquetado. Etiquete los puntos definidos durante la configuración para cada fotograma del vídeo seleccionado. Después de etiquetar todos los fotogramas, guarde las etiquetas y repita el proceso para el siguiente video.
Para un etiquetado preciso del estrabismo, use dos puntos cerca del pico más grande del ojo. Para crear un conjunto de datos de entrenamiento, vaya a la pestaña Entrenar red e inicie entrenar la red. Una vez completado el entrenamiento de red, navegue y seleccione Evaluar red.
Para analizar vídeos, vaya a la pestaña Analizar vídeos y seleccione Añadir más vídeos para elegir los vídeos. Seleccione Guardar resultados como CSV si una salida CSV de los datos es suficiente. Una vez que todos los videos estén seleccionados, haga clic en Analizar videos para iniciar el proceso de análisis.
Por último, aplique las macros para convertir los datos sin procesar al formato requerido para el análisis de la distancia euclidiana. El modelo detectó con precisión tanto las instancias de estrabismo como las que no lo eran, marcando los puntos superior e inferior del párpado para calcular las distancias euclidianas. Los valores de error cuadrático medio entre los puntos etiquetados manualmente y los etiquetados con el modelo mostraron una variabilidad mínima después de 300 fotogramas, y los valores medios de verosimilitud para la detección correcta de puntos superaron 0,95 cuando se utilizaron 400 fotogramas.
La matriz de confusión mostró un valor predictivo positivo del 96,96% y un valor predictivo negativo del 99,66% para la detección de estrabismo.