Realizar un análisis detallado del comportamiento es crucial para entender la relación de comportamiento cerebral. Una de las mejores maneras de evaluar el comportamiento es a través de observaciones cuidadosas. Sin embargo, cuantificar el comportamiento observado es lento y desafiante.
Los métodos clásicos de análisis de comportamiento no son fácilmente cuantificables y son inherentemente subjetivos. Los recientes desarrollos en el aprendizaje profundo, una rama de los campos de aprendizaje automático e inteligencia artificial, proporcionan oportunidades para la cuantificación automatizada y objetiva de imágenes y videos. Aquí presentamos nuestros métodos desarrollados recientemente utilizando redes neuronales profundas para realizar análisis detallados del comportamiento en roedores y humanos.
La principal ventaja de esta técnica es su flexibilidad y aplicabilidad a cualquier dato de imagen para el análisis del comportamiento. DeepBehavior Toolbox admite la identificación de un solo objeto, la detección de varios objetos y el seguimiento de posturas humanas. También proporcionamos el código de postprocesamiento en MATLAB para métodos de análisis cinemático más detallados.
Comience configurando Tensor Box. Active el entorno y, a continuación, utilice GitHub para clonar Tensor Box e instalarlo en el equipo y en dependencias adicionales. A continuación, inicie la interfaz gráfica de usuario de etiquetado y etiquete al menos 600 imágenes de una amplia distribución de marcos de comportamiento.
Para etiquetar una imagen, haga clic en la esquina superior izquierda del objeto de interés y, a continuación, en la esquina inferior derecha. A continuación, asegúrese de que el cuadro delimitador captura todo el objeto. Haga clic al lado para pasar al siguiente fotograma.
Para vincular las imágenes de entrenamiento a un archivo de hipertráculos de red, abra overfeat_rezoom. json en un editor de texto y reemplace la ruta de acceso del archivo en train_idl a labels.json. A continuación, agregue la misma ruta de archivo en test-idl y guarde los cambios.
Inicie el script de entrenamiento que comenzará a entrenar para 600.000 iteraciones y genere los pesos entrenados resultantes de la red neuronal convolucional en la carpeta de salida. A continuación, realice la predicción en nuevas imágenes y vea las salidas de la red como imágenes etiquetadas y como coordenadas de cuadro delimitador. Instale YOLOv3.
A continuación, etiquete los datos de entrenamiento con Yolo_mark colocando las imágenes en la carpeta Yolo_mark-data-obga y etiquete una por una en la interfaz gráfica de usuario. Etiquete aproximadamente 200 imágenes. A continuación, configure el archivo de configuración.
Para modificar el archivo de configuración, abra el YOLO-obj. cfg. Modifique las líneas de lote, subdivisión y clases.
A continuación, cambie el filtro para cada capa de convolución antes de una capa YOLO. Descargue las ponderaciones de red y colóquelas en darknet-build. x64.
Ejecute el algoritmo de entrenamiento y, una vez que se haya completado, vea las iteraciones. Para realizar un seguimiento de varias partes del cuerpo en un sujeto humano, instale OpenPose y utilícelo para procesar el vídeo deseado. Las capacidades de DeepBehavior Toolbox se demostraron en videos de ratones realizando una tarea de llegar a un pellet de comida.
Sus patas derechas fueron etiquetadas y el movimiento fue rastreado con cámaras de visión frontal y lateral. Después del postprocesamiento con calibración de la cámara, se obtuvieron trayectorias 3D del alcance. Las salidas de YOLOv3 son varios cuadros delimitadores porque se puede realizar un seguimiento de varios objetos.
Los cuadros delimitadores están alrededor de los objetos de interés que pueden ser partes del cuerpo. En OpenPose, la red detectó las posiciones de las articulaciones y después del procesamiento posterior con la calibración de la cámara, se creó un modelo 3D del sujeto. Un paso crítico que no se trata en este protocolo es asegurarse de que el dispositivo tiene las versiones y dependencias de Python adecuadas, así como un dispositivo configurado por GPU antes de comenzar.
Después de obtener con éxito el comportamiento de la pista de la red se puede hacer un postprocesamiento adicional para analizar más a fondo la cinemática y los patrones del comportamiento. Por qué DeepBehavior Toolbox es aplicable para los enfoques de diagnóstico en modelos de enfermedades de roedores y seres humanos no es un beneficio terapéutico directo. El uso de estas técnicas como herramienta de diagnóstico o pronóstico está bajo investigación activa dentro de nuestro laboratorio.
Esta técnica se utiliza para investigar los mecanismos neuronales del comportamiento motor calificado en roedores, así como para ser utilizado en estudios clínicos para evaluar la recuperación motora en pacientes con enfermedades neurológicas.