Effectuer une analyse détaillée du comportement est crucial pour comprendre la relation de comportement du cerveau. Une des meilleures façons d’évaluer le comportement est par des observations minutieuses. Cependant, quantifier le comportement observé prend beaucoup de temps et est difficile.
Les méthodes classiques d’analyse du comportement ne sont pas facilement quantifiables et sont intrinsèquement subjectives. Les récents développements dans le domaine de l’apprentissage profond, une branche des domaines de l’apprentissage automatique et de l’intelligence artificielle, offrent des possibilités de quantification automatisée et objective des images et des vidéos. Ici, nous présentons nos méthodes récemment développées en utilisant des réseaux neuronaux profonds pour effectuer une analyse détaillée du comportement chez les rongeurs et les humains.
Le principal avantage de cette technique sont sa flexibilité et son applicabilité à toutes les données d’imagerie pour l’analyse du comportement. La boîte à outils DeepBehavior prend en charge l’identification d’un seul objet, la détection multi-objets et le suivi des poses humaines. Nous fournissons également le code de post-traitement dans MATLAB pour des méthodes d’analyse cinématiques plus approfondies.
Commencez par mettre en place Tensor Box. Activez l’environnement, puis utilisez GitHub pour cloner Tensor Box et l’installer sur la machine et sur des dépendances supplémentaires. Ensuite, lancez l’interface utilisateur graphique d’étiquetage et étiquetez au moins 600 images à partir d’une large distribution d’images de comportement.
Pour étiqueter une image, cliquez sur le coin supérieur gauche de l’objet d’intérêt, puis sur le coin inférieur droit. Ensuite, assurez-vous que la boîte de divisation capture l’objet entier. Cliquez à côté pour passer au cadre suivant.
Pour relier les images de formation à un fichier de paramètres hyper réseau, ouvrez overfeat_rezoom. json dans un éditeur de texte et remplacer le chemin de fichier sous train_idl à labels.json. Ensuite, ajoutez le même chemin de fichiers sous test-idl et enregistrez les modifications.
Lancez le script de formation qui commencera la formation pour 600 000 itérations et générerez les poids formés résultants du réseau neuronal convolutionnel dans le dossier de sortie. Effectuez ensuite la prédiction sur de nouvelles images, et visualisez les sorties du réseau sous forme d’images étiquetées et de coordonnées de boîte de dingage. Installez YOLOv3.
Étiquetez ensuite les données de formation avec Yolo_mark en plaçant les images dans le dossier Yolo_mark-data-obga et en les étiquetant une par une dans l’interface utilisateur graphique. Étiquetez environ 200 images. Ensuite, configurer le fichier de configuration.
Pour modifier le fichier de configuration ouvrez le YOLO-obj. dossier cfg. Modifiez les lignes de lot, de subdivision et de classes.
Modifiez ensuite le filtre pour chaque couche de convolution avant une couche YOLO. Téléchargez les poids du réseau et placez-les dans la version darknet. dossier x64.
Exécutez l’algorithme de formation, et une fois qu’il est complet voir les itérations. Pour suivre plusieurs parties du corps dans un sujet humain, installez OpenPose puis utilisez-le pour traiter la vidéo désirée. Les capacités de la boîte à outils DeepBehavior ont été démontrées sur des vidéos de souris effectuant une tâche d’atteinte de granulés alimentaires.
Leurs pattes droites ont été étiquetées et le mouvement a été suivi avec des caméras de vue avant et latérale. Après le post-traitement avec étalonnage de la caméra, des trajectoires 3D de la portée ont été obtenues. Les sorties de YOLOv3 sont de multiples boîtes de dérodage car plusieurs objets peuvent être suivis.
Les boîtes bondissantes sont autour des objets d’intérêt qui peuvent être des parties du corps. Dans OpenPose, le réseau a détecté les positions communes et après le post-traitement avec étalonnage de la caméra, un modèle 3D du sujet a été créé. Une étape critique non couverte par ce protocole consiste à s’assurer que votre appareil dispose des versions python et des dépendances appropriées ainsi que d’un périphérique configuré GPU avant de commencer.
Après avoir obtenu avec succès le comportement de la piste à partir du réseau post-traitement supplémentaire peut être fait pour analyser davantage la cinématique et les modèles du comportement. Pourquoi la boîte à outils DeepBehavior est applicable pour les approches diagnostiques dans les modèles de maladies des rongeurs et des sujets humains n’est pas un avantage thérapeutique direct. L’utilisation de ces techniques comme outil diagnostique ou pronostique fait l’objet de recherches actives au sein de notre laboratoire.
Cette technique est utilisée pour étudier les mécanismes neuronaux du comportement moteur qualifié chez les rongeurs ainsi que d’être utilisé dans des études cliniques pour évaluer la récupération motrice chez les patients atteints de maladies neurologiques.