JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Ce protocole fournit une méthode pour suivre le strabisme oculaire automatisé chez les rongeurs au fil du temps d’une manière compatible avec le verrouillage temporel des mesures neurophysiologiques. Ce protocole devrait être utile aux chercheurs qui étudient les mécanismes des troubles de la douleur tels que la migraine.

Résumé

La douleur spontanée a été difficile à suivre en temps réel et à quantifier de manière à éviter les biais humains. Cela est particulièrement vrai pour les mesures de la douleur à la tête, comme dans des troubles tels que la migraine. Le strabisme est devenu une mesure variable continue qui peut être mesurée au fil du temps et qui est efficace pour prédire les états de douleur dans de tels tests. Cet article fournit un protocole pour l’utilisation de DeepLabCut (DLC) pour automatiser et quantifier le strabisme oculaire (distance euclidienne entre les paupières) chez les souris restreintes avec des mouvements de tête en rotation libre. Ce protocole permet d’associer et de comparer directement la quantification du strabisme oculaire à des mesures mécanistes telles que la neurophysiologie. Nous fournissons une évaluation des paramètres d’entraînement de l’IA nécessaires à la réussite, tels que définis par la discrimination des périodes de strabisme et de non-strabisme. Nous démontrons une capacité à suivre et à différencier de manière fiable le strabisme dans un phénotype de type migraineux induit par le CGRP à une résolution inférieure à la seconde.

Introduction

La migraine est l’un des troubles cérébraux les plus répandus dans le monde, affectant plus d’un milliard de personnes1. Les modèles murins précliniques de la migraine sont apparus comme un moyen informatif d’étudier les mécanismes de la migraine, car ces études peuvent être plus facilement contrôlées que les études humaines, permettant ainsi une étude causale du comportement lié à la migraine2. De tels modèles ont démontré une réponse phénotypique forte et reproductible aux composés induisant la migraine, tels que le peptide lié au gène de la calcitonine (CGRP). Le besoin de mesures robustes des comportements pertinents pour la migraine dans les modèles de rongeurs persiste, en particulier ceux qui peuvent être couplés à des mesures mécanistes telles que l’imagerie et les approches électrophysiologiques.

Les états cérébraux de type migraineux ont été caractérisés phénotypiquement par la présence d’une aversion à la lumière, d’une allodynie de la patte, d’une hyperalgésie faciale à des stimuli nocifs et d’une grimace faciale3. De tels comportements sont mesurés par le temps total passé à la lumière (aversion à la lumière) et les seuils de sensibilité au toucher de la patte ou du visage (allodynie de la patte et hyperalgésie faciale) et sont limités à une seule lecture sur de longues périodes de temps (minutes ou plus). Des comportements semblables à ceux de la migraine peuvent être provoqués chez les animaux en administrant des composés induisant la migraine tels que le CGRP, imitant les symptômes ressentis par les patients humains atteints de migraine3 (c’est-à-dire démontrant la validité apparente). De tels composés produisent également des symptômes de migraine lorsqu’ils sont administrés chez l’homme, démontrant la validité conceptuelle de ces modèles4. Des études dans lesquelles les phénotypes comportementaux ont été atténués pharmacologiquement ont conduit à des découvertes liées au traitement de la migraine et fournissent une justification supplémentaire de ces modèles (c’est-à-dire démontrant la validité prédictive)5,6.

Par exemple, il a été démontré qu’un anticorps monoclonal anti-CGRP (ALD405) réduisait le comportement d’aversion à la lumière5 et la grimace faciale chez les souris6 traitées avec le CGRP, et d’autres études ont démontré que les médicaments antagonistes du CGRP réduisent les comportements de migraine induits par le protoxyde d’azote chez les animaux 7,8. Des essais cliniques récents ont montré le succès du traitement de la migraine en bloquant le CGRP 9,10, ce qui a conduit à plusieurs médicaments approuvés par la FDA ciblant le CGRP ou son récepteur. L’évaluation préclinique des phénotypes liés à la migraine a conduit à des percées dans les résultats cliniques et est donc essentielle pour comprendre certains des aspects les plus complexes de la migraine qui sont difficiles à tester directement chez l’homme.

Malgré de nombreux avantages, les expériences utilisant ces lectures comportementales de la migraine chez les rongeurs sont souvent limitées dans leurs capacités d’échantillonnage de points temporels et peuvent être subjectives et sujettes à l’erreur expérimentale humaine. De nombreux tests comportementaux sont limités dans leur capacité à capturer l’activité à des résolutions temporelles plus fines, ce qui rend souvent difficile la capture d’éléments plus dynamiques qui se produisent à une échelle de temps inférieure à la seconde, comme au niveau de l’activité cérébrale. Il s’est avéré difficile de quantifier les éléments les plus spontanés et naturels du comportement au fil du temps à une résolution temporelle significative pour l’étude des mécanismes neurophysiologiques. La création d’un moyen d’identifier l’activité semblable à la migraine à des échelles de temps plus rapides permettrait de valider extérieurement les états cérébraux de type migraine. Ceci, à son tour, pourrait être synchronisé avec l’activité cérébrale pour créer des profils d’activité cérébrale plus robustes de la migraine.

L’un de ces phénotypes liés à la migraine, la grimace faciale, est utilisé dans divers contextes comme mesure de la douleur chez les animaux qui peut être mesurée instantanément et suivie dans le temps11. La grimace faciale est souvent utilisée comme indicateur de douleur spontanée basée sur l’idée que les humains (en particulier les humains non verbaux) et d’autres espèces de mammifères présentent des changements naturels dans l’expression faciale lorsqu’ils ressententde la douleur. Des études mesurant la grimace faciale comme indication de douleur chez la souris au cours de la dernière décennie ont utilisé des échelles telles que l’échelle de grimace de souris (MGS) pour normaliser la caractérisation de la douleur chez les rongeurs12. Les variables d’expression faciale du MGS comprennent le resserrement orbitaire (strabisme), le renflement du nez, le renflement des joues, la position de l’oreille et le changement des moustaches. Même s’il a été démontré que le MGS caractérise de manière fiable la douleur chez les animaux13, il est notoirement subjectif et repose sur un score précis, qui peut varier d’un expérimentateur à l’autre. De plus, le MGS est limité en ce sens qu’il utilise une échelle non continue et qu’il n’a pas la résolution temporelle nécessaire pour suivre le comportement naturel au fil du temps.

Une façon de lutter contre cela est de quantifier objectivement un trait facial cohérent. Le strabisme est la caractéristique faciale la plus régulièrement suivie6. Le strabisme représente la majorité de la variabilité totale des données si l’on tient compte de toutes les variables MGS (strabisse, renflement du nez, renflement des joues, position de l’oreille et changement des moustaches)6. Étant donné que le strabisme contribue le plus au score global obtenu à l’aide du MGS et suit de manière fiable la réponse au CGRP 6,14, c’est le moyen le plus fiable de suivre la douleur spontanée dans les modèles murins de migraine. Cela fait du strabisme un comportement non homéostatique quantifiable induit par le CGRP. Plusieurs laboratoires ont utilisé des caractéristiques d’expression faciale, y compris le strabisme, pour représenter la douleur spontanée potentielle associée à la migraine 6,15.

Plusieurs défis sont restés à relever en ce qui concerne la réalisation de strabismes automatisés d’une manière qui puisse être couplée à des études mécanistes de la migraine. Par exemple, il a été difficile de suivre de manière fiable le strabisme sans s’appuyer sur une position fixe qui doit être calibrée de la même manière d’une session à l’autre. Un autre défi est la capacité à effectuer ce type d’analyse à une échelle continue plutôt qu’à des échelles discrètes comme le MGS. Pour atténuer ces défis, nous avons cherché à intégrer l’apprentissage automatique, sous la forme de DeepLabCut (DLC), dans notre pipeline d’analyse de données. DLC est un modèle d’apprentissage automatique d’estimation de pose développé par Mathis et ses collègues et qui a été appliqué à un large éventail de comportements16. À l’aide de leur logiciel d’estimation de pose, nous avons pu entraîner des modèles capables de prédire avec précision des points sur l’œil d’une souris avec une précision proche de celle de l’homme. Cela résout les problèmes de notation manuelle répétitive tout en augmentant considérablement la résolution temporelle. De plus, en créant ces modèles, nous avons créé un moyen reproductible de noter le strabisme et d’estimer l’activité cérébrale de type migraine sur des groupes expérimentaux plus importants. Ici, nous présentons le développement et la validation de cette méthode pour suivre les comportements du strabisme d’une manière qui peut être verrouillée dans le temps par rapport à d’autres mesures mécanistes telles que la neurophysiologie. L’objectif global est de catalyser des études mécanistes nécessitant des comportements de strabisme verrouillés dans le temps dans des modèles de rongeurs.

Protocole

REMARQUE : Tous les animaux utilisés dans ces expériences ont été manipulés conformément aux protocoles approuvés par l’Institutional Animal Care and Use Committee (IACUC) de l’Université de l’Iowa.

1. Préparer l’équipement pour la collecte de données

  1. Assurez-vous de la disponibilité de tout l’équipement nécessaire : assurez-vous que le matériel recommandé pour l’exécution du DLC dispose d’au moins 8 Go de mémoire. Voir la table des matériaux pour plus d’informations sur le matériel et les logiciels.
    REMARQUE : Les données peuvent être collectées dans n’importe quel format, mais doivent être converties dans un format lisible par le DLC avant l’analyse. Les formats les plus courants sont AVI et MP4.
  2. Configurez au moins une caméra de manière à ce qu’un œil d’un animal puisse être détecté. Si les deux yeux sont visibles, effectuez un filtrage supplémentaire, car cela pourrait provoquer des interférences dans le suivi. Voir la section 10 pour un exemple d’un tel filtrage pour les données fournies ici.
  3. Installez le DLC à l’aide du package disponible à l’Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. Dans la configuration de l’appareil photo, incluez une seule caméra à un angle latéral (~90°) par rapport à la souris. Pour suivre cet exemple, échantillonnez à 10 Hz, avec les souris restreintes mais libres d’accéder à toute leur gamme de mouvements de tête par rapport au corps. Gardez entre 2 et 4 pouces de l’appareil photo par rapport à l’animal.

2. Configuration du DLC

  1. Après avoir installé le DLC, créez l’environnement à partir duquel travailler. Pour ce faire, accédez au dossier dans lequel le logiciel DLC a été téléchargé à l’aide du répertoire de modification avec la commande suivante.
    CD folder_name
    REMARQUE : C’est là que se trouve le fichier DEEPLABCUT.yaml.
  2. Exécutez la première commande pour créer l’environnement et activez-la en tapant la seconde.
    conda env create -f DEEPLABCUT.yaml
    conda activate Deeplabcut
    REMARQUE : Assurez-vous que l’environnement est activé avant chaque utilisation du DLC.
    Après avoir activé l’environnement, ouvrez l’interface utilisateur graphique (GUI) à l’aide de la commande suivante et commencez à créer le modèle.
    python -m deeplabcut

3. Créez le modèle

  1. Une fois l’interface graphique ouverte, commencez à créer un modèle en cliquant sur Créer un nouveau projet en bas.
  2. Nommez le projet de manière significative et unique pour l’identifier plus tard et entrez un nom en tant qu’expérimentateur. Consultez la section Emplacement pour voir où le projet sera enregistré.
  3. Sélectionnez Parcourir les dossiers et recherchez les vidéos pour entraîner le modèle. Sélectionnez Copier les vidéos dans le dossier du projet si les vidéos ne doivent pas être déplacées de leur répertoire d’origine.
  4. Sélectionnez Créer pour générer un nouveau projet sur l’ordinateur.
    REMARQUE : Les vidéos doivent couvrir toute la gamme des comportements que vous observerez (c’est-à-dire pliss, non-strabisme et tous les comportements intermédiaires). Le modèle ne sera capable de reconnaître qu’un comportement similaire à celui des données d’entraînement, et si certains composants du comportement sont manquants, le modèle peut avoir du mal à le reconnaître.

4. Configurer les paramètres

REMARQUE : C’est ici que des détails tels que les points à suivre, le nombre d’images à extraire de chaque vidéo d’entraînement, la taille du point d’étiquetage par défaut et les variables relatives à la façon dont le modèle s’entraînera peuvent être définis.

  1. Après avoir créé le modèle, modifiez les paramètres de configuration en sélectionnant Modifier le fichier config.yaml. Sélectionnez Modifier pour ouvrir le fichier de paramètres de configuration afin de spécifier les paramètres clés relatifs au modèle.
  2. Modifiez les parties du corps pour inclure toutes les parties de l’œil à suivre, puis modifiez numframes2pick au nombre d’images nécessaires par vidéo de formation pour obtenir un total de 400 images. Enfin, modifiez la taille du point à six afin que la taille par défaut lors de l’étiquetage soit suffisamment petite pour être placée avec précision sur les bords de l’œil.

5. Extraire les cadres d’entraînement

  1. Après la configuration, accédez à l’onglet Extraire les cadres en haut de l’interface graphique et sélectionnez Extraire les cadres en bas à droite de la page.
  2. Surveillez la progression à l’aide de la barre de chargement située en bas de l’interface graphique.

6. Étiqueter les cadres de formation

  1. Accédez à l’onglet Cadres d’étiquettes dans l’interface graphique et sélectionnez Cadres d’étiquettes. Recherchez la nouvelle fenêtre qui affiche les dossiers de chacune des vidéos de formation sélectionnées. Sélectionnez le premier dossier et une nouvelle interface graphique d’étiquetage s’ouvrira.
  2. Étiquetez les points définis lors de la configuration pour chaque image de la vidéo sélectionnée. Une fois que toutes les images sont étiquetées, enregistrez-les et répétez le processus pour la vidéo suivante.
  3. Pour un marquage adéquat du strabisme, utilisez deux points aussi près que possible du plus grand pic de l’œil (centre) et indiquez les positions haut/bas pour chaque point. Le strabisme approximatif est la moyenne de ces deux longueurs.
    REMARQUE : Lors de l’étiquetage, DLC n’enregistre pas automatiquement la progression. Il est recommandé d’effectuer des sauvegardes périodiques pour éviter la perte de données étiquetées.

7. Créer un jeu de données d’entraînement

  1. Après l’étiquetage manuel, accédez à l’onglet Entraîner le réseau et sélectionnez Entraîner le réseau pour inviter le logiciel à commencer l’entraînement du modèle.
  2. Surveillez la progression dans la fenêtre de commande.

8. Évaluez le réseau

  1. Une fois l’entraînement réseau terminé, accédez à l’onglet Évaluer le réseau et sélectionnez Évaluer le réseau. Attendez quelques instants jusqu’à ce que le cercle de chargement bleu disparaisse, indiquant qu’il a terminé l’auto-évaluation et que le modèle est prêt à l’emploi.

9. Analyser les données/générer des vidéos étiquetées

  1. Pour analyser des vidéos, accédez à l’onglet Analyser les vidéos . Sélectionnez Ajouter d’autres vidéos , puis sélectionnez les vidéos à analyser.
  2. Sélectionnez Enregistrer le(s) résultat(s) au format csv si une sortie csv des données est suffisante.
  3. Une fois que les vidéos ont toutes été acquises, sélectionnez Analyser les vidéos en bas pour commencer l’analyse des vidéos.
    REMARQUE : Cette étape doit être terminée avant de générer des vidéos étiquetées à l’étape 9.5
  4. Une fois les vidéos analysées, accédez à l’onglet Créer des vidéos et sélectionnez les vidéos analysées.
  5. Sélectionnez Créer des vidéos et le logiciel commencera à générer des vidéos étiquetées qui représentent les données affichées dans le .csv correspondant.

10. Traiter les données finales

  1. Appliquez les macros trouvées dans https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc pour convertir les données brutes dans le format utilisé pour cette analyse (c’est-à-dire la distance euclidienne).
  2. Importez et appliquez les macros étiquetées Étape 1 et Étape 2 au fichier CSV pour filtrer tous les points de données non optimaux et convertir les données en une distance euclidienne moyenne pour les points les plus centraux en haut et en bas de l’œil.
  3. Exécutez la macro appelée Step3 pour marquer chaque point comme 0 sans strabisme et 1 strabisme en fonction de la valeur de seuil du script, qui est définie sur 75 pixels.
    REMARQUE : Les paramètres de ces macros peuvent nécessiter un ajustement en fonction de la configuration expérimentale (voir discussion). Le seuil de strabisme et le filtre automatique pour la valeur maximale de l’œil sont des paramètres qui peuvent être modifiés en fonction de la taille de l’animal et de la distance de la caméra. Vous pouvez également ajuster les valeurs utilisées pour supprimer les points sous-optimaux en fonction de la sélectivité du filtrage des données.

Résultats

Ici, nous fournissons une méthode pour la détection fiable du strabisme à haute résolution temporelle à l’aide de DeepLabCut. Nous avons optimisé les paramètres d’entraînement, et nous fournissons une évaluation des forces et des faiblesses de cette méthode (Figure 1).

Après avoir entraîné nos modèles, nous avons vérifié qu’ils étaient capables d’estimer correctement les points supérieur et inférieur de ...

Discussion

Ce protocole fournit une méthode approfondie facilement accessible pour l’utilisation d’outils basés sur l’apprentissage automatique qui peuvent différencier le strabisme avec une précision proche de celle de l’homme tout en maintenant la même (ou meilleure) résolution temporelle que les approches précédentes. Principalement, cela rend l’évaluation du strabisme automatisé plus facilement accessible à un public plus large. Notre nouvelle méthode d’évaluation du st...

Déclarations de divulgation

Nous n’avons aucun conflit d’intérêts à divulguer. Les opinions exprimées dans ce document ne sont pas représentatives de celles de l’AV ou du gouvernement des États-Unis.

Remerciements

Merci à Rajyashree Sen pour ses conversations perspicaces. Grâce au prix de neurobiologie de la maladie de la Fondation McKnight (RH), au NIH 1DP2MH126377-01 (RH), au Roy J. Carver Charitable Trust (RH), au NINDS T32NS007124 (MJ), au prix Ramon D. Buckley pour les étudiants diplômés (MJ) et au VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

matériels

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Références

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

M decineNum ro 213Comportement automatisgrimace facialestrabismedouleurmigrainecomportement de souris

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.