Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Dieses Protokoll bietet eine Methode zur Verfolgung des automatisierten Augenschielens bei Nagetieren im Laufe der Zeit in einer Weise, die mit der Zeitbindung an neurophysiologische Messungen kompatibel ist. Es wird erwartet, dass dieses Protokoll für Forscher nützlich sein wird, die Mechanismen von Schmerzstörungen wie Migräne untersuchen.

Zusammenfassung

Es war eine Herausforderung, spontane Schmerzen in Echtzeit zu verfolgen und so zu quantifizieren, dass menschliche Verzerrungen vermieden werden. Dies gilt insbesondere für Metriken von Kopfschmerzen, wie z. B. bei Erkrankungen wie Migräne. Das Schielen der Augen hat sich als kontinuierliche variable Metrik herausgestellt, die über die Zeit gemessen werden kann und für die Vorhersage von Schmerzzuständen in solchen Assays wirksam ist. In diesem Artikel wird ein Protokoll für die Verwendung von DeepLabCut (DLC) zur Automatisierung und Quantifizierung des Augenschielens (euklidischer Abstand zwischen den Augenlidern) bei gefesselten Mäusen mit frei rotierenden Kopfbewegungen vorgestellt. Dieses Protokoll ermöglicht die unverzerrte Quantifizierung des Augenschielens, die mit mechanistischen Messgrößen wie der Neurophysiologie gekoppelt und direkt mit ihnen verglichen werden kann. Wir bieten eine Bewertung der KI-Trainingsparameter, die für das Erreichen des Erfolgs erforderlich sind, definiert durch die Unterscheidung von Schiel- und Nicht-Schielperioden. Wir zeigen die Fähigkeit, das Schielen in einem CGRP-induzierten migräneähnlichen Phänotyp mit einer Auflösung von weniger als einer Sekunde zuverlässig zu verfolgen und zu differenzieren.

Einleitung

Migräne ist eine der weltweit am weitesten verbreiteten Erkrankungen des Gehirns, von der mehr als eine Milliarde Menschen betroffensind 1. Präklinische Mausmodelle der Migräne haben sich als informative Möglichkeit erwiesen, die Mechanismen der Migräne zu untersuchen, da diese Studien leichter kontrolliert werden können als Studien am Menschen, was eine kausale Untersuchung des migränebedingten Verhaltens ermöglicht2. Solche Modelle haben eine starke und wiederholbare phänotypische Reaktion auf Migräne-induzierende Verbindungen wie Calcitonin-Gene-Related Peptide (CGRP) gezeigt. Der Bedarf an robusten Messungen von migränerelevanten Verhaltensweisen in Nagetiermodellen besteht weiterhin, insbesondere solche, die mit mechanistischen Metriken wie Bildgebung und elektrophysiologischen Ansätzen gekoppelt werden können.

Migräneähnliche Hirnzustände sind phänotypisch gekennzeichnet durch das Vorhandensein von Lichtaversion, Pfotenallodynie, Gesichtshyperalgesie gegenüber schädlichen Reizen und Gesichtsgrimasse3. Solche Verhaltensweisen werden anhand der Gesamtzeit, die sie im Licht verbracht haben (Lichtaversion) und der Empfindlichkeitsschwellen für Pfoten- oder Gesichtsberührungen (Pfotenallodynie und Gesichtshyperalgesie) gemessen und sind auf eine einzige Messung über große Zeiträume (Minuten oder länger) beschränkt. Migräneähnliche Verhaltensweisen können bei Tieren durch die Verabreichung von Migräne-induzierenden Verbindungen wie CGRP hervorgerufen werden, die die Symptome menschlicher Patienten mit Migräne3 nachahmen (d. h. die Validität des Gesichts demonstrieren). Solche Verbindungen verursachen auch Migränesymptome, wenn sie beim Menschen verabreicht werden, was die Konstruktvalidität dieser Modelle demonstriert4. Studien, in denen Verhaltensphänotypen pharmakologisch abgeschwächt wurden, haben zu Entdeckungen im Zusammenhang mit der Behandlung von Migräne geführt und liefern eine weitere Untermauerung dieser Modelle (d. h. den Nachweis der prädiktiven Validität)5,6.

Zum Beispiel wurde gezeigt, dass ein monoklonaler Anti-CGRP-Antikörper (ALD405) bei Mäusen, die mit CGRP behandelt wurden, das lichtaversive Verhalten5 und die Gesichtsgrimasse6 reduziert, und andere Studien haben gezeigt, dass CGRP-Antagonisten das durch Distickstoffmonoxid induzierte migräneähnliche Verhaltensweisen bei Tieren reduzieren 7,8. Jüngste klinische Studien haben Erfolge bei der Behandlung von Migräne durch Blockierung von CGRP 9,10 gezeigt, was zu mehreren von der FDA zugelassenen Medikamenten führte, die auf CGRP oder seinen Rezeptor abzielen. Die präklinische Bewertung von Migräne-Phänotypen hat zu Durchbrüchen in den klinischen Erkenntnissen geführt und ist daher unerlässlich für das Verständnis einiger der komplexeren Aspekte der Migräne, die am Menschen nur schwer direkt getestet werden können.

Trotz zahlreicher Vorteile sind Experimente, bei denen diese Verhaltensdaten von Migräne bei Nagetieren verwendet werden, oft in ihren Fähigkeiten zur Abtastung zum Zeitpunkt eingeschränkt und können subjektiv und anfällig für experimentelle Fehler beim Menschen sein. Viele Verhaltensassays sind in der Fähigkeit, Aktivität mit feinerer zeitlicher Auflösung zu erfassen, eingeschränkt, was es oft schwierig macht, dynamischere Elemente zu erfassen, die auf einer Zeitskala von weniger als einer Sekunde auftreten, wie z. B. auf der Ebene der Gehirnaktivität. Es hat sich als schwierig erwiesen, die spontaneren, natürlich vorkommenden Elemente des Verhaltens im Laufe der Zeit mit einer sinnvollen zeitlichen Auflösung zu quantifizieren, um neurophysiologische Mechanismen zu untersuchen. Die Schaffung einer Möglichkeit, migräneähnliche Aktivität auf schnelleren Zeitskalen zu identifizieren, würde es ermöglichen, migräneähnliche Gehirnzustände extern zu validieren. Dies wiederum könnte mit der Gehirnaktivität synchronisiert werden, um robustere Gehirnaktivitätsprofile von Migräne zu erstellen.

Ein solcher migränebedingter Phänotyp, die Gesichtsgrimasse, wird in verschiedenen Kontexten als Schmerzmessung bei Tieren verwendet, die sofort gemessen und über die Zeit verfolgt werden kann11. Die Grimasse im Gesicht wird oft als Indikator für spontane Schmerzen verwendet, basierend auf der Vorstellung, dass Menschen (insbesondere nonverbale Menschen) und andere Säugetierarten natürliche Veränderungen des Gesichtsausdrucks zeigen, wenn sie Schmerzen empfinden11. Studien, in denen in den letzten zehn Jahren Gesichtsgrimassen als Hinweis auf Schmerzen bei Mäusen gemessen wurden, haben Skalen wie die Mouse Grimace Scale (MGS) verwendet, um die Charakterisierung von Schmerzen bei Nagetieren zu standardisieren12. Zu den Variablen des Gesichtsausdrucks des MGS gehören die Orbitastraffung (Schielen), die Nasenwölbung, die Wangenwölbung, die Ohrposition und die Veränderung des Schnurrhaars. Obwohl gezeigt wurde, dass das MGS Schmerzen bei Tieren zuverlässig charakterisiert13, ist es notorisch subjektiv und beruht auf einer genauen Bewertung, die von Versuchsleiter zu Versuchsleiter variieren kann. Darüber hinaus ist das MGS insofern eingeschränkt, als es eine nicht-kontinuierliche Skala verwendet und nicht über die zeitliche Auflösung verfügt, die erforderlich ist, um natürlich auftretendes Verhalten über die Zeit hinweg zu verfolgen.

Eine Möglichkeit, dem entgegenzuwirken, besteht darin, ein konsistentes Gesichtsmerkmal objektiv zu quantifizieren. Schielen ist das am konsequentesten verfolgbare Gesichtsmerkmal6. Das Schielen macht den Großteil der Gesamtvariabilität in den Daten aus, wenn alle MGS-Variablen (Schielen, Nasenwölbung, Wangenwölbung, Ohrposition und Schnurrhaarveränderung) berücksichtigt werden6. Da das Schielen den größten Teil zur Gesamtbewertung beiträgt, die mit dem MGS erhalten wird, und das Ansprechen auf CGRP 6,14 zuverlässig verfolgt, ist es die zuverlässigste Methode, um spontane Schmerzen in Migräne-Mausmodellen zu verfolgen. Dies macht das Schielen zu einem quantifizierbaren nicht-homöostatischen Verhalten, das durch CGRP induziert wird. Mehrere Labore haben Gesichtsausdrücke, einschließlich Schielen, verwendet, um potenzielle spontane Schmerzen im Zusammenhang mit Migräne darzustellen 6,15.

Es blieben einige Herausforderungen bestehen, wenn es darum ging, automatisierte Schielen in einer Weise durchzuführen, die mit mechanistischen Studien der Migräne gekoppelt werden kann. Zum Beispiel war es schwierig, das Schielen zuverlässig zu verfolgen, ohne sich auf eine feste Position zu verlassen, die in allen Sitzungen auf die gleiche Weise kalibriert werden muss. Eine weitere Herausforderung besteht darin, diese Art der Analyse auf einer kontinuierlichen Skala durchführen zu können, anstatt auf diskreten Skalen wie der MGS. Um diese Herausforderungen zu bewältigen, haben wir uns zum Ziel gesetzt, maschinelles Lernen in Form von DeepLabCut (DLC) in unsere Datenanalyse-Pipeline zu integrieren. DLC ist ein maschinelles Lernmodell zur Posenschätzung, das von Mathis und Kollegen entwickelt wurde und auf eine Vielzahl von Verhaltensweisen angewendet wurde16. Mit ihrer Software zur Posenschätzung waren wir in der Lage, Modelle zu trainieren, die Punkte auf einem Mausauge mit nahezu menschlicher Genauigkeit genau vorhersagen konnten. Dies löst die Probleme der sich wiederholenden manuellen Bewertung und erhöht gleichzeitig die zeitliche Auflösung drastisch. Darüber hinaus haben wir durch die Erstellung dieser Modelle ein wiederholbares Mittel entwickelt, um das Schielen und die Schätzung der migräneähnlichen Gehirnaktivität über größere Versuchsgruppen hinweg zu bewerten. Hier stellen wir die Entwicklung und Validierung dieser Methode zur Verfolgung von Schielverhalten auf eine Weise vor, die zeitlich an andere mechanistische Messungen wie die Neurophysiologie gebunden werden kann. Das übergeordnete Ziel ist es, mechanistische Studien zu katalysieren, die zeitlich fixiertes Schielenverhalten in Nagetiermodellen erfordern.

Protokoll

HINWEIS: Alle Tiere, die in diesen Versuchen verwendet wurden, wurden gemäß den vom Institutional Animal Care and Use Committee (IACUC) der Universität von Iowa genehmigten Protokollen behandelt.

1. Bereiten Sie die Ausrüstung für die Datenerfassung vor

  1. Stellen Sie sicher, dass alle erforderlichen Geräte verfügbar sind: Stellen Sie sicher, dass die empfohlene Hardware zum Ausführen von DLC über mindestens 8 GB Arbeitsspeicher verfügt. In der Materialtabelle finden Sie Informationen zu Hardware und Software.
    HINWEIS: Daten können in jedem Format gesammelt werden, müssen aber vor der Analyse in ein Format konvertiert werden, das von DLC gelesen werden kann. Die gängigsten Formate sind AVI und MP4.
  2. Konfigurieren Sie mindestens eine Kamera so, dass ein Auge eines Tieres erkannt werden kann. Wenn beide Augen sichtbar sind, führen Sie eine zusätzliche Filterung durch, da dies zu Interferenzen beim Tracking führen kann. In Abschnitt 10 finden Sie ein Beispiel für eine solche Filterung der hier bereitgestellten Daten.
  3. Installieren Sie DLC mit dem Paket, das Sie unter Deeplabcut.github.io/DeepLabCut/docs/installation finden.
  4. Fügen Sie in der Kamerakonfiguration eine einzelne Kamera in einem Seitenwinkel (~90°) zur Maus ein. Um diesem Beispiel zu folgen, nehmen Sie Proben bei 10 Hz, wobei die Mäuse gefesselt sind, aber frei auf ihre gesamte Bandbreite an Kopfbewegungen relativ zum Körper zugreifen können. Halten Sie zwischen 2 und 4 Zoll von der Kamera zum Tier entfernt.

2. DLC einrichten

  1. Erstellen Sie nach der Installation von DLC die Umgebung, in der Sie arbeiten möchten. Navigieren Sie dazu zu dem Ordner, in den die DLC-Software heruntergeladen wurde, indem Sie das Verzeichnis mit dem folgenden Befehl ändern.
    CD folder_name
    HINWEIS: Hier befindet sich die Datei DEEPLABCUT.yaml.
  2. Führen Sie den ersten Befehl aus, um die Umgebung zu erstellen, und aktivieren Sie sie, indem Sie den zweiten Befehl eingeben.
    conda env create -f DEEPLABCUT.yaml
    conda activate Deeplabcut
    HINWEIS: Stellen Sie sicher, dass die Umgebung vor jeder Verwendung des DLC aktiviert ist.
    Öffnen Sie nach dem Aktivieren der Umgebung die grafische Benutzeroberfläche (GUI) mit dem folgenden Befehl und beginnen Sie mit der Erstellung des Modells.
    python -m deeplabcut

3. Erstellen des Modells

  1. Nachdem die GUI geöffnet wurde, beginnen Sie mit der Erstellung eines Modells, indem Sie unten auf Neues Projekt erstellen klicken.
  2. Benennen Sie das Projekt mit etwas Aussagekräftigem und Einzigartigem, um es später zu identifizieren, und geben Sie einen Namen als Experimentator ein. Überprüfen Sie den Abschnitt Speicherort , um zu sehen, wo das Projekt gespeichert wird.
  3. Wählen Sie Ordner durchsuchen aus, und suchen Sie die Videos zum Trainieren des Modells. Wählen Sie Videos in Projektordner kopieren , wenn die Videos nicht aus dem ursprünglichen Verzeichnis verschoben werden sollen.
  4. Wählen Sie Erstellen aus, um ein neues Projekt auf dem Computer zu generieren.
    HINWEIS: Die Videos müssen die gesamte Bandbreite des Verhaltens abdecken, das Sie beobachten werden (d. h. Schielen, Nicht-Schielen und alle Verhaltensweisen dazwischen). Das Modell ist nur in der Lage, ein ähnliches Verhalten wie in den Trainingsdaten zu erkennen, und wenn einige Komponenten des Verhaltens fehlen, kann das Modell Schwierigkeiten haben, es zu erkennen.

4. Konfigurieren Sie die Einstellungen

HINWEIS: Hier können Details wie die zu verfolgenden Punkte, die Anzahl der aus jedem Trainingsvideo extrahierten Frames, die standardmäßige Beschriftungspunktgröße und Variablen in Bezug auf das Training des Modells definiert werden.

  1. Bearbeiten Sie nach dem Erstellen des Modells die Konfigurationseinstellungen, indem Sie Edit config.yaml auswählen. Wählen Sie Bearbeiten aus, um die Konfigurationseinstellungsdatei zu öffnen und Schlüsseleinstellungen für das Modell festzulegen.
  2. Ändern Sie Körperteile so, dass alle Teile des Auges verfolgt werden sollen, und ändern Sie dann numframes2pick auf die Anzahl der Frames, die pro Trainingsvideo benötigt werden, um insgesamt 400 Frames zu erhalten. Ändern Sie abschließend die Punktgröße in sechs , damit die Standardgröße beim Beschriften klein genug ist, um genau um die Ränder des Auges herum platziert zu werden.

5. Extrahieren von Trainingsframes

  1. Navigieren Sie nach der Konfiguration zur Registerkarte Frames extrahieren oben in der GUI und wählen Sie unten rechts auf der Seite Frames extrahieren aus.
  2. Überwachen Sie den Fortschritt mithilfe der Ladeleiste am unteren Rand der GUI.

6. Trainingsrahmen beschriften

  1. Navigieren Sie in der GUI zur Registerkarte Beschriftungsrahmen , und wählen Sie Beschriftungsrahmen aus. Suchen Sie das neue Fenster, in dem Ordner für jedes der ausgewählten Schulungsvideos angezeigt werden. Wählen Sie den ersten Ordner aus, und eine neue Bezeichnungs-GUI wird geöffnet.
  2. Beschriften Sie die Punkte, die während der Konfiguration für jeden Frame des ausgewählten Videos definiert wurden. Nachdem alle Frames beschriftet sind, speichern Sie sie und wiederholen Sie den Vorgang für das nächste Video.
  3. Um das Schielen angemessen zu beschriften, verwenden Sie zwei Punkte, die so nah wie möglich an der größten Spitze des Auges (Mitte) liegen, und geben Sie für jeden Punkt die Auf-/Ab-Positionen an. Nähern Sie sich dem Schielen als Durchschnitt dieser beiden Längen an.
    HINWEIS: Beim Beschriften speichert DLC den Fortschritt nicht automatisch. Es wird empfohlen, regelmäßig zu speichern, um den Verlust von beschrifteten Daten zu vermeiden.

7. Erstellen eines Trainingsdatensatzes

  1. Navigieren Sie nach dem manuellen Beschriften zur Registerkarte Netzwerk trainieren , und wählen Sie Netzwerk trainieren aus, um die Software aufzufordern, mit dem Training des Modells zu beginnen.
  2. Überwachen Sie den Fortschritt im Befehlsfenster.

8. Evaluieren Sie das Netzwerk

  1. Navigieren Sie nach Abschluss des Netzwerktrainings zur Registerkarte Netzwerk auswerten , und wählen Sie Netzwerk auswerten aus. Warten Sie einen Moment, bis der blaue Ladekreis verschwindet und anzeigt, dass die Selbstbewertung abgeschlossen ist und das Modell einsatzbereit ist.

9. Analysieren Sie Daten/generieren Sie beschriftete Videos

  1. Um Videos zu analysieren, navigieren Sie zur Registerkarte Videos analysieren . Wählen Sie Weitere Videos hinzufügen und wählen Sie die zu analysierenden Videos aus.
  2. Wählen Sie Ergebnis(e) als csv speichern , wenn eine csv-Ausgabe der Daten ausreicht.
  3. Wenn alle Videos erfasst wurden, wählen Sie unten Videos analysieren aus, um mit der Analyse der Videos zu beginnen.
    HINWEIS: Dieser Schritt muss abgeschlossen sein, bevor in Schritt 9.5 beschriftete Videos generiert werden
  4. Nachdem die Videos analysiert wurden, navigieren Sie zur Registerkarte Videos erstellen und wählen Sie die analysierten Videos aus.
  5. Wählen Sie Videos erstellen aus, und die Software beginnt mit der Generierung von beschrifteten Videos, die die im entsprechenden .csv angezeigten Daten darstellen.

10. Verarbeiten Sie die Enddaten

  1. Wenden Sie die bei https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc gefundenen Makros an, um Rohdaten in das für diese Analyse verwendete Format (d. h. euklidische Entfernung) zu konvertieren.
  2. Importieren Sie Makros mit den Bezeichnungen Step1 und Step 2 in die CSV-Datei, und wenden Sie sie auf die CSV-Datei an, um alle suboptimalen Datenpunkte herauszufiltern und die Daten in einen gemittelten euklidischen Abstand für die zentriertesten Punkte am oberen und unteren Rand des Auges zu konvertieren.
  3. Führen Sie das Makro mit dem Namen Step3 aus, um jeden Punkt basierend auf dem Schwellenwert im Skript, der auf 75 Pixel festgelegt ist, als 0 ohne Schielen und 1 Schielen zu markieren.
    HINWEIS: Die Parameter für diese Makros müssen je nach Versuchsaufbau möglicherweise angepasst werden (siehe Diskussion). Der Schwellenwert für das Schielen und der automatische Filter für den Maximalwert des Auges sind Parameter, die je nach Größe des Tieres und Entfernung von der Kamera geändert werden können. Sie können auch die Werte anpassen, die zum Entfernen suboptimaler Punkte verwendet werden, je nachdem, wie selektiv die Daten gefiltert werden müssen.

Ergebnisse

Hier stellen wir eine Methode zur zuverlässigen Detektion von Schielen bei hoher zeitlicher Auflösung mit Hilfe von DeepLabCut zur Verfügung. Wir haben die Trainingsparameter optimiert und eine Bewertung der Stärken und Schwächen dieser Methode vorgenommen (Abbildung 1).

Nach dem Training unserer Modelle haben wir überprüft, ob sie in der Lage sind, die oberen und unteren Punkte des Augenlids korrekt zu schätzen (

Diskussion

Dieses Protokoll bietet eine leicht zugängliche, detaillierte Methode für die Verwendung von auf maschinellem Lernen basierenden Werkzeugen, die das Schielen mit nahezu menschlicher Genauigkeit differenzieren und gleichzeitig die gleiche (oder bessere) zeitliche Auflösung früherer Ansätze beibehalten können. In erster Linie macht es die Bewertung des automatisierten Schielens einem breiteren Publikum zugänglich. Unsere neue Methode zur Bewertung des automatisierten Schielens weist...

Offenlegungen

Wir haben keine Interessenkonflikte offenzulegen. Die Ansichten in diesem Papier sind nicht repräsentativ für die VA oder die Regierung der Vereinigten Staaten.

Danksagungen

Vielen Dank an Rajyashree Sen für die aufschlussreichen Gespräche. Dank des McKnight Foundation Neurobiology of Disease Award (RH), des NIH 1DP2MH126377-01 (RH), des Roy J. Carver Charitable Trust (RH), des NINDS T32NS007124 (MJ), des Ramon D. Buckley Graduate Student Award (MJ) und des VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Materialien

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Referenzen

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

MedizinHeft 213Automatisiertes VerhaltenGrimasseSchielenSchmerzenMigr neMausverhalten

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten