JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Questo protocollo fornisce un metodo per tracciare lo strabismo oculare automatizzato nei roditori nel tempo in modo compatibile con il blocco temporale delle misure neurofisiologiche. Questo protocollo dovrebbe essere utile ai ricercatori che studiano i meccanismi dei disturbi del dolore come l'emicrania.

Abstract

Il dolore spontaneo è stato difficile da tracciare in tempo reale e quantificare in modo da prevenire i pregiudizi umani. Ciò è particolarmente vero per le metriche del dolore alla testa, come in disturbi come l'emicrania. Lo strabismo oculare è emerso come una metrica variabile continua che può essere misurata nel tempo ed è efficace per prevedere gli stati di dolore in tali saggi. Questo documento fornisce un protocollo per l'uso di DeepLabCut (DLC) per automatizzare e quantificare lo strabismo oculare (distanza euclidea tra le palpebre) in topi trattenuti con movimenti della testa a rotazione libera. Questo protocollo consente di abbinare la quantificazione imparziale dello strabismo oculare e di confrontarla direttamente con misure meccanicistiche come la neurofisiologia. Forniamo una valutazione dei parametri di addestramento dell'IA necessari per raggiungere il successo, come definito discriminando i periodi di strabismo e non strabismo. Dimostriamo la capacità di tracciare e differenziare in modo affidabile lo strabismo in un fenotipo simile all'emicrania indotto da CGRP con una risoluzione inferiore al secondo.

Introduzione

L'emicrania è uno dei disturbi cerebrali più diffusi in tutto il mondo, che colpisce più di un miliardo di persone1. I modelli murini preclinici di emicrania sono emersi come un modo informativo per studiare i meccanismi dell'emicrania poiché questi studi possono essere controllati più facilmente rispetto agli studi sull'uomo, consentendo così lo studio causale del comportamento correlato all'emicrania2. Tali modelli hanno dimostrato una risposta fenotipica forte e ripetibile ai composti che inducono l'emicrania, come il peptide correlato al gene della calcitonina (CGRP). Persiste la necessità di misurazioni robuste dei comportamenti rilevanti per l'emicrania nei modelli di roditori, in particolare quelli che possono essere accoppiati con metriche meccanicistiche come l'imaging e gli approcci elettrofisiologici.

Gli stati cerebrali simili all'emicrania sono stati fenotipicamente caratterizzati dalla presenza di avversione alla luce, allodinia delle zampe, iperalgesia facciale a stimoli nocivi e smorfie facciali3. Tali comportamenti sono misurati in base al tempo totale trascorso alla luce (avversione alla luce) e alle soglie di sensibilità al tatto della zampa o del viso (allodinia della zampa e iperalgesia facciale) e sono limitati a una singola lettura per lunghi periodi di tempo (minuti o più). I comportamenti simili all'emicrania possono essere suscitati negli animali dosando composti che inducono l'emicrania come il CGRP, imitando i sintomi sperimentati dai pazienti umani con emicrania3 (cioè, dimostrando la validità facciale). Tali composti producono anche sintomi di emicrania quando somministrati nell'uomo, dimostrando la validità del costrutto di questi modelli4. Gli studi in cui i fenotipi comportamentali sono stati attenuati farmacologicamente hanno portato a scoperte relative al trattamento dell'emicrania e forniscono ulteriori conferme di questi modelli (cioè, dimostrando la validità predittiva)5,6.

Ad esempio, un anticorpo monoclonale anti-CGRP (ALD405) ha dimostrato di ridurre il comportamento avverso alla luce5 e la smorfia facciale nei topi6 trattati con CGRP, e altri studi hanno dimostrato che i farmaci antagonisti del CGRP riducono i comportamenti simili all'emicrania indotti dal protossido di azoto negli animali 7,8. Recenti studi clinici hanno dimostrato il successo nel trattamento dell'emicrania bloccando il CGRP 9,10, portando a diversi farmaci approvati dalla FDA che prendono di mira il CGRP o il suo recettore. La valutazione preclinica dei fenotipi correlati all'emicrania ha portato a scoperte nei risultati clinici ed è, quindi, essenziale per comprendere alcuni degli aspetti più complessi dell'emicrania che sono difficili da testare direttamente nell'uomo.

Nonostante i numerosi vantaggi, gli esperimenti che utilizzano queste letture comportamentali dei roditori dell'emicrania sono spesso limitati nelle loro capacità di campionamento del punto temporale e possono essere soggettivi e soggetti a errori sperimentali umani. Molti saggi comportamentali sono limitati nella capacità di catturare l'attività a risoluzioni temporali più fini, rendendo spesso difficile catturare elementi più dinamici che si verificano su una scala temporale inferiore al secondo, come a livello di attività cerebrale. Si è dimostrato difficile quantificare gli elementi più spontanei e naturali del comportamento nel tempo con una risoluzione temporale significativa per lo studio dei meccanismi neurofisiologici. La creazione di un modo per identificare l'attività simile all'emicrania su scale temporali più rapide consentirebbe di convalidare esternamente gli stati cerebrali simili all'emicrania. Questo, a sua volta, potrebbe essere sincronizzato con l'attività cerebrale per creare profili di attività cerebrale più robusti dell'emicrania.

Uno di questi fenotipi correlati all'emicrania, la smorfia facciale, viene utilizzato in vari contesti come misura del dolore negli animali che può essere misurata istantaneamente e monitorata nel tempo11. La smorfia facciale è spesso usata come indicatore di dolore spontaneo basato sull'idea che gli esseri umani (in particolare gli esseri umani non verbali) e altre specie di mammiferi mostrano cambiamenti naturali nell'espressione facciale quando provano dolore11. Gli studi che misurano la smorfia facciale come indicazione del dolore nei topi nell'ultimo decennio hanno utilizzato scale come la Mouse Grimace Scale (MGS) per standardizzare la caratterizzazione del dolore nei roditori12. Le variabili di espressione facciale della MGS includono il restringimento orbitale (strabismo), il rigonfiamento del naso, il rigonfiamento delle guance, la posizione dell'orecchio e il cambiamento dei baffi. Anche se è stato dimostrato che l'MGS caratterizza in modo affidabile il dolore negli animali13, è notoriamente soggettivo e si basa su un punteggio accurato, che può variare tra gli sperimentatori. Inoltre, l'MGS è limitato in quanto utilizza una scala non continua e manca della risoluzione temporale necessaria per tracciare il comportamento naturale nel tempo.

Un modo per combattere questo problema è quantificare oggettivamente una caratteristica facciale coerente. Lo strabismo è la caratteristica facciale più costantemente tracciabile6. Lo strabismo rappresenta la maggior parte della variabilità totale dei dati quando si tiene conto di tutte le variabili MGS (strabismo, rigonfiamento del naso, rigonfiamento delle guance, posizione dell'orecchio e cambiamento dei baffi)6. Poiché lo strabismo contribuisce maggiormente al punteggio complessivo ottenuto utilizzando l'MGS e traccia in modo affidabile la risposta a CGRP 6,14, è il modo più affidabile per monitorare il dolore spontaneo nei modelli murini di emicrania. Ciò rende lo strabismo un comportamento non omeostatico quantificabile indotto dal CGRP. Diversi laboratori hanno utilizzato le caratteristiche dell'espressione facciale, tra cui lo strabismo, per rappresentare il potenziale dolore spontaneo associato all'emicrania 6,15.

Sono rimaste diverse sfide per quanto riguarda l'esecuzione di strabismo automatizzato in un modo che possa essere accoppiato con studi meccanicistici dell'emicrania. Ad esempio, è stato difficile tracciare in modo affidabile lo strabismo senza fare affidamento su una posizione fissa che deve essere calibrata allo stesso modo tra le sessioni. Un'altra sfida è la capacità di eseguire questo tipo di analisi su una scala continua invece che su scale discrete come l'MGS. Per mitigare queste sfide, abbiamo mirato a integrare l'apprendimento automatico, sotto forma di DeepLabCut (DLC), nella nostra pipeline di analisi dei dati. DLC è un modello di apprendimento automatico per la stima della posa sviluppato da Mathis e colleghi ed è stato applicato a un'ampia gamma di comportamenti16. Utilizzando il loro software di stima della posa, siamo stati in grado di addestrare modelli in grado di prevedere con precisione i punti su un occhio di topo con una precisione quasi umana. In questo modo si risolvono i problemi di assegnazione manuale ripetitiva dei punteggi, aumentando al contempo la risoluzione temporale. Inoltre, creando questi modelli, abbiamo creato un mezzo ripetibile per valutare lo strabismo e stimare l'attività cerebrale simile all'emicrania su gruppi sperimentali più ampi. Qui, presentiamo lo sviluppo e la convalida di questo metodo per tracciare i comportamenti di strabismo in un modo che può essere limitato nel tempo ad altre misurazioni meccanicistiche come la neurofisiologia. L'obiettivo generale è quello di catalizzare studi meccanicistici che richiedono comportamenti di strabismo bloccati nel tempo nei modelli di roditori.

Protocollo

NOTA: Tutti gli animali utilizzati in questi esperimenti sono stati gestiti secondo i protocolli approvati dall'Institutional Animal Care and Use Committee (IACUC) dell'Università dell'Iowa.

1. Preparare l'attrezzatura per la raccolta dei dati

  1. Garantire la disponibilità di tutte le apparecchiature necessarie: assicurarsi che l'hardware consigliato per l'esecuzione dei DLC disponga di almeno 8 GB di memoria. Vedere la Tabella dei materiali per informazioni relative all'hardware e al software.
    NOTA: i dati possono essere raccolti in qualsiasi formato, ma devono essere convertiti in un formato leggibile dal DLC prima dell'analisi. I formati più comuni sono AVI e MP4.
  2. Configura almeno una telecamera in modo che un occhio di un animale possa essere rilevato. Se entrambi gli occhi sono visibili, eseguire un filtro aggiuntivo, in quanto potrebbe causare interferenze nel tracciamento. Vedere la sezione 10 per un esempio di tale filtraggio per i dati forniti qui.
  3. Installa il DLC utilizzando il pacchetto che trovi in Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. Nella configurazione della fotocamera, includi una singola telecamera con un angolo laterale (~90°) rispetto al mouse. Per seguire questo esempio, campionare a 10 Hz, con i topi trattenuti ma liberi di accedere all'intera gamma di movimenti della testa rispetto al corpo. Mantieni tra 2 e 4 pollici dalla fotocamera all'animale.

2. Configurazione del DLC

  1. Dopo aver installato il DLC, crea l'ambiente in cui lavorare. Per fare ciò, vai alla cartella in cui è stato scaricato il software DLC utilizzando la directory di modifica con il seguente comando.
    CD folder_name
    NOTA: Qui si trova il file DEEPLABCUT.yaml.
  2. Esegui il primo comando per creare l'ambiente e abilitalo digitando il secondo comando.
    conda env create -f DEEPLABCUT.yaml
    conda attiva Deeplabcut
    NOTA: assicurati che l'ambiente sia attivato prima di ogni utilizzo del DLC.
    Dopo aver attivato l'ambiente, aprire l'interfaccia utente grafica (GUI) con il seguente comando e iniziare a creare il modello.
    python -m deeplabcut

3. Creare il modello

  1. Dopo aver aperto la GUI, inizia a creare un modello facendo clic su Crea nuovo progetto in basso.
  2. Assegna al progetto un nome significativo e univoco per identificarlo in seguito e inserisci un nome come sperimentatore. Controlla la sezione Posizione per vedere dove verrà salvato il progetto.
  3. Seleziona Sfoglia cartelle e trova i video per addestrare il modello. Seleziona Copia video nella cartella del progetto se i video non devono essere spostati dalla directory originale.
  4. Selezionare Crea per generare un nuovo progetto nel computer.
    NOTA: I video devono coprire l'intera gamma di comportamenti che osserverai (ad esempio, strabismo, non strabismo e tutti i comportamenti intermedi). Il modello sarà in grado di riconoscere solo un comportamento simile a quello nei dati di training e, se mancano alcuni componenti del comportamento, il modello potrebbe avere problemi a riconoscerlo.

4. Configura le impostazioni

NOTA: qui è possibile definire dettagli come i punti da tracciare, il numero di fotogrammi da estrarre da ciascun video di addestramento, la dimensione predefinita del punto di etichettatura e le variabili relative al modo in cui il modello verrà addestrato.

  1. Dopo aver creato il modello, modificare le impostazioni di configurazione selezionando Modifica config.yaml. Selezionare Modifica per aprire il file delle impostazioni di configurazione e specificare le impostazioni chiave relative al modello.
  2. Modifica le parti del corpo per includere tutte le parti dell'occhio da tracciare, quindi modifica numframes2pick al numero di fotogrammi necessari per video di allenamento per ottenere 400 fotogrammi totali. Infine, cambia la dimensione del punto a sei in modo che la dimensione predefinita durante l'etichettatura sia abbastanza piccola da essere posizionata con precisione attorno ai bordi dell'occhio.

5. Estrai i frame di allenamento

  1. Dopo la configurazione, accedere alla scheda Estrai fotogrammi nella parte superiore della GUI e selezionare Estrai fotogrammi nella parte inferiore destra della pagina.
  2. Monitora i progressi utilizzando la barra di caricamento nella parte inferiore della GUI.

6. Etichetta i telai di allenamento

  1. Passare alla scheda Label Frames nella GUI e selezionare Label Frames. Trova la nuova finestra che mostra le cartelle per ciascuno dei video di formazione selezionati. Seleziona la prima cartella e si aprirà una nuova GUI di etichettatura.
  2. Etichetta i punti definiti durante la configurazione per ogni fotogramma del video selezionato. Dopo che tutti i fotogrammi sono stati etichettati, salvali e ripeti il processo per il video successivo.
  3. Per un'adeguata etichettatura dello strabismo, utilizzare due punti il più vicino possibile alla punta più grande dell'occhio (centro) e indicare le posizioni su/giù per ogni punto. Strabismo approssimativo come media di queste due lunghezze.
    NOTA: durante l'etichettatura, il DLC non salva automaticamente l'avanzamento. Si consiglia di effettuare un salvataggio periodico per evitare la perdita dei dati etichettati.

7. Creare un set di dati di training

  1. Dopo aver etichettato manualmente, passare alla scheda Train network (Train network ) e selezionare Train network (Treno rete ) per richiedere al software di avviare l'addestramento del modello.
  2. Monitorare lo stato di avanzamento nella finestra di comando.

8. Valutare la rete

  1. Al termine della formazione sulla rete, passare alla scheda Valuta rete e selezionare Valuta rete. Attendere qualche istante fino a quando il cerchio di caricamento blu scompare indicando che l'autovalutazione è terminata e il modello è pronto per l'uso.

9. Analizza i dati/genera video etichettati

  1. Per analizzare i video, vai alla scheda Analizza video . Seleziona Aggiungi altri video e seleziona i video da analizzare.
  2. Selezionare Salva risultati come csv se un output csv dei dati è sufficiente.
  3. Quando tutti i video sono stati acquisiti, seleziona Analizza video in basso per iniziare l'analisi dei video.
    NOTA: questo passaggio deve essere completato prima di generare i video etichettati nel passaggio 9.5
  4. Dopo che i video sono stati analizzati, vai alla scheda Crea video e seleziona i video analizzati.
  5. Seleziona Crea video e il software inizierà a generare video etichettati che rappresentano i dati mostrati nella .csv corrispondente.

10. Elaborare i dati definitivi

  1. Applicare le macro trovate in https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc per convertire i dati grezzi nel formato utilizzato per questa analisi (ad esempio, distanza euclidea).
  2. Importa e applica le macro etichettate Step1 e Step 2 al csv per filtrare tutti i punti dati non ottimali e convertire i dati in una distanza euclidea media per i punti più centrali nella parte superiore e inferiore dell'occhio.
  3. Eseguire la macro denominata Passaggio 3 per contrassegnare ogni punto come 0 senza strabismo e 1 strabismo in base al valore di soglia nello script, che è impostato su 75 pixel.
    NOTA: I parametri per queste macro potrebbero richiedere una regolazione a seconda della configurazione sperimentale (vedi discussione). La soglia per lo strabismo e il filtro automatico per il valore massimo dell'occhio sono parametri che possono essere modificati a seconda delle dimensioni dell'animale e della distanza dalla fotocamera. È inoltre possibile regolare i valori utilizzati per la rimozione dei punti non ottimali a seconda della selettività con cui i dati devono essere filtrati.

Risultati

Qui, forniamo un metodo per il rilevamento affidabile dello strabismo ad alta risoluzione temporale utilizzando DeepLabCut. Abbiamo ottimizzato i parametri di allenamento e fornito una valutazione dei punti di forza e di debolezza di questo metodo (Figura 1).

Dopo aver addestrato i nostri modelli, abbiamo verificato che erano in grado di stimare correttamente i punti superiore e inferiore della palpebra (Figur...

Discussione

Questo protocollo fornisce un metodo approfondito facilmente accessibile per l'utilizzo di strumenti basati sull'apprendimento automatico in grado di differenziare lo strabismo con un'accuratezza quasi umana, mantenendo la stessa (o migliore) risoluzione temporale degli approcci precedenti. In primo luogo, rende la valutazione dello strabismo automatizzato più facilmente disponibile a un pubblico più ampio. Il nostro nuovo metodo per la valutazione dello strabismo automatizzato present...

Divulgazioni

Non abbiamo conflitti di interesse da divulgare. Le opinioni contenute in questo documento non sono rappresentative del VA o del governo degli Stati Uniti.

Riconoscimenti

Grazie a Rajyashree Sen per le conversazioni approfondite. Grazie al McKnight Foundation Neurobiology of Disease Award (RH), NIH 1DP2MH126377-01 (RH), Roy J. Carver Charitable Trust (RH), NINDS T32NS007124 (MJ), Ramon D. Buckley Graduate Student Award (MJ) e VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Materiali

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Riferimenti

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

MedicinaNumero 213Comportamento automatizzatosmorfia faccialestrabismodoloreemicraniacomportamento del topo

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati