JoVE Logo

Войдите в систему

Для просмотра этого контента требуется подписка на Jove Войдите в систему или начните бесплатную пробную версию.

В этой статье

  • Резюме
  • Аннотация
  • Введение
  • протокол
  • Результаты
  • Обсуждение
  • Раскрытие информации
  • Благодарности
  • Материалы
  • Ссылки
  • Перепечатки и разрешения

Резюме

Этот протокол обеспечивает метод автоматического отслеживания косоглазия у грызунов с течением времени способом, совместимым с привязкой времени к нейрофизиологическим измерениям. Ожидается, что этот протокол будет полезен исследователям, изучающим механизмы болевых расстройств, таких как мигрень.

Аннотация

Спонтанную боль было сложно отследить в режиме реального времени и количественно оценить таким образом, чтобы предотвратить человеческую предвзятость. Это особенно верно для метрик головной боли, как при таких расстройствах, как мигрень. Косоглазие стало непрерывной переменной метрикой, которая может быть измерена с течением времени и эффективна для прогнозирования болевых состояний в таких анализах. В данной статье представлен протокол использования DeepLabCut (DLC) для автоматизации и количественной оценки косоглазия (евклидова расстояния между веками) у мышей со свободно вращающимися движениями головы. Этот протокол позволяет непредвзято количественно оценивать косоглазие и напрямую сравнивать его с механистическими измерениями, такими как нейрофизиология. Мы предоставляем оценку параметров обучения ИИ, необходимых для достижения успеха, которые определяются периодами различения косоглазия и без него. Мы демонстрируем способность надежно отслеживать и дифференцировать косоглазие при CGRP-индуцированном мигрень-подобном фенотипе с разрешением менее секунды.

Введение

Мигрень является одним из наиболее распространенных заболеваний мозга во всем мире, поражающим более одного миллиарда человек1. Доклинические мышиные модели мигрени появились как информативный способ изучения механизмов мигрени, поскольку эти исследования легче контролировать, чем исследования на людях, что позволяет изучать причинно-следственнуюсвязь поведения, связанного с мигренью. Такие модели продемонстрировали сильный и повторяемый фенотипический ответ на соединения, вызывающие мигрень, такие как пептид, связанный с геном кальцитонина (CGRP). Потребность в надежных измерениях поведения, связанного с мигренью, в моделях грызунов сохраняется, особенно в сочетании с механистическими метриками, такими как визуализация и электрофизиологические подходы.

Мигреноподобные состояния мозга фенотипически характеризуются наличием отвращения к свету, аллодинией по лапам, гипералгезией лица на вредные раздражители игримасой на лице. Такое поведение измеряется общим временем, проведенным в свете (отвращение к свету) и пороговыми значениями чувствительности к прикосновениям лап или лица (аллодиния лап и гипералгезия лица) и ограничивается одним считыванием в течение больших периодов времени (минуты или дольше). Мигреноподобное поведение может быть вызвано у животных путем дозирования соединений, вызывающих мигрень, таких как CGRP, имитируя симптомы, испытываемые пациентами с мигренью3 (т.е. демонстрируя валидность лица). Такие соединения также вызывают симптомы мигрени при введении у людей, демонстрируя конструктивную валидностьэтих моделей. Исследования, в которых поведенческие фенотипы были ослаблены фармакологически, привели к открытиям, связанным с лечением мигрени, и обеспечивают дальнейшее обоснование этих моделей (т.е. демонстрируют прогностическую валидность)5,6.

Например, было показано, что моноклональное антитело против CGRP (ALD405) снижает светоотталкивающее поведение5 и гримасу на лице умышей, получавших CGRP, а другие исследования продемонстрировали, что препараты-антагонисты CGRP снижают индуцированное закисью азота мигреноподобное поведение у животных 7,8. Недавние клинические испытания показали успех в лечении мигрени путем блокирования CGRP 9,10, что привело к получению нескольких одобренных FDA препаратов, нацеленных на CGRP или его рецептор. Доклиническая оценка фенотипов, связанных с мигренью, привела к прорыву в клинических результатах и, следовательно, имеет важное значение для понимания некоторых из более сложных аспектов мигрени, которые трудно напрямую проверить на людях.

Несмотря на многочисленные преимущества, эксперименты с использованием этих поведенческих показаний мигрени у грызунов часто ограничены в их возможностях выборки во временной точке и могут быть субъективными и подверженными экспериментальным ошибкам на людях. Многие поведенческие анализы ограничены в способности фиксировать активность с более тонким временным разрешением, что часто затрудняет захват более динамичных элементов, которые происходят в масштабе менее секунды, например, на уровне активности мозга. Оказалось трудно количественно оценить более спонтанные, естественные элементы поведения с течением времени при значимом временном разрешении для изучения нейрофизиологических механизмов. Создание способа идентификации мигреноподобной активности в более быстрых временных масштабах позволило бы внешне проверять мигреноподобные состояния мозга. Это, в свою очередь, может быть синхронизировано с активностью мозга для создания более надежных профилей активности мозга при мигрени.

Один из таких фенотипов, связанных с мигренью, гримаса на лице, используется в различных контекстах в качестве измерения боли у животных, которое можно измерить мгновенно и отследитьс течением времени. Гримаса на лице часто используется в качестве индикатора спонтанной боли, основанной на идее о том, что люди (особенно невербальные люди) и другие виды млекопитающих демонстрируют естественные изменения в выражении лица при испытанииболи. В исследованиях, измеряющих гримасу лица как признак боли у мышей в последнее десятилетие, использовались такие шкалы, как шкала гримасы мыши (MGS) для стандартизации характеристики боли у грызунов. Переменные мимики MGS включают сжатие орбиты (косоглазие), выпуклость носа, выпячивание щек, положение ушей и изменение усов. Несмотря нато, что было показано, что MGS надежно характеризует боль у животных, он, как известно, субъективен и основан на точной оценке, которая может варьироваться у разных экспериментаторов. Кроме того, MGS ограничен тем, что он использует ненепрерывную шкалу и не имеет временного разрешения, необходимого для отслеживания естественного поведения во времени.

Одним из способов борьбы с этим является объективная количественная оценка устойчивой черты лица. Косоглазие является наиболее последовательно отслеживаемой чертой лица6. Косоглазие отвечает за большую часть общей вариабельности данных при учете всех переменных MGS (косоглазие, выпуклость носа, выпуклость щек, положение ушей и изменение усов)6. Поскольку косоглазие вносит наибольший вклад в общую оценку, полученную с помощью MGS, и надежно отслеживает реакцию на CGRP 6,14, это наиболее надежный способ отслеживания спонтанной боли у мышей с мигренью. Это делает косоглазие поддающимся количественной оценке негомеостатическим поведением, индуцированным CGRP. Несколько лабораторий использовали черты мимики, в том числе косоглазие, для представления потенциальной спонтанной боли, связанной с мигренью 6,15.

Остается несколько проблем, связанных с проведением автоматизированных косоглазий таким образом, чтобы это можно было сочетать с механистическими исследованиями мигрени. Например, было трудно надежно отслеживать косоглазие, не полагаясь на фиксированное положение, которое должно быть откалибровано одинаково на протяжении сеанса. Еще одной проблемой является возможность проведения этого типа анализа в непрерывном масштабе, а не в дискретных масштабах, как в MGS. Чтобы смягчить эти проблемы, мы стремились интегрировать машинное обучение в форме DeepLabCut (DLC) в наш конвейер анализа данных. DLC представляет собой модель машинного обучения для оценки позы, разработанную Матисом и его коллегами и применяемую к широкому спектру моделейповедения. Используя их программное обеспечение для оценки позы, мы смогли обучить модели, которые могли точно предсказывать точки на глазу мыши с точностью, близкой к человеческой. Это решает проблемы повторяющегося ручного подсчета очков, а также значительно увеличивает временное разрешение. Кроме того, создав эти модели, мы создали воспроизводимые средства для оценки косоглазия и мигреноподобной активности мозга в больших экспериментальных группах. В этой статье мы представляем разработку и валидацию этого метода отслеживания поведения косоглазия таким образом, чтобы его можно было привязать по времени к другим механистическим измерениям, таким как нейрофизиология. Всеобъемлющая цель состоит в том, чтобы стимулировать механистические исследования, требующие фиксированного по времени косоглазия в моделях грызунов.

протокол

ПРИМЕЧАНИЕ: Все животные, используемые в этих экспериментах, обрабатывались в соответствии с протоколами, утвержденными Комитетом по уходу за животными и их использованию (IACUC) Университета Айовы.

1. Подготовьте оборудование для сбора данных

  1. Обеспечьте наличие всего необходимого оборудования: убедитесь, что рекомендуемое оборудование для запуска DLC имеет не менее 8 ГБ памяти. Информацию об аппаратном и программном обеспечении см. в Таблице материалов .
    ПРИМЕЧАНИЕ: Данные могут быть собраны в любом формате, но перед анализом должны быть преобразованы в формат, читаемый DLC. Наиболее распространенными форматами являются AVI и MP4.
  2. Настройте хотя бы одну камеру так, чтобы можно было обнаружить один глаз животного. Если видны оба глаза, проведите дополнительную фильтрацию, так как это может вызвать помехи в отслеживании. Пример такой фильтрации данных приведен в разделе 10.
  3. Установите DLC с помощью пакета, найденного в Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. При настройке камеры включите одну камеру под боковым углом (~90°) к мыши. Чтобы следовать этому примеру, сделайте выборку с частотой 10 Гц, где мыши ограничены, но свободны в доступе к полному диапазону движений головы относительно тела. Держитесь на расстоянии от 2 до 4 дюймов от камеры до животного.

2. Настройка DLC

  1. После установки DLC создайте среду для работы. Для этого перейдите в папку, в которую было загружено программное обеспечение DLC, с помощью команды change directory.
    CD folder_name
    ПРИМЕЧАНИЕ: Именно здесь будет находиться файл DEEPLABCUT.yaml.
  2. Выполните первую команду, чтобы создать среду, и включите ее, введя вторую команду.
    conda env create -f DEEPLABCUT.yaml
    conda активировать Deeplabcut
    ПРИМЕЧАНИЕ: Убедитесь, что окружающая среда активирована перед каждым использованием DLC.
    После активации среды откройте графический интерфейс пользователя (GUI) с помощью следующей команды и начните создание модели.
    python -m deeplabcut

3. Создание модели

  1. После того, как графический интерфейс будет открыт, начните создание модели, нажав на кнопку «Создать новый проект » внизу.
  2. Назовите проект чем-то значимым и уникальным, чтобы позже идентифицировать его и ввести имя в качестве экспериментатора. Проверьте раздел Местоположение , чтобы узнать, куда будет сохранен проект.
  3. Выберите Обзор папок и найдите видео для обучения модели. Выберите Копировать видео в папку проекта , если видео не будут перемещены из исходного каталога.
  4. Нажмите кнопку Создать , чтобы создать новый проект на компьютере.
    ПРИМЕЧАНИЕ: Видео должно охватывать весь спектр поведения, которое вы будете наблюдать (т. е. косоглазие, не косоглазие и все промежуточные действия). Модель сможет распознавать только поведение, аналогичное тому, которое присутствует в обучающих данных, и если некоторые компоненты поведения отсутствуют, у модели могут возникнуть проблемы с его распознаванием.

4. Настройте параметры

ПРИМЕЧАНИЕ: Здесь можно определить такие детали, как то, какие точки отслеживать, сколько кадров извлекать из каждого обучающего видео, размер точек маркировки по умолчанию и переменные, относящиеся к тому, как модель будет обучаться.

  1. После создания модели измените параметры конфигурации, выбрав Edit config.yaml. Нажмите кнопку «Изменить», чтобы открыть файл настроек конфигурации и указать ключевые параметры, относящиеся к модели.
  2. Измените части тела , включив в них все части глаза для отслеживания, а затем измените numframes2pick на количество кадров, необходимое для каждого обучающего видео, чтобы получить всего 400 кадров. Наконец, измените размер точки на шесть , чтобы размер по умолчанию при маркировке был достаточно маленьким, чтобы его можно было точно разместить по краям глаза.

5. Извлечение тренировочных кадров

  1. После настройки перейдите на вкладку «Извлечь кадры » в верхней части графического интерфейса и выберите «Извлечь кадры » в правом нижнем углу страницы.
  2. Отслеживайте прогресс с помощью панели загрузки в нижней части графического интерфейса.

6. Маркировка тренировочных рамок

  1. Перейдите на вкладку «Рамки меток » в графическом интерфейсе пользователя и выберите «Рамки меток». Найдите новое окно, в котором отображаются папки для каждого из выбранных обучающих видео. Выберите первую папку, и откроется новый графический интерфейс маркировки.
  2. Пометьте точки, определенные во время настройки, для каждого кадра выбранного видео. После того, как все кадры будут помечены, сохраните их и повторите процесс для следующего видео.
  3. Для адекватной маркировки косоглазия используйте две точки как можно ближе к самому большому пику глаза (центру) и обозначьте положения вверх/вниз для каждой точки. Приблизительное прищур можно определить как среднее из этих двух значений длины.
    ПРИМЕЧАНИЕ: При маркировке DLC не сохраняет прогресс автоматически. Во избежание потери помеченных данных рекомендуется периодически сохранять данные.

7. Создание обучающего набора данных

  1. После ручной маркировки перейдите на вкладку Обучение сети и выберите Обучить сеть , чтобы предложить программному обеспечению начать обучение модели.
  2. Отслеживайте ход выполнения в командном окне.

8. Оцените сеть

  1. После завершения обучения сети перейдите на вкладку Оценка сети и выберите Оценить сеть. Подождите несколько секунд, пока синий загрузочный круг не исчезнет, указывая на то, что самооценка завершена и модель готова к использованию.

9. Анализируйте данные/создавайте видео с маркировкой

  1. Чтобы проанализировать видео, перейдите на вкладку Анализ видео . Выберите Добавить больше видео и выберите видео для анализа.
  2. Выберите Сохранить результаты как CSV, если достаточно вывода данных в формате CSV.
  3. Когда все видео будут собраны, выберите «Анализировать видео » внизу, чтобы начать их анализ.
    ПРИМЕЧАНИЕ: Этот шаг должен быть выполнен перед созданием видео с метками на шаге 9.5
  4. После того, как видео будут проанализированы, перейдите на вкладку « Создать видео » и выберите проанализированные видео.
  5. Выберите Создать видео, и программное обеспечение начнет создавать видео с метками, представляющие данные, отображаемые в соответствующем .csv.

10. Обработка итоговых данных

  1. Примените макросы, найденные в https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc, чтобы преобразовать необработанные данные в формат, используемый для этого анализа (т. е. евклидово расстояние).
  2. Импортируйте и примените макросы с метками Step1 и Step 2 к CSV, чтобы отфильтровать все неоптимальные точки данных и преобразовать данные в усредненное евклидово расстояние для самых центральных точек в верхней и нижней части глаза.
  3. Запустите макрос с именем Step3, чтобы отметить каждую точку как 0 без косоглазия и 1 косоглазие на основе порогового значения в скрипте, которое установлено на уровне 75 пикселей.
    ПРИМЕЧАНИЕ: Параметры для этих макросов могут потребовать корректировки в зависимости от экспериментальной настройки (см. обсуждение). Порог для косоглазия и автоматический фильтр для максимального значения глаза — это параметры, которые могут быть изменены в зависимости от размера животного и расстояния до камеры. Вы также можете настроить значения, используемые для удаления неоптимальных точек, в зависимости от того, насколько избирательно должны быть отфильтрованы данные.

Результаты

В этой статье мы предлагаем метод надежного обнаружения косоглазия с высоким временным разрешением с помощью DeepLabCut. Мы оптимизировали параметры обучения и дали оценку сильных и слабых сторон этого метода (рис. 1).

После обучения наших мо...

Обсуждение

Этот протокол предоставляет легкодоступный углубленный метод использования инструментов на основе машинного обучения, которые могут дифференцировать косоглазие с точностью, близкой к человеческой, сохраняя при этом то же (или лучшее) временное разрешение, что и в п?...

Раскрытие информации

У нас нет никаких конфликтов интересов, которые мы могли бы раскрыть. Взгляды, изложенные в настоящем документе, не являются репрезентативными для Управления по делам ветеранов или правительства Соединенных Штатов.

Благодарности

Спасибо Раджьяшри Сену за содержательные беседы. Спасибо Фонду Макнайта за нейробиологию болезней (RH), NIH 1DP2MH126377-01 (RH), Благотворительному RX003523 T32NS007124 фонду Роя Дж.

Материалы

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Ссылки

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Перепечатки и разрешения

Запросить разрешение на использование текста или рисунков этого JoVE статьи

Запросить разрешение

Смотреть дополнительные статьи

213

This article has been published

Video Coming Soon

JoVE Logo

Исследования

Образование

О JoVE

Авторские права © 2025 MyJoVE Corporation. Все права защищены