登录

需要订阅 JoVE 才能查看此. 登录或开始免费试用。

本文内容

  • 摘要
  • 摘要
  • 引言
  • 研究方案
  • 结果
  • 讨论
  • 披露声明
  • 致谢
  • 材料
  • 参考文献
  • 转载和许可

摘要

该协议提供了一种以与神经生理学措施的时间锁定兼容的方式跟踪啮齿动物随时间推移的自动斜视的方法。预计该协议对研究偏头痛等疼痛疾病机制的研究人员有用。

摘要

自发性疼痛一直难以实时跟踪和以防止人为偏见的方式进行量化。对于头痛的指标尤其如此,例如偏头痛等疾病。斜视已成为一种可以随时间测量的连续可变指标,并且可有效预测此类分析中的疼痛状态。本文提供了一种使用 DeepLabCut (DLC) 自动化和量化具有自由旋转头部运动的受限小鼠的斜视(眼睑之间的欧几里得距离)的方案。该协议能够将斜视的无偏量化与神经生理学等机械测量配对并直接与其进行比较。我们提供了对成功所需的 AI 训练参数的评估,这些参数通过区分斜视和非斜视期来定义。我们证明了以亚秒分辨率可靠地跟踪和区分 CGRP 诱导的偏头痛样表型中的斜视的能力。

引言

偏头痛是全球最普遍的脑部疾病之一,影响超过 10 亿人1。偏头痛的临床前小鼠模型已成为研究偏头痛机制的一种信息丰富的方法,因为这些研究比人类研究更容易控制,从而能够对偏头痛相关行为进行因果研究2。此类模型已证明对偏头痛诱导化合物(如降钙素基因相关肽 (CGRP))具有强烈且可重复的表型反应。在啮齿动物模型中对偏头痛相关行为进行稳健测量的需求仍然存在,尤其是那些可能与成像和电生理学方法等机械指标相结合的模型。

偏头痛样脑状态的表型特征是存在厌光、爪痛觉过敏、面部对有害刺激的痛觉过敏和面部鬼脸3。这种行为是通过在光线(厌光)和爪或面部触摸敏感阈值(爪痛觉过敏和面部痛觉过敏)中花费的总时间来衡量的,并且仅限于长时间(几分钟或更长时间)的单次读数。通过服用偏头痛诱导化合物(如 CGRP)可以在动物中引发偏头痛样行为,模仿人类偏头痛患者3 所经历的症状(即证明表面有效性)。此类化合物在人体中给药时也会产生偏头痛症状,证明了这些模型的构建有效性4。在药理学上减弱行为表型的研究导致了与偏头痛治疗相关的发现,并进一步证实了这些模型(即证明预测效度)5,6

例如,单克隆抗 CGRP 抗体 (ALD405) 被证明可以减少用 CGRP 治疗的小鼠6 的厌光行为5 和面部鬼脸,其他研究表明,CGRP 拮抗剂药物可以减少一氧化二氮诱导的动物偏头痛样行为 7,8最近的临床试验表明,通过阻断 CGRP 9,10 成功治疗偏头痛,导致多种 FDA 批准的靶向 CGRP 或其受体的药物。偏头痛相关表型的临床前评估导致了临床发现的突破,因此,对于理解偏头痛一些难以在人类中直接测试的更复杂的方面至关重要。

尽管有许多优点,但使用这些啮齿动物偏头痛行为读数的实验通常受到其时间点采样能力的限制,并且可能是主观的,并且容易出现人类实验错误。许多行为分析在以更精细的时间分辨率捕获活动的能力方面受到限制,这通常使得难以捕获在亚秒时间尺度上发生的更多动态元素,例如在大脑活动的水平上。事实证明,很难以有意义的时间分辨率量化随着时间的推移更自发、自然发生的行为元素以研究神经生理机制。创建一种在更快的时间尺度上识别偏头痛样活动的方法将允许从外部验证偏头痛样大脑状态。反过来,这可以与大脑活动同步,以创建更强大的偏头痛大脑活动概况。

一种与偏头痛相关的表型,面部鬼脸,在各种情况下被用作动物疼痛的测量,可以即时测量并随着时间的推移进行跟踪11。面部鬼脸通常被用作自发性疼痛的指标,因为人类(尤其是非语言人类)和其他哺乳动物物种在经历疼痛时会表现出面部表情的自然变化11。在过去十年中,测量面部鬼脸作为小鼠疼痛指标的研究利用了小鼠鬼脸量表 (MGS) 等量表来标准化啮齿动物疼痛的特征12。MGS 的面部表情变量包括眼眶收紧(斜视)、鼻子隆起、脸颊隆起、耳朵位置和胡须变化。尽管 MGS 已被证明可以可靠地表征动物的疼痛13,但它是众所周知的主观的,并且依赖于准确的评分,这可能因实验者而异。此外,MGS 的局限性在于它使用非连续比例,并且缺乏跟踪随时间自然发生的行为所需的时间分辨率。

解决这个问题的一种方法是客观地量化一致的面部特征。斜视是最可追踪的面部特征6。在考虑所有 MGS 变量(斜视、鼻子隆起、脸颊隆起、耳朵位置和胡须变化)时,斜视占数据总变异性的大部分6。由于斜视对使用 MGS 获得的总分贡献最大,并且可靠地跟踪对 CGRP 6,14 的反应,因此它是在偏头痛小鼠模型中跟踪自发性疼痛的最可靠方法。这使得斜视成为 CGRP 诱导的可量化的非稳态行为。一些实验室使用面部表情特征(包括斜视)来表示与偏头痛相关的潜在自发性疼痛 6,15

在以一种可以与偏头痛的机制研究相结合的方式进行自动斜视方面仍然存在一些挑战。例如,如果不依赖固定位置,就很难可靠地跟踪斜视,而固定位置必须在会话中以相同的方式校准。另一个挑战是能够在连续尺度上执行此类分析,而不是像 MGS 那样的离散尺度。为了缓解这些挑战,我们的目标是以 DeepLabCut (DLC) 的形式将机器学习集成到我们的数据分析管道中。DLC 是由 Mathis 及其同事开发的姿势估计机器学习模型,已应用于广泛的行为16。使用他们的姿势估计软件,我们能够训练出能够以接近人类的精度准确预测小鼠眼睛上点的模型。这解决了重复手动评分的问题,同时也大大提高了时间分辨率。此外,通过创建这些模型,我们开发了一种可重复的方法来对较大的实验组的斜视进行评分并估计偏头痛样大脑活动。在这里,我们介绍了这种方法的开发和验证,该方法以一种可以与其他机制测量(如神经生理学)时间锁定的方式跟踪斜视行为。总体目标是催化啮齿动物模型中需要时间锁定斜视行为的机制研究。

研究方案

注意:这些实验中使用的所有动物均根据爱荷华大学机构动物护理和使用委员会 (IACUC) 批准的协议进行处理。

1. 准备数据采集设备

  1. 确保所有必要设备的可用性:确保用于运行 DLC 的推荐硬件至少具有 8 GB 内存。有关硬件和软件的信息,请参阅 材料表
    注意:数据可以以任何格式收集,但必须在分析之前转换为 DLC 可读的格式。最常见的格式是 AVI 和 MP4。
  2. 配置至少一个摄像头,以便可以检测到动物的一只眼睛。如果双眼都可见,请执行其他过滤,因为这可能会干扰跟踪。有关此处提供的数据的此类筛选示例,请参阅第 10 节。
  3. 使用 Deeplabcut.github.io/DeepLabCut/docs/installation 中找到的包安装 DLC。
  4. 在相机设置中,包括一个与鼠标成侧角 (~90°) 的相机。为了遵循这个例子,以 10 Hz 采样,小鼠受到约束,但可以自由地访问它们相对于身体的全部头部运动。与相机保持 2 到 4 英寸的距离。

2. 设置 DLC

  1. 安装 DLC 后,创建要使用的环境。为此,请使用以下命令使用 change 目录导航到下载 DLC 软件的文件夹。
    CD folder_name
    注意:这将是 DEEPLABCUT.yaml 文件所在的位置。
  2. 运行第一个命令以创建环境,并通过键入第二个命令来启用它。
    conda env create -f DEEPLABCUT.yaml
    conda activate Deeplabcut
    注意:确保在每次使用 DLC 之前激活环境。
    激活环境后,使用以下命令打开图形用户界面 (GUI) 并开始创建模型。
    python -m deeplabcut

3. 创建模型

  1. 打开 GUI 后,单击底部的 Create New Project 开始创建模型。
  2. 为项目命名一个有意义且唯一的名称,以便以后识别它,然后输入名称 experimenter。检查 Location 部分以查看项目的保存位置。
  3. 选择 Browse folders 并找到用于训练模型的视频。选择 Copy videos to project folder (如果 视频不要从其原始目录移动)。
  4. 选择 Create (创建 ) 以在计算机上生成新项目。
    注意:视频必须涵盖您将观察到的所有行为(即斜视、非斜视以及介于两者之间的所有行为)。模型只能识别与训练数据中的行为类似的行为,如果行为的某些组成部分缺失,模型可能无法识别它。

4. 配置设置

注意:在这里,可以定义详细信息,例如要跟踪的点、要从每个训练视频中提取的帧数、默认标记点大小以及与模型训练方式相关的变量。

  1. 创建模型后,通过选择 Edit config.yaml (编辑 config.yaml) 来编辑配置设置。选择 edit 打开配置设置文件以指定与模型相关的关键设置。
  2. 修改 身体部位 以包括要跟踪的眼睛的所有部位,然后将 numframes2pick 修改为每个训练视频所需的帧数,以获得 总共 400 帧。最后,将 dotsize 更改为 6 ,以便标记时的默认大小足够小,以便准确地放置在眼睛的边缘周围。

5. 提取训练帧

  1. 配置后,导航到 GUI 顶部的 Extract Frames 选项卡,然后选择页面右下角的 Extract Frames
  2. 使用 GUI 底部的加载栏监控进度。

6. 标记训练帧

  1. 导航到 GUI 中的 Label Frames 选项卡,然后选择 Label Frames。找到显示每个选定培训视频的文件夹的新窗口。选择 第一个文件夹,将打开一个新的标签 GUI。
  2. 标记在配置期间为所选视频的每一帧定义的点。标记所有帧后,保存它们并对下一个视频重复该过程。
  3. 为了充分标记斜视,请使用尽可能靠近眼睛最大峰值(中心)的两个点,并指示每个点的上/下位置。近似斜视作为这两个长度的平均值。
    注意:标记时,DLC 不会自动保存进度。建议定期保存,以避免丢失已标记的数据。

7. 创建训练数据集

  1. 手动标记后,导航到 Train network 选项卡,然后选择 Train network 以提示软件开始训练模型。
  2. 在命令窗口中监视进度。

8. 评估网络

  1. 网络训练完成后,导航到 Evaluate network (评估网络 ) 选项卡,然后选择 Evaluate network (评估网络)。请稍等片刻,直到蓝色加载圆圈消失,表示它已完成自我评估并且模型已准备就绪。

9. 分析数据/生成带标签的视频

  1. 要分析视频,请导航到 Analyze videos 选项卡。选择 添加更多视频 ,然后选择要分析的视频。
  2. 选择 Save result(s) as csv 如果数据的 csv 输出就足够了。
  3. 获取所有视频后,选择 分析视频 在底部开始分析视频。
    注意:在步骤 9.5 中生成标记视频之前,必须先完成此步骤
  4. 分析视频后,导航到 Create videos 选项卡,然后选择分析的视频。
  5. 选择 创建视频 ,软件将开始生成带标签的视频,这些视频代表相应.csv中显示的数据。

10. 处理最终数据

  1. 应用 https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc 中找到的宏,将原始数据转换为用于此分析的格式(即欧几里得距离)。
  2. 将标记为 Step1 Step 2 的宏导入并应用于 csv,以过滤掉所有次优数据点,并将数据转换为眼睛顶部和底部最中心点的平均欧几里得距离。
  3. 运行名为 Step3 的宏,根据脚本中的阈值(设置为 75 像素)将每个点标记为 0 无斜视和 1 斜视
    注意:这些宏的参数可能需要根据实验设置进行调整(参见讨论)。斜视阈值和眼睛最大值的自动滤镜是可以根据动物的大小和与相机的距离进行更改的参数。您还可以根据必须筛选数据的选择性来调整用于删除次优点的值。

结果

在这里,我们提供了一种使用 DeepLabCut 以高时间分辨率可靠检测斜视的方法。我们优化了训练参数,并提供了该方法的优缺点评估(图 1)。

在训练我们的模型后,我们验证它们能够正确估计眼睑的顶部和底部点(图 2),这些点用作欧几里得距离测量的坐标点。欧几里得距离定义为眼睛的两个顶部和底部...

讨论

该协议为使用基于机器学习的工具提供了一种易于访问的深入方法,这些工具可以以接近人类的精度区分斜视,同时保持与先前方法相同(或更好)的时间分辨率。首先,它使更广泛的受众更容易获得对自动斜视的评估。与以前的模型相比,我们评估自动斜视的新方法有几项改进。首先,它通过使用较少的实际有助于斜视量化的点,提供了比 ASM 更稳健的指标。这样可以?...

披露声明

我们没有需要披露的利益冲突。本文中的观点不代表 VA 或美国政府。

致谢

感谢 Rajyashree Sen 的深刻对话。感谢麦克奈特基金会疾病神经生物学奖 (RH)、NIH 1DP2MH126377-01 (RH)、Roy J. Carver 慈善信托基金 (RH)、NINDS T32NS007124 (MJ)、Ramon D. Buckley 研究生奖 (MJ) 和 VA-ORD (RR&D) 功绩 1 I01 RX003523-0 (LS)。

材料

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

参考文献

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

转载和许可

请求许可使用此 JoVE 文章的文本或图形

请求许可

探索更多文章

213

This article has been published

Video Coming Soon

JoVE Logo

政策

使用条款

隐私

科研

教育

关于 JoVE

版权所属 © 2025 MyJoVE 公司版权所有,本公司不涉及任何医疗业务和医疗服务。