JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

このプロトコルは、神経生理学的測定へのタイムロックと互換性のある方法で、げっ歯類の自動眼斜視を経時的に追跡する方法を提供します。このプロトコールは、片頭痛などの疼痛障害のメカニズムを研究する研究者にとって有用であると期待されています。

要約

自然発生的な痛みをリアルタイムで追跡し、人間の偏見を防ぐ方法で定量化することは困難でした。これは、片頭痛などの障害のように、頭の痛みの指標に特に当てはまります。Eye Squintは、経時的に測定できる連続変数の指標として登場し、このようなアッセイの痛みの状態を予測するのに効果的です。この論文では、DeepLabCut(DLC)を使用して、頭を自由に回転する拘束マウスの眼斜視(まぶた間のユークリッド距離)を自動化および定量化するためのプロトコルを提供します。このプロトコルにより、眼の斜視の偏りのない定量化を、神経生理学などのメカニズム測定と直接組み合わせて比較することができます。私たちは、斜視期間と非斜視期間を区別することによって定義される成功を達成するために必要なAIトレーニングパラメータの評価を提供します。私たちは、CGRP によって誘発された片頭痛様表現型の斜視を 1 秒未満の解像度で確実に追跡し、区別する能力を示しています。

概要

片頭痛は、世界中で最も蔓延している脳疾患の1つであり、10億人以上が罹患しています1。片頭痛の前臨床マウスモデルは、片頭痛のメカニズムを研究するための有益な方法として浮上しており、これらの研究は人間の研究よりも簡単に制御できるため、片頭痛関連行動の因果関係の研究が可能になります2。このようなモデルは、カルシトニン遺伝子関連ペプチド(CGRP)などの片頭痛誘発化合物に対して強力で再現性のある表現型応答を示しています。げっ歯類モデルにおける片頭痛関連行動の堅牢な測定の必要性は依然としてあり、特にイメージングや電気生理学的アプローチなどのメカニズムメトリックと組み合わせる可能性のあるもの。

片頭痛様の脳の状態は、光嫌悪、足異痛症、有害な刺激に対する顔面痛覚過敏、および顔面のしかめっ面の存在によって表現型的に特徴付けられてきました3。このような行動は、光に費やされた合計時間(光嫌悪)と足または顔の接触感度の閾値(足の異痛症および顔面痛覚過敏)によって測定され、長時間(数分以上)にわたる1回の読み出しに制限されます。片頭痛様行動は、CGRPのような片頭痛誘発化合物を投与することにより、動物において誘発することができ、片頭痛3のヒト患者が経験する症状を模倣する(すなわち、面の有効性を示す)。このような化合物は、ヒトに投与すると片頭痛の症状も引き起こし、これらのモデルの構成概念の有効性を実証しています4。行動表現型が薬理学的に減衰した研究は、片頭痛の治療に関連する発見につながり、これらのモデルのさらなる実証を提供します(つまり、予測妥当性を実証します)5,6

例えば、モノクローナル抗CGRP抗体(ALD405)は、CGRPで治療したマウスにおいて、光嫌悪行動5および顔面のしかめっ面6を軽減することが示され、他の研究では、CGRP拮抗薬が動物における亜酸化窒素誘発性片頭痛様行動を減少させることが示されている7,8最近の臨床試験では、CGRP 9,10 をブロックすることで片頭痛の治療に成功し、CGRP またはその受容体を標的とする複数の FDA 承認薬が誕生しています。片頭痛関連の表現型の前臨床評価は、臨床所見のブレークスルーにつながったため、ヒトで直接テストするのが難しい片頭痛のより複雑な側面のいくつかを理解するために不可欠です。

多くの利点があるにもかかわらず、これらの片頭痛のげっ歯類の行動測定値を使用した実験は、多くの場合、その時点のサンプリング能力に制限されており、主観的であり、人間の実験エラーが発生しやすい可能性があります。多くの行動アッセイは、より細かい時間分解能で活動を捕捉する能力に限界があり、多くの場合、脳活動のレベルなど、サブ秒の時間スケールで発生するより動的な要素を捕捉することが困難になります。神経生理学的メカニズムを研究するために、時間の経過とともに行動のより自発的で自然に発生する要素を意味のある時間分解能で定量化することは困難であることが証明されています。片頭痛様の活動をより速い時間スケールで特定する方法を作成することで、片頭痛様の脳の状態を外部から検証することが可能になる。これを脳活動と同期させることで、片頭痛のより強固な脳活動プロファイルを作成することができる。

そのような片頭痛関連の表現型の1つである顔のしかめっ面は、動物の痛みの測定としてさまざまな状況で利用されており、これは瞬時に測定でき、経時的に追跡できる11。顔のしかめっ面は、人間(特に非言語的な人間)や他の哺乳類種が痛みを経験するときに顔の表情に自然な変化を示すという考えに基づいて、自発的な痛みの指標としてよく使用されます11。過去10年間にマウスの痛みの指標として顔面のしかめっ面を測定した研究では、げっ歯類の痛みの特徴付けを標準化するためにマウスしかめっ面スケール(MGS)などのスケールが利用されてきた12。MGSの表情変数には、眼窩引き締め(斜視)、鼻の膨らみ、頬の膨らみ、耳の位置、ひげの変化などがあります。MGSは動物の痛みを確実に特徴付けることが示されています13が、それは主観的であることで有名であり、正確なスコアリングに依存しており、これは実験者によって異なる可能性があります。さらに、MGSは非連続スケールを利用し、時間を超えて自然に発生する行動を追跡するために必要な時間分解能を欠いているという点で制限があります。

これに対処する1つの方法は、一貫した顔の特徴を客観的に定量化することです。斜視は、最も一貫して追跡可能な顔の特徴です6。すべての MGS 変数 (斜視、鼻の膨らみ、頬の膨らみ、耳の位置、ひげの変化) を考慮すると、斜視はデータの総変動性の大部分を占めます6。斜視は、MGS を使用して得られる全体的なスコアに最も寄与し、CGRP 6,14 に対する反応を確実に追跡するため、片頭痛マウス モデルにおける自発的な痛みを追跡する最も信頼性の高い方法です。これにより、スクインはCGRPによって誘発される定量化可能な非恒常性行動になります。いくつかの研究室では、片頭痛に関連する潜在的な自発的な痛みを表すために、斜視を含む顔の表情の特徴を使用しています6,15

片頭痛のメカニズム研究と組み合わせることができる方法で自動化された斜視を実施することに関して、いくつかの課題が残っています。例えば、セッション間で同じようにキャリブレーションする必要がある固定位置に頼らずに、スクイントを確実に追跡することは困難でした。また、MGSのような離散的なスケールではなく、連続的なスケールでこの種の解析を行うことができることも課題です。これらの課題を軽減するために、私たちはDeepLabCut(DLC)という形で機械学習をデータ分析パイプラインに統合することを目指しました。DLCは、Mathisらによって開発された姿勢推定機械学習モデルであり、幅広い行動に適用されている16。彼らの姿勢推定ソフトウェアを使用して、マウスの目の点を人間に近い精度で正確に予測できるモデルをトレーニングすることができました。これにより、反復的な手動スコアリングの問題が解決されると同時に、時間分解能が大幅に向上します。さらに、これらのモデルを作成することにより、より大きな実験グループで片頭痛のような脳活動を推定し、斜視をスコアリングするための再現性のある手段を作成しました。ここでは、神経生理学などの他のメカニズム測定に時間ロックできる方法で斜視行動を追跡するためのこの方法の開発と検証を紹介します。包括的な目標は、げっ歯類モデルで時間ロックされた斜視行動を必要とする機構研究を触媒することです。

プロトコル

注:これらの実験で使用されたすべての動物は、アイオワ大学の動物管理および使用委員会(IACUC)によって承認されたプロトコルに従って取り扱われました。

1. データ収集のための機器を準備する

  1. 必要なすべての機器の可用性を確保する: DLC の実行に推奨されるハードウェアに少なくとも 8 GB のメモリがあることを確認します。ハードウェアとソフトウェアに関連する情報については、 資料の表 を参照してください。
    注:データは任意の形式で収集できますが、分析する前にDLCで読み取り可能な形式に変換する必要があります。最も一般的な形式はAVIとMP4です。
  2. 動物の片目を検出できるように、少なくとも 1 台のカメラを設定します。両目が見えている場合は、トラッキングに干渉する可能性があるため、追加のフィルタリングを実行します。ここで提供されるデータに対するこのようなフィルタリングの例については、セクション 10 を参照してください。
  3. Deeplabcut.github.io/DeepLabCut/docs/installation にあるパッケージを使用してDLCをインストールします。
  4. カメラのセットアップでは、マウスに対して側面の角度 (~90°) に 1 台のカメラを含めます。この例に従うには、マウスを拘束しながらも、体に対する頭の動きの全範囲に自由にアクセスできる状態で、10 Hz でサンプリングします。カメラから動物まで2〜4インチ離してください。

2. DLCの設定

  1. DLCをインストールしたら、作業する環境を作成します。これを行うには、次のコマンドでディレクトリの変更を使用して、DLCソフトウェアがダウンロードされたフォルダーに移動します。
    CDのfolder_name
    注:ここにDEEPLABCUT.yamlファイルがあります。
  2. 最初のコマンドを実行して環境を作成し、2 番目のコマンドを入力して環境を有効にします。
    conda env create -f DEEPLABCUT.yaml
    conda activate ディープラボカット
    注意: DLCを使用する前に、環境がアクティブになっていることを確認してください。
    環境をアクティブ化した後、次のコマンドを使用してグラフィカル ユーザー インターフェイス (GUI) を開き、モデルの作成を開始します。
    python -m ディープラボカット

3. モデルを作成する

  1. GUIが開いたら、下部にある [Create New Project ]をクリックしてモデルの作成を開始します。
  2. プロジェクトに意味のあるユニークな名前を付けて、後で識別し、 実験者として名前を入力します。 [場所 ] セクションをチェックして、プロジェクトが保存される場所を確認します。
  3. [ フォルダーの参照] を選択し、モデルをトレーニングするためのビデオを見つけます。ビデオを元のディレクトリから移動しない場合は、[ ビデオをプロジェクト フォルダーにコピー ] を選択します。
  4. [作成] を選択して、コンピューター上に新しいプロジェクトを生成します。
    注:ビデオは、観察する行動の全範囲をカバーする必要があります(つまり、斜視、非斜視、およびその間のすべての行動)。モデルは、トレーニング データと同様の動作のみを認識でき、動作の一部のコンポーネントが欠落している場合、モデルはそれを認識するのが難しくなる可能性があります。

4. 設定を構成する

注: ここでは、追跡するポイント、各トレーニング ビデオから抽出するフレーム数、既定のラベル付けドット サイズ、モデルのトレーニング方法に関連する変数などの詳細を定義できます。

  1. モデルを作成したら、 [Edit config.yaml](config.yaml の編集) を選択して構成設定を編集します。 [編集 ] を選択して構成設定ファイルを開き、モデルに関連する主要な設定を指定します。
  2. 追跡する目のすべての部分が含まれるように bodyparts を変更し、 numframes2pick をトレーニング ビデオごとに必要なフレーム数に変更して 、合計 400 フレームを取得します。最後に、 ドットサイズ 6 に変更して、ラベリング時のデフォルトサイズが目の端の周りに正確に配置されるほど小さくなるようにします。

5. トレーニング フレームの抽出

  1. 設定が完了したら、GUI の上部にある [Extract Frames ] タブに移動し、ページの右下にある [Extract Frames ] を選択します。
  2. GUIの下部にあるロードバーを使用して進行状況を監視します。

6. トレーニングフレームにラベルを付ける

  1. GUI の [Label Frames ] タブに移動し、[ Label Frames] を選択します。選択した各トレーニングビデオのフォルダを表示する新しいウィンドウを見つけます。 最初のフォルダを選択すると、新しいラベリングGUIが開きます。
  2. 選択したビデオの各フレームの構成中に定義されたポイントにラベルを付けます。すべてのフレームにラベルを付けたら、フレームを保存し、次のビデオでこのプロセスを繰り返します。
  3. 斜視を適切にラベル付けするには、目の最大のピーク(中心)にできるだけ近い2つのポイントを使用し、各ポイントの上下の位置を示します。これら 2 つの長さの平均として目を細めます。
    注:ラベル付けの際、DLCは進行状況を自動的に保存しません。ラベル付きデータの損失を避けるために、定期的な保存をお勧めします。

7. トレーニング データセットを作成する

  1. 手動でラベル付けした後、 [ ネットワークのトレーニング ] タブに移動し、 [ ネットワークのトレーニング ] を選択して、モデルのトレーニングを開始するようにソフトウェアに促します。
  2. コマンド ウィンドウで進行状況を監視します。

8. ネットワークを評価する

  1. ネットワーク トレーニングが完了したら、[ ネットワークの評価 ] タブに移動し、[ ネットワークの評価] を選択します。青色の負荷円が消え、自己評価が終了し、モデルが使用できるようになるまで、しばらく待ちます。

9.データの分析/ラベル付きビデオの生成

  1. ビデオを分析するには、[ ビデオの分析 ] タブに移動します。[ さらにビデオを追加 ] を選択し、分析するビデオを選択します。
  2. データの csv 出力で十分な場合は、[ 結果を csv として保存 ] を選択します。
  3. ビデオがすべて取得されたら、下部にある [ビデオの分析 ]を選択して、ビデオの分析を開始します。
    注: この手順は、手順 9.5 でラベル付きビデオを生成する前に完了する必要があります
  4. ビデオが分析されたら、[ ビデオの作成 ] タブに移動し、分析したビデオを選択します。
  5. [ビデオの作成] を選択すると、ソフトウェアは、対応する.csvに表示されているデータを表すラベル付きビデオの生成を開始します。

10. 最終データの処理

  1. https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc にあるマクロを適用して、生データをこの分析に使用される形式(ユークリッド距離など)に変換します。
  2. Step1 Step 2 というラベルの付いたマクロをインポートして csv に適用し、最適でないデータ ポイントをすべて除外し、データを目の上端と下端の中心点の平均ユークリッド距離に変換します。
  3. Step3 というマクロを実行して、スクリプトのしきい値 (75 ピクセルに設定された) に基づいて、各ポイントを 0 の no squint と 1 の squint としてマークします。
    注:これらのマクロのパラメータは、実験のセットアップによっては調整が必要な場合があります(ディスカッションを参照)。斜視のしきい値と目の最大値の自動フィルターは、動物のサイズとカメラからの距離に応じて変更できるパラメーターです。また、最適でないポイントを削除するために使用される値を、データをどの程度選択的にフィルタリングする必要があるかに応じて調整することもできます。

結果

ここでは、DeepLabCutを使用して、高い時間分解能で斜視を確実に検出する方法を提供します。トレーニングパラメータを最適化し、この方法の長所と短所の評価を提供します(図1)。

モデルをトレーニングした後、ユークリッド距離測定の座標点として機能するまぶたの上部と下部の点(図2)を正しく推定...

ディスカッション

このプロトコルは、機械学習ベースのツールを使用して、以前のアプローチと同じ(またはそれ以上の)時間分解能を維持しながら、人間に近い精度で斜視を区別できる、簡単にアクセスできる詳細な方法を提供します。主に、自動斜視の評価をより多くのユーザーがより簡単に利用できるようにします。自動斜視の評価方法としては、従来のモデルに比べていくつか?...

開示事項

開示すべき利益相反はありません。このペーパーの見解は、退役軍人省または米国政府を代表するものではありません。

謝辞

洞察に満ちた会話をしてくれたRajyashree Senに感謝します。McKnight Foundation Neurobiology of Disease Award (RH)、NIH 1DP2MH126377-01 (RH)、Roy J. Carver Charitable Trust (RH)、NINDS T32NS007124 (MJ)、Ramon D. Buckley Graduate Student Award (MJ)、VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS) に感謝します。

資料

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

参考文献

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved