このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。
Method Article
* これらの著者は同等に貢献しました
このプロトコルは、神経生理学的測定へのタイムロックと互換性のある方法で、げっ歯類の自動眼斜視を経時的に追跡する方法を提供します。このプロトコールは、片頭痛などの疼痛障害のメカニズムを研究する研究者にとって有用であると期待されています。
自然発生的な痛みをリアルタイムで追跡し、人間の偏見を防ぐ方法で定量化することは困難でした。これは、片頭痛などの障害のように、頭の痛みの指標に特に当てはまります。Eye Squintは、経時的に測定できる連続変数の指標として登場し、このようなアッセイの痛みの状態を予測するのに効果的です。この論文では、DeepLabCut(DLC)を使用して、頭を自由に回転する拘束マウスの眼斜視(まぶた間のユークリッド距離)を自動化および定量化するためのプロトコルを提供します。このプロトコルにより、眼の斜視の偏りのない定量化を、神経生理学などのメカニズム測定と直接組み合わせて比較することができます。私たちは、斜視期間と非斜視期間を区別することによって定義される成功を達成するために必要なAIトレーニングパラメータの評価を提供します。私たちは、CGRP によって誘発された片頭痛様表現型の斜視を 1 秒未満の解像度で確実に追跡し、区別する能力を示しています。
片頭痛は、世界中で最も蔓延している脳疾患の1つであり、10億人以上が罹患しています1。片頭痛の前臨床マウスモデルは、片頭痛のメカニズムを研究するための有益な方法として浮上しており、これらの研究は人間の研究よりも簡単に制御できるため、片頭痛関連行動の因果関係の研究が可能になります2。このようなモデルは、カルシトニン遺伝子関連ペプチド(CGRP)などの片頭痛誘発化合物に対して強力で再現性のある表現型応答を示しています。げっ歯類モデルにおける片頭痛関連行動の堅牢な測定の必要性は依然としてあり、特にイメージングや電気生理学的アプローチなどのメカニズムメトリックと組み合わせる可能性のあるもの。
片頭痛様の脳の状態は、光嫌悪、足異痛症、有害な刺激に対する顔面痛覚過敏、および顔面のしかめっ面の存在によって表現型的に特徴付けられてきました3。このような行動は、光に費やされた合計時間(光嫌悪)と足または顔の接触感度の閾値(足の異痛症および顔面痛覚過敏)によって測定され、長時間(数分以上)にわたる1回の読み出しに制限されます。片頭痛様行動は、CGRPのような片頭痛誘発化合物を投与することにより、動物において誘発することができ、片頭痛3のヒト患者が経験する症状を模倣する(すなわち、顔面の有効性を示す)。このような化合物は、ヒトに投与すると片頭痛の症状も引き起こし、これらのモデルの構成概念の有効性を実証しています4。行動表現型が薬理学的に減衰した研究は、片頭痛の治療に関連する発見につながり、これらのモデルのさらなる実証を提供します(つまり、予測妥当性を実証します)5,6。
例えば、モノクローナル抗CGRP抗体(ALD405)は、CGRPで治療したマウスにおいて、光嫌悪行動5および顔面のしかめっ面6を軽減することが示され、他の研究では、CGRP拮抗薬が動物における亜酸化窒素誘発性片頭痛様行動を減少させることが示されている7,8。最近の臨床試験では、CGRP 9,10 をブロックすることで片頭痛の治療に成功し、CGRP またはその受容体を標的とする複数の FDA 承認薬が誕生しています。片頭痛関連の表現型の前臨床評価は、臨床所見のブレークスルーにつながったため、ヒトで直接テストするのが難しい片頭痛のより複雑な側面のいくつかを理解するために不可欠です。
多くの利点があるにもかかわらず、これらの片頭痛のげっ歯類の行動測定値を使用した実験は、多くの場合、その時点のサンプリング能力に制限されており、主観的であり、人間の実験エラーが発生しやすい可能性があります。多くの行動アッセイは、より細かい時間分解能で活動を捕捉する能力に限界があり、多くの場合、脳活動のレベルなど、サブ秒の時間スケールで発生するより動的な要素を捕捉することが困難になります。神経生理学的メカニズムを研究するために、時間の経過とともに行動のより自発的で自然に発生する要素を意味のある時間分解能で定量化することは困難であることが証明されています。片頭痛様の活動をより速い時間スケールで特定する方法を作成することで、片頭痛様の脳の状態を外部から検証することが可能になる。これを脳活動と同期させることで、片頭痛のより強固な脳活動プロファイルを作成することができる。
そのような片頭痛関連の表現型の1つである顔のしかめっ面は、動物の痛みの測定としてさまざまな状況で利用されており、これは瞬時に測定でき、経時的に追跡できる11。顔のしかめっ面は、人間(特に非言語的な人間)や他の哺乳類種が痛みを経験するときに顔の表情に自然な変化を示すという考えに基づいて、自発的な痛みの指標としてよく使用されます11。過去10年間にマウスの痛みの指標として顔面のしかめっ面を測定した研究では、げっ歯類の痛みの特徴付けを標準化するためにマウスしかめっ面スケール(MGS)などのスケールが利用されてきた12。MGSの表情変数には、眼窩引き締め(斜視)、鼻の膨らみ、頬の膨らみ、耳の位置、ひげの変化などがあります。MGSは動物の痛みを確実に特徴付けることが示されています13が、それは主観的であることで有名であり、正確なスコアリングに依存しており、これは実験者によって異なる可能性があります。さらに、MGSは非連続スケールを利用し、時間を超えて自然に発生する行動を追跡するために必要な時間分解能を欠いているという点で制限があります。
これに対処する1つの方法は、一貫した顔の特徴を客観的に定量化することです。斜視は、最も一貫して追跡可能な顔の特徴です6。すべての MGS 変数 (斜視、鼻の膨らみ、頬の膨らみ、耳の位置、ひげの変化) を考慮すると、斜視はデータの総変動性の大部分を占めます6。斜視は、MGS を使用して得られる全体的なスコアに最も寄与し、CGRP 6,14 に対する反応を確実に追跡するため、片頭痛マウス モデルにおける自発的な痛みを追跡する最も信頼性の高い方法です。これにより、スクインはCGRPによって誘発される定量化可能な非恒常性行動になります。いくつかの研究室では、片頭痛に関連する潜在的な自発的な痛みを表すために、斜視を含む顔の表情の特徴を使用しています6,15。
片頭痛のメカニズム研究と組み合わせることができる方法で自動化された斜視を実施することに関して、いくつかの課題が残っています。例えば、セッション間で同じようにキャリブレーションする必要がある固定位置に頼らずに、スクイントを確実に追跡することは困難でした。また、MGSのような離散的なスケールではなく、連続的なスケールでこの種の解析を行うことができることも課題です。これらの課題を軽減するために、私たちはDeepLabCut(DLC)という形で機械学習をデータ分析パイプラインに統合することを目指しました。DLCは、Mathisらによって開発された姿勢推定機械学習モデルであり、幅広い行動に適用されている16。彼らの姿勢推定ソフトウェアを使用して、マウスの目の点を人間に近い精度で正確に予測できるモデルをトレーニングすることができました。これにより、反復的な手動スコアリングの問題が解決されると同時に、時間分解能が大幅に向上します。さらに、これらのモデルを作成することにより、より大きな実験グループで片頭痛のような脳活動を推定し、斜視をスコアリングするための再現性のある手段を作成しました。ここでは、神経生理学などの他のメカニズム測定に時間ロックできる方法で斜視行動を追跡するためのこの方法の開発と検証を紹介します。包括的な目標は、げっ歯類モデルで時間ロックされた斜視行動を必要とする機構研究を触媒することです。
注:これらの実験で使用されたすべての動物は、アイオワ大学の動物管理および使用委員会(IACUC)によって承認されたプロトコルに従って取り扱われました。
1. データ収集のための機器を準備する
2. DLCの設定
3. モデルを作成する
4. 設定を構成する
注: ここでは、追跡するポイント、各トレーニング ビデオから抽出するフレーム数、既定のラベル付けドット サイズ、モデルのトレーニング方法に関連する変数などの詳細を定義できます。
5. トレーニング フレームの抽出
6. トレーニングフレームにラベルを付ける
7. トレーニング データセットを作成する
8. ネットワークを評価する
9.データの分析/ラベル付きビデオの生成
10. 最終データの処理
ここでは、DeepLabCutを使用して、高い時間分解能で斜視を確実に検出する方法を提供します。トレーニングパラメータを最適化し、この方法の長所と短所の評価を提供します(図1)。
モデルをトレーニングした後、ユークリッド距離測定の座標点として機能するまぶたの上部と下部の点(図2)を正しく推定...
このプロトコルは、機械学習ベースのツールを使用して、以前のアプローチと同じ(またはそれ以上の)時間分解能を維持しながら、人間に近い精度で斜視を区別できる、簡単にアクセスできる詳細な方法を提供します。主に、自動斜視の評価をより多くのユーザーがより簡単に利用できるようにします。自動斜視の評価方法としては、従来のモデルに比べていくつか?...
開示すべき利益相反はありません。このペーパーの見解は、退役軍人省または米国政府を代表するものではありません。
洞察に満ちた会話をしてくれたRajyashree Senに感謝します。McKnight Foundation Neurobiology of Disease Award (RH)、NIH 1DP2MH126377-01 (RH)、Roy J. Carver Charitable Trust (RH)、NINDS T32NS007124 (MJ)、Ramon D. Buckley Graduate Student Award (MJ)、VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS) に感謝します。
Name | Company | Catalog Number | Comments |
CUDA toolkit 11.8 | |||
cuDNN SDK 8.6.0 | |||
Intel computers with Windows 11, 13th gen | |||
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse: | FaceX LLC | NA | Any camera that can record an animal's eye is sufficient, but this is our eye tracking hardware. |
NVIDIA GPU driver that is version 450.80.02 or higher | |||
NVIDIA RTX A5500, 24 GB DDR6 | NVIDIA | [490-BHXV] | Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU |
Python 3.9-3.11 | |||
TensorFlow version 2.10 |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved