まず、機器を手配し、DeepLabCutまたはDLC手順用のソフトウェアをインストールします。環境を作成するには、DLC ソフトウェアがダウンロードされたフォルダーに移動します。ディレクトリの変更コマンド、cdフォルダ名を使用します。
最初のコマンド conda env create f DEEPLABCUT.yaml を実行します。次に、「conda activate Deeplabcut」と入力して、環境を有効にします。次に、python m deeplabcutを使用してグラフィカルユーザーインターフェイスを開きます。
インターフェイスが開いたら、インターフェイスの下部にある [新しいプロジェクトの作成] をクリックします。後で簡単に識別できるように、プロジェクトに名前を付けます。実験ツールの名前を入力し、場所セクションを確認して、プロジェクトが保存される場所を確認します。
[ フォルダーの参照 ] を選択して、モデルをトレーニングするためのビデオを見つけ、ビデオを元のディレクトリに残す必要がある場合は [ ビデオ をプロジェクト フォルダーにコピー ] を選択します。「作成」をクリックして、新しいプロジェクトを生成します。モデルを作成したら、 [Edit config](設定の編集) を選択します。
yaml に続いて Edit をクリックして、構成設定ファイルを開きます。追跡のために目のすべての部分が含まれるように、体の部分を変更します。選択するフレーム数を調整して、トレーニングビデオの合計フレーム数を取得します。
ドットサイズを 6 に変更して、デフォルトのラベルサイズが目の端の周りに正確に配置されるのに十分な小ささになるようにします。設定が完了したら、グラフィカル・ユーザー・インターフェースの「Extract Frames」タブに移動し、下部にある「Extract Frames」を選択します。「ラベルフレーム」タブに移動し、「ラベルフレーム」を選択します。
新しいウィンドウで、選択した各トレーニングビデオのフォルダを見つけ、最初のフォルダを選択して新しいラベリングインターフェイスを開きます。選択したビデオの各フレームの構成中に定義されたポイントにラベルを付けます。すべてのフレームにラベルを付けたら、ラベルを保存し、次のビデオでこのプロセスを繰り返します。
斜視を正確にラベル付けするには、目の最大のピークの近くにある2つのポイントを使用します。学習データセットを作成するには、[ネットワークの学習] タブに移動し、ネットワークの学習を開始します。ネットワーク トレーニングが完了したら、 [ネットワークの評価] に移動して選択します。
ビデオを分析するには、[ビデオの分析] タブに移動し、[ビデオをさらに追加] を選択してビデオを選択します。データの CSV 出力で十分な場合は、結果を CSV として保存 を選択します。すべてのビデオを選択したら、[ビデオの分析] をクリックして分析プロセスを開始します。
最後に、マクロを適用して、生データをユークリッド距離の解析に必要な形式に変換します。このモデルは、非斜視インスタンスと非斜視インスタンスの両方を正確に検出し、上まぶたと下まぶたの点をマークしてユークリッド距離を計算しました。手動でラベル付けしたポイントとモデルでラベル付けしたポイント間の二乗平均平方根誤差は、300 フレーム後に最小のばらつきを示し、400 フレームを使用した場合、正しいポイント検出の平均尤度値は 0.95 を超えました。
混同行列は、斜視検出について96.96%の正の予測値と99.66%の陰性予測値を示しました。