このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。
Method Article
本プロトコルは、Swin-PSAxialNetと呼ばれる効率的な多臓器セグメンテーション法を記述しており、これは以前のセグメンテーション方法と比較して優れた精度を達成しています。この手順の主なステップには、データセットの収集、環境設定、データの前処理、モデルのトレーニングと比較、アブレーション実験が含まれます。
腹部多臓器セグメンテーションは、医用画像解析の分野で最も重要なトピックの1つであり、疾患診断や治療計画などの臨床ワークフローを支える重要な役割を果たしています。本研究では、nnU-Netアーキテクチャに基づく効率的な多臓器セグメンテーション法Swin-PSAxialNetを提案します。これは、CT画像内の11の腹部臓器の正確なセグメンテーションのために特別に設計されました。提案ネットワークは、nnU-Netと比較して以下の改善が行われています。まず、SPD(Space-to-Depth)モジュールとPSAA(Parameter-Shared Axial Attention)特徴抽出ブロックが導入され、3D画像特徴抽出の能力が向上しました。次に、詳細な情報と空間的特徴をキャプチャするためにマルチスケール画像融合アプローチが採用され、微妙な特徴とエッジ特徴を抽出する能力が向上しました。最後に、モデルの計算コストとトレーニング速度を削減するために、パラメーター共有方法が導入されました。提案されたネットワークは、11 の臓器が関与するセグメンテーション タスクに対して 0.93342 の平均ダイス係数を達成します。実験結果は、Swin-PSAxialNetが以前の主流のセグメンテーション方法よりも顕著な優位性を示していることを示しています。この方法は、主要な腹部臓器のセグメンテーションにおいて優れた精度と低い計算コストを示しています。
疾患の診断、治療計画の策定、治療結果の追跡など、現代の臨床介入は、医療画像の正確なセグメンテーションに依存しています1。しかし、腹部臓器2間の複雑な構造的関係により、複数の腹部臓器3の正確なセグメンテーションを達成することは困難な課題となっています。過去数十年にわたり、医用画像処理とコンピュータビジョンの盛んな発展は、腹部の多臓器セグメンテーションの分野において新たな機会と課題の両方をもたらしてきました。高度な磁気共鳴画像法(MRI)※4やCT(コンピュータ断層撮影)技術※5により、高解像度の腹部画像を取得することができます。CT画像から複数の臓器を正確にセグメンテーションすることは、肝臓、腎臓、脾臓、膵臓などの重要な臓器の評価と治療に大きな臨床的価値を持っています6,7,8,9,10 しかし、これらの解剖学的構造、特に放射線科医や放射線腫瘍医からの介入が必要な解剖学的構造の手動注釈は、時間がかかり、主観的な影響を受けやすいです11.したがって、腹部の多臓器セグメンテーションのための自動化された正確な方法を開発することが急務です。
画像セグメンテーションに関する以前の研究では、主に畳み込みニューラルネットワーク(CNN)に依存しており、レイヤーを積み重ねてResNet12を導入することでセグメンテーション効率を向上させていました。2020 年、Google の研究チームは Vision Transformer(VIT)モデル13 を導入し、Transformer アーキテクチャを従来の視覚領域に組み込んでさまざまな視覚タスク14 を組み込んだ先駆的な事例となりました。畳み込み演算は局所的な特徴情報しか考慮できませんが、Transformers のアテンション メカニズムにより、グローバルな特徴情報を包括的に考慮できます。
従来の畳み込みネットワーク15に対するTransformerベースのアーキテクチャの優位性を考慮して、多数の研究チームが、Transformerと畳み込みネットワーク16,17,18,19の強みとの間の相乗効果を最適化するための広範な調査を行ってきた。Chenらは、Transformerを活用して画像からグローバルな特徴を抽出する、医用画像セグメンテーションタスク16用のTransUNetを導入しました。ネットワークトレーニングのコストが高く、特徴抽出階層の概念を利用できないため、Transformerの利点は完全には実現されていません。
これらの問題に対処するために、多くの研究者がセグメンテーションネットワークの学習のバックボーンとしてTransformerを組み込む実験を始めています。Liuら17 は、階層化された特徴抽出のための階層的構築方法を採用したSwin Transformerを導入しました。Windows Multi-Head Self-Attention (W-MSA) の概念が提案され、特に大きな浅いレベルの特徴マップが存在する場合に、計算コストが大幅に削減されました。このアプローチにより、計算要件が軽減される一方で、異なるウィンドウ間での情報伝送も分離されました。この問題に対処するために、著者たちはさらに、隣接するウィンドウ間での情報伝達を可能にするShifted Windows Multi-Head Self-Attention(SW-MSA)の概念を導入しました。この方法論に基づいて、CaoらはSwin-UNet18を定式化し、U-Netの2D畳み込みをSwinモジュールに置き換え、W-MSAとSW-MSAをエンコードおよびデコードプロセスに組み込み、称賛に値するセグメンテーション結果を達成しました。
逆に、Zhouらは、高解像度の画像を処理する際にconv演算の利点を無視できないことを強調した19。彼らが提案するnnFormerは、局所的な3次元画像ブロックに基づくセルフアテンション計算法を採用し、十字型構造を特徴とするTransformerモデルを構成する。ローカルの3次元ブロックに基づくアテンションの利用により、ネットワークの学習負荷が大幅に軽減されました。
上記の研究の問題点を踏まえて、3D医用画像セグメンテーションのための効率的なハイブリッド階層構造であるSwin-PSAxialNetが提案されています。この方法には、ダウンサンプリングブロックであるSpace-to-depth(SPD)20 ブロックが組み込まれており、グローバル情報21を抽出できる。さらに、パラメータ共有アキシャルアテンション(PSAA)モジュールを追加し、これにより学習パラメータ数が二次から線形に減少し、ネットワークトレーニングの精度とトレーニングモデル22の複雑さに良い影響を与える。
Swin-PSAxialNetネットワーク
ネットワークの全体的なアーキテクチャは、エンコーダとデコーダの構造からなるnnU-Net23のU字型構造を採用しています。これらの構造は、 図 1 に示すように、ローカルな特徴抽出と、大小の画像からの特徴の連結に関与します。
図 1: ネットワーク アーキテクチャの Swin-PSAxialNet 概略図。この図の拡大版を表示するには、ここをクリックしてください。
エンコーダ構造では、従来のConvブロックがSPDブロック20と組み合わされて、ダウンサンプリングボリュームが形成されます。エンコーダの最初の層には、3Dデータを3Dパッチに分割するモジュールであるパッチ埋め込みが組み込まれています(P1、P2、P 3)は、このコンテキストでは重複しないパッチを表し、
3Dパッチのシーケンス長を示します。埋め込み層に続いて、次のステップには、畳み込みブロックと SPD ブロックの両方で構成されるオーバーラップしない畳み込みダウンサンプリング ユニットが含まれます。この設定では、畳み込みブロックのストライドが 1 に設定され、SPD ブロックがイメージ スケーリングに使用されるため、解像度が 4 倍、チャネルが 2 倍に増加します。
デコーダー構造では、Bottleneck Feature 層の後の各アップサンプル ブロックは、アップサンプリング ブロックと PSAA ブロックの組み合わせで構成されます。特徴マップの解像度は 2 倍に向上し、デコーダ ステージの各ペア間でチャネル数が半分になります。空間情報を復元し、フィーチャ表現を強化するために、アップサンプリング ブロック間で大縮尺イメージと小縮尺イメージ間のフィーチャ フュージョンが実行されます。最終的に、アップサンプリングの結果は Head レイヤーに供給され、出力サイズが (H × W × D × C, C = 3) の元の画像サイズに戻ります。
SPD ブロックのアーキテクチャ
従来の方法では、ダウンサンプリング セクションでは、ステップ サイズが 2 の 1 ストライドが採用されていました。これには、画像内の局所的な位置での畳み込みプーリング、受容野の制限、およびモデルを小さな画像パッチからの特徴の抽出に制限することが含まれます。この方法では、元の画像を3次元に細かく分割するSPDブロックを利用します。元の 3D イメージは、x、y、z 軸に沿って均等にセグメント化され、4 つのサブボリューム ボディになります。(図2)続いて、4つのボリュームを「cat」操作によって連結し、得られた画像を1×1×1畳み込みを受けて、ダウンサンプリングされた画像20を得る。
図 2: SPD のブロック図。この図の拡大版を表示するには、ここをクリックしてください。
PSAA ブロックのアーキテクチャ
従来のCNNネットワークとは対照的に、提案されているPSAAブロックは、グローバルな情報に焦点を当てる上でより効果的であり、ネットワークの学習とトレーニングにおいてより効率的です。これにより、より豊富な画像と空間的特徴をキャプチャできます。PSAA ブロックには、高さ、幅、深さの 3 次元で共有するパラメーターに基づく軸方向の注意学習が含まれています。従来のアテンションメカニズムが画像内の各ピクセルに対してアテンション学習を行うのに対し、この手法は3次元ごとに独立してアテンション学習を行うため、セルフアテンションの複雑さを2次から線形に軽減します。さらに、学習可能なキークエリパラメータ共有メカニズムが採用されているため、ネットワークは3次元にわたってアテンションメカニズムの操作を並行して実行できるため、より速く、優れており、より効果的な特徴表現が得られます。
本プロトコルは、南通大学の倫理委員会によって承認されました。これには、人工知能技術を利用して、人間の医療画像、手足の動き、血管イメージングなど、取得した非侵襲的または低侵襲のマルチモーダルデータのインテリジェントな評価と研究が含まれます。 図3 は、多臓器セグメンテーションの全体的なフローチャートを示しています。必要なすべてのウェブリンクは 、資料の表に記載されています。
図3:多臓器セグメンテーションの全体的なフローチャート。この図の拡大版を表示するには、ここをクリックしてください。
1. データセットの収集
2. 環境設定
3. データの前処理
4. モデルのトレーニングと比較
注:画像セグメンテーションの分野で広く使用されているベースラインとして、nnU-Net23 は本研究のベースラインモデルとして機能します。具体的なモデル比較プロセスは次のとおりです。
5. アブレーション実験
このプロトコルでは、モデルを評価するために、サイコロ類似性スコア (DSC) と 95% ハウスドルフ距離 (HD95) の 2 つのメトリックを使用します。DSC はボクセル セグメンテーション予測とグラウンド トゥルースの間のオーバーラップを測定し、95% HD はボクセル セグメンテーション予測境界とグラウンド トゥルースの間のオーバーラップを評価し、外れ値の 5% をフィル...
腹部臓器のセグメンテーションは複雑な作業です。脳や心臓など、人体の他の内部構造と比較して、CT画像のコントラストが低く、形状変化が大きいため、腹部臓器のセグメンテーションはより困難に思えます27,28。ここでは、この難しい問題を解決するためにSwin-PSAxialNetを提案しています。
データ収?...
著者は、利益相反を宣言しません。
この研究は、江蘇省の「333」エンジニアリングプロジェクト([2022]21-003)、無錫衛生委員会一般プログラム(M202205)、無錫科学技術開発基金(Y20212002-1)の支援を受けており、彼らの貢献はこの研究の成功に非常に貴重です。」著者らは、すべての研究助手と研究参加者の支援に感謝します。
Name | Company | Catalog Number | Comments |
AMOS2022 dataset | None | None | Datasets for network training and testing. The weblink is: https://pan.baidu.com/s/1x2ZW5FiZtVap0er55Wk4VQ?pwd=xhpb |
ASUS mainframe | ASUS | https://www.asusparts.eu/en/asus-13020-01910200 | |
CUDA version 11.7 | NVIDIA | https://developer.nvidia.com/cuda-11-7-0-download-archive | |
NVIDIA GeForce RTX 3090 | NVIDIA | https://www.nvidia.com/en-in/geforce/graphics-cards/30-series/rtx-3090-3090ti/ | |
Paddlepaddle environment | Baidu | None | Environmental preparation for network training. The weblink is: https://www.paddlepaddle.org.cn/ |
PaddleSeg | Baidu | None | The baseline we use: https://github.com/PaddlePaddle/PaddleSeg |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved