Method Article
これは、1つのトモグラムの一部をトレーニング入力として使用して、クライオ電子線トモグラムの多クラスセグメンテーションのためのマルチスライスU-Netをトレーニングする方法です。このネットワークを他のトモグラムに推測する方法と、サブトモグラムの平均化やフィラメントトレースなどのさらなる分析のためにセグメンテーションを抽出する方法について説明します。
クライオ電子線トモグラフィー(クライオET)により、研究者は天然の水和状態の細胞を現在可能な最高の解像度でイメージングできます。ただし、この手法にはいくつかの制限があり、生成するデータの分析には時間がかかり、困難になります。1つの断層撮影に数時間から数日かかることがありますが、顕微鏡では1日に50個以上の断層撮影を簡単に生成できます。現在のクライオETのディープラーニングセグメンテーションプログラムは存在しますが、一度に1つの構造をセグメント化することに制限されています。ここでは、マルチスライスU-Net畳み込みニューラルネットワークをトレーニングして適用し、クライオトモグラム内で複数の構造を同時に自動的にセグメント化します。適切な前処理により、これらのネットワークは、トモグラムごとに個々のネットワークをトレーニングすることなく、多くのトモグラムに対して堅牢に推論できます。このワークフローは、ほとんどの場合、セグメンテーション時間を30分未満に短縮することにより、クライオ電子断層撮影の分析速度を劇的に向上させます。さらに、セグメンテーションを使用して、細胞コンテキスト内のフィラメントトレースの精度を向上させ、サブトモグラム平均化のための座標を迅速に抽出することができます。
過去10年間のハードウェアとソフトウェアの開発は、クライオ電子顕微鏡(クライオEM)1,2の「分解能革命」をもたらしました。より優れた、より高速な検出器3、データ収集を自動化するソフトウェア4,5、および位相プレート6などの信号ブーストの進歩により、大量の高解像度クライオEMデータの収集は比較的簡単です。
クライオETは、天然の水和状態で細胞の微細構造に関する前例のない洞察を提供します7、8、9、10。主な制限はサンプルの厚さですが、トモグラフィー11のために厚い細胞および組織サンプルを薄くする集束イオンビーム(FIB)ミリングなどの方法の採用により、クライオETでイメージングできるものの視野は絶えず拡大しています。最新の顕微鏡は1日に50トモグラムをはるかに超えるトモグラムを生成することができ、この速度は迅速なデータ収集スキームの開発により増加すると予測されています12,13。クライオETによって生成された膨大な量のデータを分析することは、このイメージングモダリティのボトルネックのままです。
断層情報を定量的に分析するには、最初に注釈を付ける必要があります。従来、これには専門家による手作業によるセグメンテーションが必要であり、時間がかかります。クライオトモグラムに含まれる分子の複雑さによっては、専用の注意に数時間から数日かかる場合があります。人工ニューラルネットワークは、セグメンテーション作業の大部分をわずかな時間で実行するようにトレーニングできるため、この問題に対する魅力的なソリューションです。畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンタスク14に特に適しており、最近、クライオ電子断層撮影15,16,17の分析に適応されています。
従来のCNNでは、何千もの注釈付きトレーニングサンプルが必要ですが、生物学的画像解析タスクでは不可能なことがよくあります。したがって、U-Netアーキテクチャは、ネットワークを正常にトレーニングするためにデータ拡張に依存し、大規模なトレーニングセットへの依存を最小限に抑えるため、このスペース18 で優れています。たとえば、U-Netアーキテクチャは、1つのトモグラムのほんの数スライス(4つまたは5つのスライス)でトレーニングでき、再トレーニングなしで他のトモグラムに対して堅牢に推論できます。このプロトコルは、Dragonfly 2022.119内で電子クライオトモグラムをセグメント化するためにU-Netニューラルネットワークアーキテクチャをトレーニングするためのステップバイステップガイドを提供します。
Dragonflyは、深層学習モデルによる3次元画像のセグメンテーションや解析に使用される商用開発のソフトウェアで、学術的に自由に利用できます(地理的な制限があります)。高度なグラフィカルインターフェイスを備えているため、専門家でなくても、セマンティックセグメンテーションと画像のノイズ除去の両方でディープラーニングの力を最大限に活用できます。このプロトコルは、人工ニューラルネットワークをトレーニングするためにDragonfly内でクライオ電子線トモグラムを前処理して注釈を付ける方法を示し、大規模なデータセットを迅速にセグメント化するために推測できます。さらに、フィラメントトレースやサブトモグラム平均化のための座標抽出などのさらなる分析のためにセグメント化されたデータを使用する方法について簡単に説明します。
注: Dragonfly 2022.1 には高性能ワークステーションが必要です。システムの推奨事項は、このプロトコルに使用されるワークステーションのハードウェアとともに 、材料表 に含まれています。このプロトコルで使用されるすべての断層撮影は、3.3〜13.2 ang/pixのピクセルサイズから4倍にビニングされます。代表的な結果に使用されたサンプルは、この機関の倫理基準に沿った動物飼育ガイドラインに従う会社( 資料表を参照)から入手しました。このプロトコルで使用されるトモグラムとトレーニング入力として生成されたマルチROIは、 補足ファイル1 (https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct にあります)にバンドルデータセットとして含まれているため、ユーザーは必要に応じて同じデータを追跡できます。Dragonflyは、ユーザーがトレーニング済みのネットワークを共有できるInfinite Toolboxと呼ばれるオープンアクセスデータベースもホストしています。
1. セットアップ
2.画像のインポート
3. 前処理(図1.1)
4. トレーニングデータの作成(図1.2)
5.反復トレーニングのためのセグメンテーションウィザードの使用(図1.3)
6.ネットワークを適用します(図1.4)
7.セグメンテーションの操作とクリーンアップ
8. ROIからのサブトモグラム平均化のための座標の生成
9. 分水界変換
図1:ワークフロー。 1) 強度スケールをキャリブレーションし、データセットをフィルタリングすることにより、トレーニング断層撮影を前処理します。 2) トモグラムのごく一部を、ユーザーが識別したいすべての適切なラベルで手作業でセグメント化することにより、トレーニングデータを作成します。 3) フィルタリングされたトモグラムを入力として使用し、ハンドセグメンテーションをトレーニング出力として使用して、セグメンテーションウィザードで5層のマルチスライスU-Netをトレーニングします。 4) 訓練されたネットワークをフルトモグラムに適用して注釈を付け、セグメント化された各クラスから3Dレンダリングを生成できます。 この図の拡大版を表示するには、ここをクリックしてください。
プロトコルに従って、5スライスのU-Netを1つの断層撮影(図2A)でトレーニングし、メンブレン、微小管、アクチン、フィデューシャルマーカー、バックグラウンドの5つのクラスを特定しました。ネットワークを合計3回繰り返しトレーニングした後、トモグラムに適用して完全にセグメント化して注釈を付けました(図2B、C)。最小限のクリーンアップは、手順 7.1 と 7.2 を使用して実行されました。関心のある次の3つの断層撮影(図2D、G、J)を前処理のためにソフトウェアにロードしました。画像をインポートする前に、トモグラムの1つ(図2J)は、わずかに異なる倍率で別の顕微鏡で収集されたため、ピクセルサイズを17.22 Å/pxから13.3 Å/pxに調整する必要がありました。IMODプログラム squeezevol は、次のコマンドでサイズ変更に使用されました。
'squeezevol -f 0.772 inputfile.mrc outputfile.mrc'
このコマンドの -f は、ピクセル サイズを変更する係数 (この場合は 13.3/17.22) を指します。インポート後、3 つの推論ターゲットすべてがステップ 3.2 および 3.3 に従って前処理され、5 スライスの U-Net が適用されました。最小限のクリーンアップが再度実行されました。最終的なセグメンテーションを 図 2 に示します。
各トモグラムからの微小管セグメンテーションは、バイナリ(ステップ7.4)TIFファイルとしてエクスポートされ、MRC(IMOD tif2mrc プログラム)に変換され、シリンダー相関とフィラメントトレースに使用されました。フィラメントのバイナリセグメンテーションは、断層撮影でのトレースよりもはるかに堅牢なフィラメントトレースをもたらします。フィラメントトレースの座標マップ(図3)は、微小管の向きを決定するための単一フィラメントに沿った最近傍測定(フィラメントパッキング)やヘリカルサブトモグラム平均化などのさらなる分析に使用されます。
失敗したネットワークやトレーニングが不十分なネットワークは簡単に判断できます。障害が発生したネットワークは構造をまったくセグメント化できませんが、トレーニングが不十分なネットワークは通常、一部の構造を正しくセグメント化し、誤検知と偽陰性の数が多数あります。これらのネットワークを修正し、繰り返しトレーニングしてパフォーマンスを向上させることができます。セグメンテーションウィザードは、トレーニング後にモデルの サイコロ類似度係数 (SegWizでは スコア と呼ばれる)を自動的に計算します。この統計は、トレーニングデータとU-Netセグメンテーションの類似性の推定値を提供します。Dragonfly 2022.1には、インターフェイスの上部にある [人工知能 ]タブからアクセスできるモデルのパフォーマンスを評価するための組み込みツールもあります(使用方法についてはドキュメントを参照してください)。
図 2: 推論。 (A-C)2019年にタイタンクリオスで収集されたDIV 5海馬ラットニューロンの元のトレーニング断層撮影。これは、IMODのCTF補正を使用したバックプロジェクション再構成です。(A)黄色のボックスは、トレーニング入力のためにハンドセグメンテーションが実行された領域を表します。(B)トレーニング完了後のU-Netからの2Dセグメンテーション。(C)膜(青)、微小管(緑)、アクチン(赤)を示すセグメント領域の3Dレンダリング。(D-F)トレーニング断層撮影と同じセッションからのDIV 5海馬ラットニューロン。(E)追加のトレーニングや迅速なクリーンアップなしでのU-Netからの2Dセグメンテーション。膜(青)、微小管(緑)、アクチン(赤)、基準(ピンク)。(F)セグメント化された領域の3Dレンダリング。(G-I)2019年のセッションからのDIV 5海馬ラットニューロン。(H)クイッククリーンアップによるU-Netからの2Dセグメンテーションと(I)3Dレンダリング。(J-L)DIV 5海馬ラットニューロン、2021年に異なる倍率で異なるタイタンクリオスで収集。IMODプログラムsqueezevolでピクセルサイズをトレーニング断層撮影に合わせて変更しました。(K)迅速なクリーンアップによるU-Netからの2Dセグメンテーション、適切な前処理によるデータセット間の堅牢な推論の実証、および(L)セグメンテーションの3Dレンダリング。スケールバー= 100 nm。略語:DIV =インビトロでの日数;CTF = コントラスト伝達関数。この図の拡大版を表示するには、ここをクリックしてください。
図3:フィラメントトレースの改善 。 (A)タイタンクリオスで収集されたDIV 4ラット海馬ニューロンの断層撮影。(B)アクチンフィラメント上の円柱相関から生成された相関マップ。(C)相関マップ内のアクチンフィラメントの強度を使用してパラメータを定義するアクチンのフィラメントトレース。トレースは、アクチンだけを追跡しようとしている間、膜と微小管、およびノイズをキャプチャします。(D)断層撮影のU-Netセグメンテーション。膜は青色、微小管は赤色、リボソームは青色、triCは紫色、アクチンは緑色で強調表示されています。(E)フィラメントトレース用のバイナリマスクとして抽出されたアクチンセグメンテーション。(F)(B)からの同一パラメータとの円柱相関から生成された相関マップ。(G)断層撮影からのアクチンフィラメントのみのフィラメントトレースを大幅に改善しました。略語:DIV = インビトロでの日数。 この図の拡大版を表示するには、ここをクリックしてください。
補足ファイル1:このプロトコルで使用されるトモグラムと、トレーニング入力として生成されたマルチROIは、バンドルされたデータセット(Training.ORSObject)として含まれています。 https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct を参照してください。
このプロトコルでは、Dragonfly 2022.1 ソフトウェアを使用して 1 つのトモグラムから多クラス U-Net をトレーニングする手順と、同じデータセットからのものである必要のない他のトモグラムに対してそのネットワークを推測する方法について説明します。トレーニングは比較的速く(トレーニングされているネットワークと使用されているハードウェアによって、エポックあたり3〜5分、または数時間遅くなる可能性があります)、学習を改善するためにネットワークを再トレーニングすることは直感的です。前処理ステップがすべての断層像に対して実行される限り、推論は通常堅牢です。
一貫性のある前処理は、ディープラーニング推論の最も重要なステップです。ソフトウェアには多くのイメージングフィルターがあり、ユーザーは実験して、特定のデータセットに最適なフィルターを判断できます。トレーニング断層撮影で使用されるフィルタリングは、推論断層撮影にも同じ方法で適用する必要があることに注意してください。また、ネットワークに正確で十分なトレーニング情報を提供するように注意する必要があります。トレーニングスライス内でセグメント化されたすべての特徴を可能な限り慎重かつ正確にセグメント化することが重要です。
画像のセグメンテーションは、洗練された商用グレードのユーザーインターフェイスによって促進されます。ハンドセグメンテーションに必要なすべてのツールを提供し、トレーニングと再トレーニングの前に、あるクラスから別のクラスにボクセルを簡単に再割り当てできます。ユーザーは、トモグラムのコンテキスト全体内でボクセルを手動でセグメント化することができ、複数のビューとボリュームを自由に回転させる機能が与えられます。さらに、このソフトウェアは、複数のシングルクラスネットワークでセグメント化するよりも優れた16 を実行し、高速であるマルチクラスネットワークを使用する機能を提供します。
もちろん、ニューラルネットワークの機能には制限があります。クライオETデータは、本質的に非常にノイズが多く、角度サンプリングが制限されているため、同一のオブジェクト21に向き固有の歪みが生じます。トレーニングは、構造を正確に手作業でセグメント化するために専門家に依存しており、成功したネットワークは、与えられたトレーニングデータと同じくらい良い(または悪い)だけです。信号をブーストするための画像フィルタリングはトレーナーに役立ちますが、特定の構造のすべてのピクセルを正確に識別することが困難な場合がまだたくさんあります。したがって、トレーニングセグメンテーションを作成する際には、ネットワークがトレーニング中に学習できる最良の情報を持つように細心の注意を払うことが重要です。
このワークフローは、各ユーザーの好みに合わせて簡単に変更できます。すべての断層撮影をまったく同じ方法で前処理することが不可欠ですが、プロトコルで使用される正確なフィルタを使用する必要はありません。ソフトウェアには多数の画像フィルタリングオプションがあり、多くの断層撮影にまたがる大規模なセグメンテーションプロジェクトに着手する前に、ユーザーの特定のデータに合わせてこれらを最適化することをお勧めします。また、このラボのデータにはマルチスライス U-Net が最適に機能することがわかっていますが、別のユーザーは別のアーキテクチャ (3D U-Net や Sensor 3D など) の方が適していると感じるかもしれません。セグメンテーションウィザードは、同じトレーニングデータを使用して複数のネットワークのパフォーマンスを比較するための便利なインターフェイスを提供します。
ここで紹介するようなツールは、完全な断層撮影の手のセグメンテーションを過去のタスクにします。十分に訓練されたニューラルネットワークが堅牢に推測できるため、顕微鏡が収集できる限り迅速に断層撮影データを再構築、処理、および完全にセグメント化するワークフローを作成することは完全に可能です。
このプロトコルのオープンアクセスライセンスは、Object Research Systemsによって支払われました。
この研究は、ペンシルベニア州立医科大学と生化学分子生物学部、およびタバコ決済基金(TSF)の助成金4100079742-EXTの支援を受けました。このプロジェクトで使用されたCryoEMおよびCryoETコア(RRID:SCR_021178)のサービスと機器は、ペンシルベニア州立大学医学部から研究および大学院生の副学部長のオフィス および ペンシルベニア州保健省を通じて、タバコ決済基金(CURE)を使用して資金提供されました。内容は著者の責任であり、必ずしも大学または医学部の公式見解を表すものではありません。ペンシルベニア州保健局は、分析、解釈、または結論に対する責任を明確に否認します。
Name | Company | Catalog Number | Comments |
Dragonfly 2022.1 | Object Research Systems | https://www.theobjects.com/dragonfly/index.html | |
E18 Rat Dissociated Hippocampus | Transnetyx Tissue | KTSDEDHP | https://tissue.transnetyx.com/faqs |
IMOD | University of Colorado | https://bio3d.colorado.edu/imod/ | |
Intel® Xeon® Gold 6124 CPU 3.2GHz | Intel | https://www.intel.com/content/www/us/en/products/sku/120493/intel-xeon-gold-6134-processor-24-75m-cache-3-20-ghz/specifications.html | |
NVIDIA Quadro P4000 | NVIDIA | https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/productspage/quadro/quadro-desktop/quadro-pascal-p4000-data-sheet-a4-nvidia-704358-r2-web.pdf | |
Windows 10 Enterprise 2016 | Microsoft | https://www.microsoft.com/en-us/evalcenter/evaluate-windows-10-enterprise | |
Workstation Minimum Requirements | https://theobjects.com/dragonfly/system-requirements.html |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved