Method Article
Это метод обучения многосрезовой U-Net для многоклассовой сегментации криоэлектронных томограмм с использованием части одной томограммы в качестве обучающего входа. Мы описываем, как вывести эту сеть из других томограмм и как извлечь сегментации для дальнейшего анализа, такого как усреднение субтомограмм и трассировка нитей.
Криоэлектронная томография (крио-ЭТ) позволяет исследователям визуализировать клетки в их естественном, гидратированном состоянии с максимально возможным в настоящее время разрешением. Однако этот метод имеет несколько ограничений, которые делают анализ данных, которые он генерирует, трудоемким и сложным. Ручная сегментация одной томограммы может занять от нескольких часов до нескольких дней, но микроскоп может легко генерировать 50 или более томограмм в день. Современные программы сегментации глубокого обучения для крио-ЭТ существуют, но ограничены сегментацией одной структуры за раз. Здесь многосрезовые сверточные нейронные сети U-Net обучаются и применяются для автоматической сегментации нескольких структур одновременно в криотомограммах. При надлежащей предварительной обработке эти сети могут быть надежно выведены для многих томограмм без необходимости обучения отдельных сетей для каждой томограммы. Этот рабочий процесс значительно повышает скорость, с которой криоэлектронные томограммы могут быть проанализированы, сокращая время сегментации до 30 минут в большинстве случаев. Кроме того, сегментация может быть использована для повышения точности отслеживания нитей в клеточном контексте и для быстрого извлечения координат для усреднения субтомограммы.
Аппаратные и программные разработки последнего десятилетия привели к «революции разрешения» для криоэлектронной микроскопии (крио-ЭМ)1,2. Благодаря более совершенным и быстрым детекторам3, программному обеспечению для автоматизации сбора данных4,5 и достижениям в области усиления сигнала, таким как фазовые пластины6, сбор больших объемов крио-ЭМ-данных высокого разрешения является относительно простым.
Cryo-ET обеспечивает беспрецедентное понимание клеточной ультраструктуры в нативном, гидратированном состоянии 7,8,9,10. Основным ограничением является толщина образца, но с принятием таких методов, как фрезерование сфокусированным ионным пучком (FIB), при котором толстые клеточные и тканевые образцы истончаются для томографии11, горизонт того, что можно визуализировать с помощью крио-ET, постоянно расширяется. Новейшие микроскопы способны производить более 50 томограмм в день, и этот показатель, по прогнозам, будет только увеличиваться из-за разработки схем быстрого сбора данных12,13. Анализ огромных объемов данных, полученных с помощью крио-ЭТ, остается узким местом для этого метода визуализации.
Количественный анализ томографической информации требует, чтобы она сначала была аннотирована. Традиционно для этого требуется сегментация рук экспертом, что отнимает много времени; В зависимости от молекулярной сложности, содержащейся в криотомограмме, это может занять от нескольких часов до нескольких дней. Искусственные нейронные сети являются привлекательным решением этой проблемы, поскольку их можно обучить выполнять основную часть работы по сегментации за долю времени. Сверточные нейронные сети (CNN) особенно подходят для задач компьютерного зрения14 и недавно были адаптированы для анализа криоэлектронных томограмм15,16,17.
Традиционные CNN требуют многих тысяч аннотированных обучающих выборок, что не часто возможно для задач анализа биологических изображений. Следовательно, архитектура U-Net преуспела в этом пространстве18 , потому что она полагается на увеличение данных для успешного обучения сети, сводя к минимуму зависимость от больших обучающих наборов. Например, архитектура U-Net может быть обучена с помощью всего нескольких срезов одной томограммы (четыре или пять срезов) и надежно выведена для других томограмм без повторного обучения. Этот протокол предоставляет пошаговое руководство по обучению архитектур нейронных сетей U-Net для сегментации электронных криотомограмм в Dragonfly 2022.119.
Dragonfly — это коммерчески разработанное программное обеспечение, используемое для сегментации и анализа 3D-изображений с помощью моделей глубокого обучения, и оно свободно доступно для академического использования (применяются некоторые географические ограничения). Он имеет расширенный графический интерфейс, который позволяет неспециалисту в полной мере использовать возможности глубокого обучения как для семантической сегментации, так и для шумоподавления изображения. Этот протокол демонстрирует, как предварительно обрабатывать и аннотировать криоэлектронные томограммы в Dragonfly для обучения искусственных нейронных сетей, которые затем могут быть выведены для быстрого сегментирования больших наборов данных. Далее обсуждается и кратко демонстрируется, как использовать сегментированные данные для дальнейшего анализа, такого как трассировка нитей и выделение координат для усреднения субтомограммы.
ПРИМЕЧАНИЕ: Для Dragonfly 2022.1 требуется высокопроизводительная рабочая станция. Системные рекомендации включены в Таблицу материалов вместе с аппаратным обеспечением рабочей станции, используемой для этого протокола. Все томограммы, используемые в этом протоколе, объединяются в 4 раза от размера пикселя от 3,3 до 13,2 ang/pix. Образцы, использованные в репрезентативных результатах, были получены от компании (см. Таблицу материалов), которая следует рекомендациям по уходу за животными, которые соответствуют этическим стандартам этого учреждения. Томограмма, используемая в этом протоколе, и мульти-ROI, которая была сгенерирована в качестве обучающих входных данных, были включены в виде объединенного набора данных в дополнительный файл 1 (который можно найти по адресу https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct), чтобы пользователь мог следить за теми же данными, если захочет. Dragonfly также имеет базу данных открытого доступа под названием Infinite Toolbox, где пользователи могут совместно использовать обученные сети.
1. Настройка
2. Импорт изображений
3. Предварительная обработка (рис. 1.1)
4. Создание обучающих данных (рис. 1.2)
5. Использование мастера сегментации для итеративного обучения (рис. 1.3)
6. Примените сеть (рис. 1.4)
7. Манипуляции с сегментацией и очистка
8. Генерация координат для усреднения субтомограммы от ROI
9. Трансформация водораздела
Рисунок 1: Рабочий процесс. 1) Предварительно обработайте тренировочную томограмму, откалибровав шкалу интенсивности и отфильтровав набор данных. 2) Создайте обучающие данные, вручную сегментировав небольшую часть томограммы со всеми соответствующими метками, которые пользователь хочет идентифицировать. 3) Используя отфильтрованную томограмму в качестве входных данных и сегментацию рук в качестве обучающего выхода, пятислойная многосрезовая U-Net обучается в мастере сегментации. 4) Обученная сеть может быть применена к полной томограмме, чтобы аннотировать ее, и 3D-рендеринг может быть сгенерирован из каждого сегментированного класса. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.
В соответствии с протоколом пятисрезовая U-Net была обучена на одной томограмме (рис. 2A) для идентификации пяти классов: мембрана, микротрубочки, актин, фидуциальные маркеры и фон. Сеть была итеративно обучена в общей сложности три раза, а затем применена к томограмме, чтобы полностью сегментировать и аннотировать ее (рис. 2B, C). Минимальная очистка была выполнена с помощью шагов 7.1 и 7.2. Следующие три томограммы, представляющие интерес (рис. 2D, G, J), были загружены в программное обеспечение для предварительной обработки. Перед импортом изображения одна из томограмм (рис. 2J) требовала корректировки размера пикселя с 17,22 Å/px до 13,3 Å/px, поскольку она была собрана на другом микроскопе с немного другим увеличением. Программа IMOD squeezevol использовалась для изменения размера с помощью следующей команды:
'squeezevol -f 0.772 inputfile.mrc outputfile.mrc'
В этой команде -f относится к коэффициенту, с помощью которого изменяется размер пикселя (в данном случае: 13,3/17,22). После импорта все три цели вывода были предварительно обработаны в соответствии с шагами 3.2 и 3.3, а затем была применена пятисрезовая U-Net. Снова была проведена минимальная очистка. Окончательные сегментации показаны на рисунке 2.
Сегментации микротрубочек из каждой томограммы экспортировались в виде двоичных (шаг 7.4) файлов TIF, преобразовывались в MRC (программа IMOD tif2mrc ), а затем использовались для корреляции цилиндров и трассировки нитей. Двоичная сегментация филаментов приводит к гораздо более надежной трассировке филаментов, чем трассировка по томограммам. Координатные карты, полученные на основе трассировки нитей (рис. 3), будут использоваться для дальнейшего анализа, такого как измерения ближайших соседей (упаковка нити) и усреднение спиральной субтомограммы вдоль отдельных нитей для определения ориентации микротрубочек.
Неудачные или недостаточно обученные сети легко определить. Неисправная сеть вообще не сможет сегментировать какие-либо структуры, в то время как недостаточно обученная сеть обычно правильно сегментирует некоторые структуры и имеет значительное количество ложноположительных и ложноотрицательных результатов. Эти сети могут быть исправлены и итеративно обучены для повышения их производительности. Мастер сегментации автоматически вычисляет коэффициент подобия Dice модели (называемый оценкой в SegWiz) после ее обучения. Эта статистика дает оценку сходства между данными обучения и сегментацией U-Net. Dragonfly 2022.1 также имеет встроенный инструмент для оценки производительности модели, доступ к которому можно получить на вкладке « Искусственный интеллект » в верхней части интерфейса (см. документацию по использованию).
Рисунок 2: Вывод. (A-C) Оригинальная тренировочная томограмма нейрона гиппокампа крысы DIV 5, собранная в 2019 году на Titan Krios. Это реконструкция, спроецированная назад с коррекцией CTF в IMOD. (A) Желтая рамка представляет область, в которой была выполнена сегментация рук для обучающих входных данных. (B) 2D-сегментация из U-Net после завершения обучения. (C) 3D-рендеринг сегментированных областей, показывающих мембрану (синий), микротрубочки (зеленый) и актин (красный). (Д-Ж) DIV 5 нейрон гиппокампа крысы из того же сеанса, что и тренировочная томограмма. (E) 2D-сегментация из U-Net без дополнительной подготовки и быстрой очистки. Мембрана (синяя), микротрубочки (зеленая), актин (красная), фидуциальные (розовая). (F) 3D-рендеринг сегментированных областей. (Г-И) DIV 5 нейрон гиппокампа крысы с сессии 2019 года. (H) 2D-сегментация из U-Net с быстрой очисткой и (I) 3D-рендерингом. (Ж-Л) Нейрон гиппокампа крысы DIV 5, собранный в 2021 году на другом Titan Krios с другим увеличением. Размер пикселя был изменен с помощью программы IMOD squeezevol в соответствии с тренировочной томограммой. (K) 2D-сегментация из U-Net с быстрой очисткой, демонстрирующая надежный вывод по наборам данных с надлежащей предварительной обработкой и (L) 3D-рендерингом сегментации. Масштабные линейки = 100 нм. Сокращения: DIV = дни in vitro; CTF = функция переноса контраста. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.
Рисунок 3: Улучшение трассировки нити . (A) Томограмма нейронов гиппокампа крысы DIV 4, собранных на Titan Krios. (B) Корреляционная карта, полученная на основе корреляции цилиндров над актиновыми филаментами. (C) Нитевое отслеживание актина с использованием интенсивности актиновых филаментов в корреляционной карте для определения параметров. Трассировка захватывает мембрану и микротрубочки, а также шум, пытаясь отследить только актин. (D) U-нет-сегментация томограммы. Мембрана выделена синим цветом, микротрубочки - красным, рибосомы - оранжевым, triC - фиолетовым, актин - зеленым. (E) Сегментация актина, извлеченная в виде бинарной маски для трассировки филаментов. (F) Корреляционная карта, полученная на основе корреляции цилиндра с теми же параметрами, что и (B). (G) Значительно улучшено отслеживание филаментов только актиновых филаментов по томограмме. Аббревиатура: DIV = дни in vitro. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.
Дополнительный файл 1: Томограмма, используемая в этом протоколе, и мульти-ROI, который был сгенерирован в качестве входных данных для обучения, включены в виде связанного набора данных (Training.ORSObject). См. https://datadryad.org/stash/dataset/doi:10.5061/dryad.rxwdbrvct.
В этом протоколе изложена процедура использования программного обеспечения Dragonfly 2022.1 для обучения многоклассовой U-Net по одной томограмме и как вывести эту сеть из других томограмм, которые не обязательно должны быть из того же набора данных. Обучение происходит относительно быстро (может длиться от 3 до 5 минут за эпоху или от нескольких часов, в зависимости от обучаемой сети и используемого оборудования), а переобучение сети для улучшения ее обучения интуитивно понятно. До тех пор, пока этапы предварительной обработки выполняются для каждой томограммы, вывод, как правило, является надежным.
Согласованная предварительная обработка является наиболее важным шагом для вывода глубокого обучения. В программном обеспечении есть много фильтров изображений, и пользователь может экспериментировать, чтобы определить, какие фильтры лучше всего подходят для определенных наборов данных; Обратите внимание, что любая фильтрация, используемая на обучающей томограмме, должна применяться таким же образом к томограммам вывода. Необходимо также позаботиться о том, чтобы предоставить сети точную и достаточную информацию об обучении. Очень важно, чтобы все функции, сегментированные в тренировочных срезах, были сегментированы как можно тщательнее и точнее.
Сегментация изображений облегчается сложным пользовательским интерфейсом коммерческого уровня. Он предоставляет все необходимые инструменты для сегментации рук и позволяет легко переназначать воксели из любого класса в другой перед обучением и переподготовкой. Пользователю разрешается вручную сегментировать воксели в рамках всего контекста томограммы, и им предоставляется несколько представлений и возможность свободно вращать громкость. Кроме того, программное обеспечение предоставляет возможность использовать многоклассовые сети, которые, как правило, работают лучше16 и быстрее, чем сегментация с несколькими одноклассовыми сетями.
Конечно, существуют ограничения возможностей нейронной сети. Данные Cryo-ET по своей природе очень зашумлены и ограничены в угловой выборке, что приводит к искажениям, специфичным для ориентации, в идентичных объектах21. Обучение опирается на эксперта, который точно сегментирует структуры, и успешная сеть хороша настолько, насколько хороши (или плохи) данные обучения, которые ей предоставляются. Фильтрация изображений для усиления сигнала полезна для тренера, но есть еще много случаев, когда точная идентификация всех пикселей данной структуры затруднена. Поэтому важно, чтобы при создании сегментации обучения уделялось большое внимание, чтобы сеть имела наилучшую информацию, возможную для изучения во время обучения.
Этот рабочий процесс можно легко изменить в соответствии с предпочтениями каждого пользователя. Хотя важно, чтобы все томограммы были предварительно обработаны точно таким же образом, нет необходимости использовать точные фильтры, используемые в протоколе. Программное обеспечение имеет множество опций фильтрации изображений, и рекомендуется оптимизировать их для конкретных данных пользователя, прежде чем приступать к большому проекту сегментации, охватывающему множество томограмм. Существует также довольно много сетевых архитектур, доступных для использования: было обнаружено, что многосрезовая U-Net лучше всего подходит для данных из этой лаборатории, но другой пользователь может обнаружить, что другая архитектура (например, 3D U-Net или Sensor 3D) работает лучше. Мастер сегментации предоставляет удобный интерфейс для сравнения производительности нескольких сетей с использованием одних и тех же обучающих данных.
Инструменты, подобные представленным здесь, сделают ручную сегментацию полных томограмм задачей прошлого. С помощью хорошо обученных нейронных сетей, которые надежно выводимы, вполне возможно создать рабочий процесс, в котором томографические данные реконструируются, обрабатываются и полностью сегментируются так быстро, как микроскоп может их собрать.
Лицензия открытого доступа для этого протокола была оплачена компанией Object Research Systems.
Это исследование было поддержано Медицинским колледжем штата Пенсильвания и Департаментом биохимии и молекулярной биологии, а также грантом Фонда урегулирования табака (TSF) 4100079742-EXT. Услуги и инструменты CryoEM и CryoET Core (RRID:SCR_021178), используемые в этом проекте, частично финансировались Медицинским колледжем Университета штата Пенсильвания через Управление заместителя декана по исследованиям и аспирантам и Департамент здравоохранения Пенсильвании с использованием фондов урегулирования табака (CURE). Содержание является исключительной ответственностью авторов и не обязательно отражает официальную точку зрения Университета или Медицинского колледжа. Департамент здравоохранения Пенсильвании специально снимает с себя ответственность за любые анализы, интерпретации или выводы.
Name | Company | Catalog Number | Comments |
Dragonfly 2022.1 | Object Research Systems | https://www.theobjects.com/dragonfly/index.html | |
E18 Rat Dissociated Hippocampus | Transnetyx Tissue | KTSDEDHP | https://tissue.transnetyx.com/faqs |
IMOD | University of Colorado | https://bio3d.colorado.edu/imod/ | |
Intel® Xeon® Gold 6124 CPU 3.2GHz | Intel | https://www.intel.com/content/www/us/en/products/sku/120493/intel-xeon-gold-6134-processor-24-75m-cache-3-20-ghz/specifications.html | |
NVIDIA Quadro P4000 | NVIDIA | https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/productspage/quadro/quadro-desktop/quadro-pascal-p4000-data-sheet-a4-nvidia-704358-r2-web.pdf | |
Windows 10 Enterprise 2016 | Microsoft | https://www.microsoft.com/en-us/evalcenter/evaluate-windows-10-enterprise | |
Workstation Minimum Requirements | https://theobjects.com/dragonfly/system-requirements.html |
Запросить разрешение на использование текста или рисунков этого JoVE статьи
Запросить разрешениеThis article has been published
Video Coming Soon
Авторские права © 2025 MyJoVE Corporation. Все права защищены