JoVE Logo

Sign In

A subscription to JoVE is required to view this content. Sign in or start your free trial.

In This Article

  • Summary
  • Abstract
  • Introduction
  • Protocol
  • النتائج
  • Discussion
  • Disclosures
  • Acknowledgements
  • Materials
  • References
  • Reprints and Permissions

Summary

هنا ، يقترح نموذج جديد للكشف عن عقيدات الغدة الدرقية في صور الموجات فوق الصوتية ، والذي يستخدم Swin Transformer كعمود فقري لإجراء نمذجة السياق طويلة المدى. تثبت التجارب أنه يعمل بشكل جيد من حيث الحساسية والدقة.

Abstract

في السنوات الأخيرة ، تزايد معدل الإصابة بسرطان الغدة الدرقية. يعد اكتشاف عقيدات الغدة الدرقية أمرا بالغ الأهمية للكشف عن سرطان الغدة الدرقية وعلاجه. حققت الشبكات العصبية التلافيفية (CNNs) نتائج جيدة في مهام تحليل صور الموجات فوق الصوتية للغدة الدرقية. ومع ذلك ، نظرا لمحدودية مجال الاستقبال الصحيح للطبقات التلافيفية ، تفشل شبكات CNN في التقاط التبعيات السياقية طويلة المدى ، والتي تعتبر مهمة لتحديد عقيدات الغدة الدرقية في صور الموجات فوق الصوتية. شبكات المحولات فعالة في التقاط المعلومات السياقية طويلة المدى. مستوحاة من هذا ، نقترح طريقة جديدة للكشف عن عقيدات الغدة الدرقية تجمع بين العمود الفقري لمحول سوين و Faster R-CNN. على وجه التحديد ، يتم عرض صورة الموجات فوق الصوتية أولا في تسلسل 1D من عمليات التضمين ، والتي يتم إدخالها بعد ذلك في محول سوين الهرمي.

يتميز العمود الفقري لمحول Swin بخمسة مقاييس مختلفة من خلال استخدام النوافذ المتغيرة لحساب الانتباه الذاتي. بعد ذلك ، يتم استخدام شبكة هرمية للمعالم (FPN) لدمج الميزات من مقاييس مختلفة. أخيرا ، يتم استخدام رأس الكشف للتنبؤ بالمربعات المحيطة ودرجات الثقة المقابلة. تم استخدام البيانات التي تم جمعها من 2,680 مريضا لإجراء التجارب ، وأظهرت النتائج أن هذه الطريقة حققت أفضل درجة mAP بنسبة 44.8٪ ، متفوقة على خطوط الأساس المستندة إلى CNN. بالإضافة إلى ذلك ، اكتسبنا حساسية أفضل (90.5٪) من المنافسين. يشير هذا إلى أن نمذجة السياق في هذا النموذج فعالة للكشف عن عقيدات الغدة الدرقية.

Introduction

ازداد معدل الإصابة بسرطان الغدة الدرقية بسرعة منذ عام 1970 ، خاصة بين النساء في منتصف العمر1. قد تتنبأ عقيدات الغدة الدرقية بظهور سرطان الغدة الدرقية ، ومعظم عقيدات الغدة الدرقية بدون أعراض2. الكشف المبكر عن عقيدات الغدة الدرقية مفيد جدا في علاج سرطان الغدة الدرقية. لذلك ، وفقا لإرشادات الممارسة الحالية ، يجب أن يخضع جميع المرضى الذين يعانون من تضخم الغدة الدرقية العقدي المشتبه به في الفحص البدني أو الذين لديهم نتائج تصوير غير طبيعية لمزيد من الفحص 3,4.

الموجات فوق الصوتية للغدة الدرقية (الولايات المتحدة) هي طريقة شائعة تستخدم للكشف عن آفات الغدة الدرقية وتوصيفها 5,6. الولايات المتحدة هي تقنية مريحة وغير مكلفة وخالية من الإشعاع. ومع ذلك ، فإن تطبيق الولايات المتحدة يتأثر بسهولة بالمشغل 7,8. يمكن تمييز ميزات مثل الشكل والحجم والصدى والملمس للعقيدات الدرقية بسهولة على الصور الأمريكية. على الرغم من أن بعض السمات الأمريكية - التكلسات ، والصدى ، والحدود غير المنتظمة - غالبا ما تعتبر معايير لتحديد عقيدات الغدة الدرقية ، إلا أن وجود تباين بين المراقبين أمر لا مفر منه 8,9. تختلف نتائج تشخيص أخصائيي الأشعة بمستويات مختلفة من الخبرة. من المرجح أن يخطئ أخصائيو الأشعة عديمي الخبرة في التشخيص أكثر من أخصائيي الأشعة ذوي الخبرة. يمكن أن تؤدي بعض خصائص الولايات المتحدة مثل الانعكاسات والظلال والأصداء إلى تدهور جودة الصورة. هذا التدهور في جودة الصورة الناجم عن طبيعة التصوير الأمريكي يجعل من الصعب حتى على الأطباء ذوي الخبرة تحديد موقع العقيدات بدقة.

تطور التشخيص بمساعدة الكمبيوتر (CAD) لعقيدات الغدة الدرقية بسرعة في السنوات الأخيرة ويمكن أن يقلل بشكل فعال من الأخطاء التي يسببها الأطباء المختلفون ويساعد أخصائيي الأشعة على تشخيص العقيدات بسرعة ودقة10,11. تم اقتراح العديد من أنظمة CAD المستندة إلى CNN لتحليل عقيدات الغدة الدرقية الأمريكية ، بما في ذلك التجزئة12،13 ، والكشف 14،15 ، والتصنيف16،17. CNN هو نموذج تعليمي متعدد الطبقات وخاضع للإشراف18 ، والوحدات الأساسية ل CNN هي طبقات الالتفاف والتجميع. يتم استخدام طبقات الالتفاف لاستخراج المعالم ، ويتم استخدام طبقات التجميع لاختزال العينات. يمكن لطبقات الظل التلافيفية استخراج الميزات الأساسية مثل النسيج والحواف والخطوط ، بينما تتعلم الطبقات التلافيفية العميقة ميزات دلالية عالية المستوى.

حققت CNNs نجاحا كبيرا في رؤية الكمبيوتر19،20،21. ومع ذلك ، تفشل شبكات CNN في التقاط التبعيات السياقية طويلة المدى بسبب المجال المستقبلي الصالح المحدود للطبقات التلافيفية. في الماضي ، كانت البنى الأساسية لتصنيف الصور تستخدم في الغالب شبكات CNN. مع ظهور Vision Transformer (ViT)22,23 ، تغير هذا الاتجاه ، والآن تستخدم العديد من النماذج الحديثة المحولات كعمود فقري. استنادا إلى تصحيحات الصور غير المتداخلة ، يستخدم ViT مشفر محول قياسي25 لنمذجة العلاقات المكانية عالميا. يقدم Swin Transformer24 أيضا نوافذ التحول لتعلم الميزات. لا توفر نوافذ التحول كفاءة أكبر فحسب ، بل تقلل أيضا بشكل كبير من طول التسلسل لأن الاهتمام الذاتي يتم حسابه في النافذة. في الوقت نفسه ، يمكن إجراء التفاعل بين نافذتين متجاورتين من خلال تشغيل التحول (الحركة). أدى التطبيق الناجح لمحول سوين في رؤية الكمبيوتر إلى التحقيق في البنى القائمة على المحولات لتحليل صور الموجات فوق الصوتية26.

في الآونة الأخيرة ، اقترح Li et al. نهج التعلم العميق28 للكشف عن سرطان الغدة الدرقية الحليمي المستوحى من Faster R-CNN27. أسرع R-CNN هي بنية كلاسيكية للكشف عن الكائنات تستند إلى CNN. يحتوي Faster R-CNN الأصلي على أربع وحدات - العمود الفقري ل CNN ، وشبكة اقتراح المنطقة (RPN) ، وطبقة تجميع عائد الاستثمار ، ورأس الكشف. يستخدم العمود الفقري ل CNN مجموعة من طبقات conv + bn + relu + التجميع الأساسية لاستخراج خرائط المعالم من صورة الإدخال. بعد ذلك ، يتم إدخال خرائط المعالم في RPN وطبقة تجميع عائد الاستثمار. ويتمثل دور شبكة RPN في وضع مقترحات إقليمية. تستخدم هذه الوحدة softmax لتحديد ما إذا كانت نقاط الارتساء موجبة وتولد نقاط ارتساء دقيقة عن طريق انحدار المربع المحيط. تستخرج طبقة تجميع عائد الاستثمار خرائط معالم الاقتراح من خلال جمع خرائط معالم الإدخال والمقترحات وتغذي خرائط معالم الاقتراح في رأس الكشف التالي. يستخدم رأس الكشف خرائط معالم الاقتراح لتصنيف الكائنات والحصول على مواضع دقيقة لمربعات الكشف عن طريق انحدار المربع المحيط.

تقدم هذه الورقة شبكة جديدة للكشف عن عقيدات الغدة الدرقية تسمى Swin Faster R-CNN تم تشكيلها عن طريق استبدال العمود الفقري ل CNN في Faster R-CNN بمحول Swin ، مما يؤدي إلى استخراج أفضل لميزات اكتشاف العقيدات من صور الموجات فوق الصوتية. وبالإضافة إلى ذلك، تستخدم الشبكة الهرمية للمعالم (FPN)29 لتحسين أداء الكشف عن نموذج العقيدات ذات الأحجام المختلفة عن طريق تجميع السمات ذات المقاييس المختلفة.

Access restricted. Please log in or start a trial to view this content.

Protocol

تمت الموافقة على هذه الدراسة بأثر رجعي من قبل مجلس المراجعة المؤسسية لمستشفى غرب الصين ، جامعة سيتشوان ، سيتشوان ، الصين ، وتم التنازل عن شرط الحصول على الموافقة المستنيرة.

1. إعداد البيئة

  1. برنامج وحدة معالجة الرسومات (GPU)
    1. لتنفيذ تطبيقات التعلم العميق ، قم أولا بتكوين البيئة المتعلقة بوحدة معالجة الرسومات. قم بتنزيل وتثبيت البرامج وبرامج التشغيل المناسبة لوحدة معالجة الرسومات من موقع GPU على الويب.
      ملاحظة: انظر جدول المواد لتلك المستخدمة في هذه الدراسة.
  2. تثبيت بايثون 3.8
    1. افتح محطة طرفية على الجهاز. اكتب ما يلي:
      سطر الأوامر: sudo apt-get install python3.8 python-dev python-virtualenv
  3. تركيب الشعلة 1.7
    1. اتبع الخطوات الموجودة على الموقع الرسمي لتنزيل Miniconda وتثبيته.
    2. إنشاء بيئة كوندا وتنشيطها.
      سطر الأوامر: كوندا إنشاء --name SwinFastRCNN python = 3.8 -y
      سطر الأوامر: كوندا تنشيط SwinFastRCNN
    3. تثبيت Pytorch.
      سطر الأوامر: كوندا تثبيت pytorch == 1.7.1 torchvision == 0.8.2 torchaudio == 0.7.2
  4. تركيب MMDetection
    1. استنساخ من مستودع جيثب الرسمي.
      سطر الأوامر: استنساخ بوابة https://github.com/open-mmlab/mmdetection.git
    2. تثبيت MMDetection.
      سطر الأوامر: مؤتمر نزع السلاح mmdetection
      سطر الأوامر: نقطة تثبيت -v -e .

2. إعداد البيانات

  1. جمع البيانات
    1. جمع صور الموجات فوق الصوتية (هنا ، 3000 حالة من مستشفى من الدرجة الأولى). تأكد من أن كل حالة لديها سجلات تشخيصية وخطط علاج وتقارير أمريكية وصور أمريكية مقابلة.
    2. ضع جميع الصور الأمريكية في مجلد باسم "الصور".
      ملاحظة: تضمنت البيانات المستخدمة في هذه الدراسة 3,853 صورة أمريكية من 3,000 حالة.
  2. تنظيف البيانات
    1. تحقق يدويا من مجموعة البيانات بحثا عن صور للمناطق غير الدرقية، مثل الصور اللمفاوية.
    2. تحقق يدويا من مجموعة البيانات بحثا عن الصور التي تحتوي على تدفق دوبلر ملون.
    3. احذف الصور المحددة في الخطوتين السابقتين.
      ملاحظة: بعد تنظيف البيانات ، تم ترك 3000 صورة من 2680 حالة.
  3. التعليق التوضيحي للبيانات
    1. اطلب من أحد كبار الأطباء تحديد موقع منطقة العقيدات في صورة الولايات المتحدة وتحديد حدود العقيدات.
      ملاحظة: يمكن العثور على برنامج التعليقات التوضيحية والعملية في الملف التكميلي 1.
    2. اطلب من طبيب كبير آخر مراجعة نتائج التعليقات التوضيحية ومراجعتها.
    3. ضع البيانات المشروحة في مجلد منفصل يسمى "التعليقات التوضيحية".
  4. تقسيم البيانات
    1. قم بتشغيل البرنامج النصي python ، وقم بتعيين مسار الصورة في الخطوة 2.1.2 ومسارات التعليقات التوضيحية في الخطوة 2.3.3. قسم جميع الصور والملفات المسماة المقابلة بشكل عشوائي إلى مجموعات تدريب وتحقق بنسبة 8: 2. احفظ بيانات مجموعة التدريب في مجلد "التدريب" وبيانات مجموعة التحقق من الصحة في مجلد "Val".
      ملاحظة: يتم توفير البرامج النصية Python في الملف التكميلي 2.
  5. التحويل إلى تنسيق مجموعة بيانات CoCo
    ملاحظة: لاستخدام MMDetection، قم بمعالجة البيانات في تنسيق مجموعة بيانات CoCo، والذي يتضمن ملف json الذي يحتوي على معلومات التعليق التوضيحي ومجلد صور يحتوي على الصور الأمريكية.
    1. قم بتشغيل البرنامج النصي python ، وأدخل مسارات مجلد التعليقات التوضيحية (الخطوة 2.3.3) لاستخراج مناطق العقيدات التي حددها الطبيب وتحويلها إلى أقنعة. احفظ جميع الأقنعة في مجلد "الأقنعة".
      ملاحظة: يتم توفير البرامج النصية Python في الملف التكميلي 3.
    2. قم بتشغيل البرنامج النصي python ، وقم بتعيين مسار مجلد الأقنعة في الخطوة 2.5.1 لتحويل البيانات إلى مجموعة بيانات بتنسيق CoCo وإنشاء ملف json مع الصور الأمريكية.
      ملاحظة: يتم توفير البرامج النصية Python في الملف التكميلي 4.

3. سوين أسرع تكوين RCNN

  1. قم بتنزيل ملف نموذج Swin Transformer (https://github.com/microsoft/Swin-Transformer/blob/main/models/swin_transformer.py) ، وقم بتعديله ، وضعه في مجلد "mmdetection / mmdet / models / العمود الفقري /". افتح ملف "swin_transformer.py" في محرر نصوص vim ، وقم بتعديله كملف نموذج Swin Transformer المتوفر في الملف التكميلي 5.
    سطر الأوامر: vim swin_transformer.py
  2. قم بعمل نسخة من ملف تكوين R-CNN الأسرع ، وقم بتغيير العمود الفقري إلى Swin Transformer ، وقم بإعداد معلمات FPN.
    سطر الأوامر: cd mmdetection / configs / faster_rcnn
    سطر الأوامر: cp faster_rcnn_r50_fpn_1x_coco.py swin_faster_rcnn_swin.py
    ملاحظة: يتم توفير ملف تكوين Swin Faster R-CNN (swin_faster_rcnn_swin.py) في الملف التكميلي 6. يظهر هيكل شبكة Swin Faster R-CNN في الشكل 1.
  3. قم بتعيين مسار مجموعة البيانات إلى مسار مجموعة بيانات تنسيق CoCo (الخطوة 2.5.2) في ملف التكوين. افتح ملف "coco_detection.py" في محرر نصوص vim ، وقم بتعديل السطر التالي:
    data_root = "مسار مجموعة البيانات (الخطوة 2.5.2)"
    سطر الأوامر: vim mmdetection / configs / _base_ / datasets / coco_detection.py

4. تدريب سوين أسرع R-CNN

  1. قم بتحرير mmdetection/configs/_base_/schedules/schedule_1x.py، وقم بتعيين المعلمات الافتراضية المتعلقة بالتدريب، بما في ذلك معدل التعلم والمحسن والعصر. افتح ملف "schedule_1x.py" في محرر نصوص vim ، وقم بتعديل الأسطر التالية:
    محسن = dict (النوع = "AdamW" ، lr = 0.001 ، الزخم = 0.9 ، weight_decay = 0.0001)
    عداء = dict (النوع = 'EpochBasedRunner' ، max_epochs = 48)
    سطر الأوامر: vim mmdetection / configs / _base_ / schedules / schedule_1x.py
    ملاحظة: في هذا البروتوكول لهذه الورقة ، تم تعيين معدل التعلم على 0.001 ، وتم استخدام محسن AdamW ، وتم تعيين الحد الأقصى لحقبة التدريب على 48 ، وتم تعيين حجم الدفعة على 16.
  2. ابدأ التدريب بكتابة الأوامر التالية. انتظر حتى تبدأ الشبكة في التدريب لمدة 48 حقبة وحتى يتم إنشاء الأوزان المدربة الناتجة لشبكة Swin Faster R-CNN في مجلد الإخراج. احفظ أوزان النموذج بأعلى دقة في مجموعة التحقق من الصحة.
    سطر الأوامر: مؤتمر نزع السلاح mmdetection
    سطر الأوامر: أدوات بيثون / قطار .py congfigs / faster_rcnn / swin_faster_rcnn_swin.py --work-dir ./work_dirs
    ملاحظة: تم تدريب النموذج على وحدة معالجة الرسومات "NVIDIA GeForce RTX3090 24G". كانت وحدة المعالجة المركزية المستخدمة هي "معالج AMD Epyc 7742 64-core × 128" ، وكان نظام التشغيل Ubuntu 18.06. كان وقت التدريب الإجمالي ~ 2 ساعة.

5. إجراء الكشف عن عقيدات الغدة الدرقية على صور جديدة

  1. بعد التدريب ، حدد النموذج الذي يتمتع بأفضل أداء في مجموعة التحقق من الصحة للكشف عن عقيدات الغدة الدرقية في الصور الجديدة.
    1. أولا ، قم بتغيير حجم الصورة إلى 512 بكسل × 512 بكسل ، وقم بتطبيعها. يتم تنفيذ هذه العمليات تلقائيا عند تشغيل البرنامج النصي للاختبار.
      سطر الأوامر: أدوات بيثون / اختبار .py congfigs / faster_rcnn / swin_faster_rcnn_swin.py - خارج ./الإخراج
    2. انتظر حتى يقوم البرنامج النصي بتحميل معلمات النموذج المدرب مسبقا تلقائيا إلى Swin Faster R-CNN ، وقم بتغذية الصورة المعالجة مسبقا في Swin Faster R-CNN للاستدلال. انتظر حتى يقوم Swin Faster R-CNN بإخراج مربع التنبؤ لكل صورة.
    3. أخيرا ، اسمح للبرنامج النصي بإجراء معالجة NMS اللاحقة تلقائيا على كل صورة لإزالة مربعات الكشف المكررة.
      ملاحظة: يتم إخراج نتائج الكشف إلى المجلد المحدد ، والذي يحتوي على الصور مع مربعات الكشف وإحداثيات المربع المحيط في ملف معبأ.

Access restricted. Please log in or start a trial to view this content.

النتائج

تم جمع صور الغدة الدرقية الأمريكية من مستشفيين في الصين من سبتمبر 2008 إلى فبراير 2018. كانت معايير الأهلية لتضمين الصور الأمريكية في هذه الدراسة هي الفحص الأمريكي التقليدي قبل الخزعة والعلاج الجراحي ، والتشخيص بالخزعة أو علم الأمراض بعد الجراحة ، والعمر ≥ 18 عاما. كانت معايير الاستبعاد هي ال?...

Access restricted. Please log in or start a trial to view this content.

Discussion

تصف هذه الورقة بالتفصيل كيفية إجراء إعداد البيئة وإعداد البيانات وتكوين النموذج والتدريب على الشبكة. في مرحلة إعداد البيئة ، يحتاج المرء إلى الانتباه للتأكد من أن المكتبات التابعة متوافقة ومتطابقة. معالجة البيانات هي خطوة مهمة للغاية. يجب بذل الوقت والجهد لضمان دقة التعليقات التوضيحية. ?...

Access restricted. Please log in or start a trial to view this content.

Disclosures

يعلن أصحاب البلاغ عدم وجود تضارب في المصالح.

Acknowledgements

تم دعم هذه الدراسة من قبل المؤسسة الوطنية للعلوم الطبيعية في الصين (المنحة رقم 32101188) والمشروع العام لإدارة العلوم والتكنولوجيا في مقاطعة سيتشوان (المنحة رقم 2021YFS0102) ، الصين.

Access restricted. Please log in or start a trial to view this content.

Materials

NameCompanyCatalog NumberComments
GPU RTX3090Nvidia124G GPU
mmdetection2.11.0SenseTime4https://github.com/open-mmlab/mmdetection.git
python3.82https://www.python.org
pytorch1.7.1Facebook3https://pytorch.org

References

  1. Grant, E. G., et al. Thyroid ultrasound reporting lexicon: White paper of the ACR Thyroid Imaging, Reporting and Data System (TIRADS) committee. Journal of the American College of Radiology. 12 (12 Pt A), 1272-1279 (2015).
  2. Zhao, J., Zheng, W., Zhang, L., Tian, H. Segmentation of ultrasound images of thyroid nodule for assisting fine needle aspiration cytology. Health Information Science and Systems. 1, 5(2013).
  3. Haugen, B. R. American Thyroid Association management guidelines for adult patients with thyroid nodules and differentiated thyroid cancer: What is new and what has changed. Cancer. 123 (3), 372-381 (2017).
  4. Shin, J. H., et al. Ultrasonography diagnosis and imaging-based management of thyroid nodules: Revised Korean Society of Thyroid Radiology consensus statement and recommendations. Korean Journal of Radiology. 17 (3), 370-395 (2016).
  5. Horvath, E., et al. An ultrasonogram reporting system for thyroid nodules stratifying cancer risk for clinical management. The Journal of Clinical Endocrinology & Metabolism. 94 (5), 1748-1751 (2009).
  6. Park, J. -Y., et al. A proposal for a thyroid imaging reporting and data system for ultrasound features of thyroid carcinoma. Thyroid. 19 (11), 1257-1264 (2009).
  7. Moon, W. -J., et al. Benign and malignant thyroid nodules: US differentiation-Multicenter retrospective study. Radiology. 247 (3), 762-770 (2008).
  8. Park, C. S., et al. Observer variability in the sonographic evaluation of thyroid nodules. Journal of Clinical Ultrasound. 38 (6), 287-293 (2010).
  9. Kim, S. H., et al. Observer variability and the performance between faculties and residents: US criteria for benign and malignant thyroid nodules. Korean Journal of Radiology. 11 (2), 149-155 (2010).
  10. Choi, Y. J., et al. A computer-aided diagnosis system using artificial intelligence for the diagnosis and characterization of thyroid nodules on ultrasound: initial clinical assessment. Thyroid. 27 (4), 546-552 (2017).
  11. Chang, T. -C. The role of computer-aided detection and diagnosis system in the differential diagnosis of thyroid lesions in ultrasonography. Journal of Medical Ultrasound. 23 (4), 177-184 (2015).
  12. Fully convolutional networks for ultrasound image segmentation of thyroid nodules. Li, X. IEEE 20th International Conference on High Performance Computing and Communications; IEEE 16th International Conference on Smart City; IEEE 4th International Conference on Data Science and Systems (HPCC/SmartCity/DSS), , 886-890 (2018).
  13. Nguyen, D. T., Choi, J., Park, K. R. Thyroid nodule segmentation in ultrasound image based on information fusion of suggestion and enhancement networks. Mathematics. 10 (19), 3484(2022).
  14. Ma, J., Wu, F., Jiang, T. A., Zhu, J., Kong, D. Cascade convolutional neural networks for automatic detection of thyroid nodules in ultrasound images. Medical Physics. 44 (5), 1678-1691 (2017).
  15. Song, W., et al. Multitask cascade convolution neural networks for automatic thyroid nodule detection and recognition. IEEE Journal of Biomedical and Health Informatics. 23 (3), 1215-1224 (2018).
  16. Learning from weakly-labeled clinical data for automatic thyroid nodule classification in ultrasound images. Wang, J., et al. 2018 25Th IEEE International Conference on Image Processing (ICIP), , IEEE. 3114-3118 (2018).
  17. Wang, L., et al. A multi-scale densely connected convolutional neural network for automated thyroid nodule classification. Frontiers in Neuroscience. 16, 878718(2022).
  18. Krizhevsky, A., Sutskever, I., Hinton, G. E. Imagenet classification with deep convolutional neural networks. Communications of the ACM. 60 (6), 84-90 (2017).
  19. He, K., Zhang, X., Ren, S., Sun, J. Deep residual learning for image recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 770-778 (2016).
  20. Hu, H., Gu, J., Zhang, Z., Dai, J., Wei, Y. Relation networks for object detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 3588-3597 (2018).
  21. Szegedy, C., et al. Going deeper with convolutions. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 1-9 (2015).
  22. Dosovitskiy, A., et al. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. , (2020).
  23. Touvron, H., et al. Training data-efficient image transformers & distillation through attention. arXiv:2012.12877. , (2021).
  24. Liu, Z., et al. Swin Transformer: Hierarchical vision transformer using shifted windows. 2021 IEEE/CVF International Conference on Computer Vision (ICCV). , 9992-10002 (2021).
  25. Vaswani, A., et al. Attention is all you need. Advances in Neural Information Processing Systems. 30, (2017).
  26. Chen, J., et al. TransUNet: Transformers make strong encoders for medical image segmentation. arXiv. arXiv:2102.04306. , (2021).
  27. Ren, S., He, K., Girshick, R., Sun, J. Faster r-cnn: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems. 28, 91-99 (2015).
  28. Li, H., et al. An improved deep learning approach for detection of thyroid papillary cancer in ultrasound images. Scientific Reports. 8, 6600(2018).
  29. Lin, T. -Y., et al. Feature pyramid networks for object detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 2117-2125 (2017).
  30. Ouahabi, A. A review of wavelet denoising in medical imaging. 2013 8th International Workshop on Systems, Signal Processing and their Applications. , 19-26 (2013).
  31. Mahdaoui, A. E., Ouahabi, A., Moulay, M. S. Image denoising using a compressive sensing approach based on regularization constraints. Sensors. 22 (6), 2199(2022).
  32. Castleman, K. R. Digital Image Processing. , Prentice Hall Press. Hoboken, NJ. (1996).
  33. Liu, W., et al. Ssd: Single shot multibox detector. European Conference on Computer Vision. , 21-37 (2016).
  34. Redmon, J., Farhadi, A. Yolov3: An incremental improvement. arXiv. arXiv:1804.02767. , (2018).
  35. Lin, T. -Y., Goyal, P., Girshick, R., He, K., Dollár, P. Focalloss for dense object detection. arXiv. arXiv:1708.02002. , (2017).
  36. Carion, N., et al. End-to-end object detection with transformers. Computer Vision-ECCV 2020: 16th European Conference. , Glasgow, UK. 23-28 (2020).

Access restricted. Please log in or start a trial to view this content.

Reprints and Permissions

Request permission to reuse the text or figures of this JoVE article

Request Permission

Explore More Articles

194

This article has been published

Video Coming Soon

JoVE Logo

Privacy

Terms of Use

Policies

Research

Education

ABOUT JoVE

Copyright © 2025 MyJoVE Corporation. All rights reserved