JoVE Logo

Oturum Aç

Bu içeriği görüntülemek için JoVE aboneliği gereklidir. Oturum açın veya ücretsiz deneme sürümünü başlatın.

Bu Makalede

  • Özet
  • Özet
  • Giriş
  • Protokol
  • Sonuçlar
  • Tartışmalar
  • Açıklamalar
  • Teşekkürler
  • Malzemeler
  • Referanslar
  • Yeniden Basımlar ve İzinler

Özet

Burada, ultrason görüntülerinde tiroid nodülü tespiti için, uzun menzilli bağlam modellemesi yapmak için omurga olarak Swin Transformer'ı kullanan yeni bir model önerilmektedir. Deneyler, hassasiyet ve doğruluk açısından iyi performans gösterdiğini kanıtlamaktadır.

Özet

Son yıllarda tiroid kanseri insidansı giderek artmaktadır. Tiroid nodülü tespiti, tiroid kanserinin hem tespiti hem de tedavisi için kritik öneme sahiptir. Konvolüsyonel sinir ağları (CNN'ler) tiroid ultrasonu görüntü analizi görevlerinde iyi sonuçlar elde etmiştir. Bununla birlikte, evrişimsel katmanların sınırlı geçerli alıcı alanı nedeniyle, CNN'ler ultrason görüntülerinde tiroid nodüllerini tanımlamak için önemli olan uzun menzilli bağlamsal bağımlılıkları yakalayamamaktadır. Transformatör ağları, uzun menzilli bağlamsal bilgilerin yakalanmasında etkilidir. Bundan esinlenerek, Swin Transformer omurgasını ve Faster R-CNN'yi birleştiren yeni bir tiroid nodülü tespit yöntemi öneriyoruz. Spesifik olarak, bir ultrason görüntüsü ilk önce 1D gömme dizisine yansıtılır ve daha sonra hiyerarşik bir Swin Transformatörüne beslenir.

Swin Transformer omurgası, kendi kendine dikkatin hesaplanması için kaydırılmış pencereler kullanarak beş farklı ölçekte özellikler çıkarır. Daha sonra, farklı ölçeklerdeki özellikleri birleştirmek için bir özellik piramit ağı (FPN) kullanılır. Son olarak, sınırlayıcı kutuları ve karşılık gelen güven puanlarını tahmin etmek için bir algılama kafası kullanılır. Deneyleri yürütmek için 2.680 hastadan toplanan veriler kullanıldı ve sonuçlar, bu yöntemin CNN tabanlı taban çizgilerinden daha iyi performans göstererek% 44.8'lik en iyi mAP skorunu elde ettiğini gösterdi. Ayrıca rakiplerimize göre daha iyi hassasiyet (%90,5) elde ettik. Bu, bu modeldeki bağlam modellemesinin tiroid nodülü tespiti için etkili olduğunu göstermektedir.

Giriş

Tiroid kanseri insidansı, özellikle orta yaşlı kadınlar arasında 1970 yılından bu yana hızla artmıştır1. Tiroid nodülleri tiroid kanserinin ortaya çıkışını öngörebilir ve çoğu tiroid nodülü asemptomatiktir2. Tiroid nodüllerinin erken teşhisi, tiroid kanserinin tedavisinde çok yardımcıdır. Bu nedenle, güncel uygulama kılavuzlarına göre, fizik muayenede nodüler guatr şüphesi olan veya anormal görüntüleme bulguları olan tüm hastalar daha ileri muayeneye tabi tutulmalıdır 3,4.

Tiroid ultrasonografisi (USG), tiroid lezyonlarını saptamak ve karakterize etmek için yaygın olarak kullanılan yaygın bir yöntemdir 5,6. ABD kullanışlı, ucuz ve radyasyonsuz bir teknolojidir. Bununla birlikte, ABD uygulamasıoperatör 7,8'den kolayca etkilenir. Tiroid nodüllerinin şekli, boyutu, ekojenitesi ve dokusu gibi özellikler US görüntülerinde kolayca ayırt edilebilir. Bazı ABD özellikleri - kalsifikasyonlar, ekojenite ve düzensiz sınırlar - genellikle tiroid nodüllerini tanımlamak için kriter olarak kabul edilse de, gözlemciler arası değişkenliğin varlığı kaçınılmazdır 8,9. Farklı deneyim düzeylerine sahip radyologların tanı sonuçları farklıdır. Deneyimsiz radyologların yanlış teşhis koyma olasılığı deneyimli radyologlardan daha yüksektir. ABD'nin yansımalar, gölgeler ve yankılar gibi bazı özellikleri görüntü kalitesini düşürebilir. US görüntülemenin doğasından kaynaklanan görüntü kalitesindeki bu bozulma, deneyimli doktorların bile nodülleri doğru bir şekilde bulmasını zorlaştırmaktadır.

Tiroid nodülleri için bilgisayar destekli tanı (KAH) son yıllarda hızla gelişmiştir ve farklı hekimlerin neden olduğu hataları etkili bir şekilde azaltabilir ve radyologların nodülleri hızlı ve doğru bir şekilde teşhis etmelerine yardımcı olabilir10,11. Tiroid US nodül analizi için segmentasyon 12,13, tespit14,15 ve sınıflandırma 16,17 dahil olmak üzere çeşitli CNN tabanlı CAD sistemleri önerilmiştir. CNN, çok katmanlı, denetimli bir öğrenme modeli18'dir ve CNN'nin çekirdek modülleri evrişim ve havuzlama katmanlarıdır. Evrişim katmanları özellik ayıklama için kullanılır ve havuzlama katmanları alt örnekleme için kullanılır. Gölge evrişimli katmanlar doku, kenarlar ve konturlar gibi birincil özellikleri ayıklayabilirken, derin evrişimli katmanlar üst düzey anlamsal özellikleri öğrenir.

CNN'ler bilgisayar görüşünde büyük başarı elde ettiler 19,20,21. Bununla birlikte, CNN'ler, evrişimsel katmanların sınırlı geçerli alıcı alanı nedeniyle uzun vadeli bağlamsal bağımlılıkları yakalayamamaktadır. Geçmişte, görüntü sınıflandırması için omurga mimarileri çoğunlukla CNN'leri kullanıyordu. Vision Transformer (ViT)22,23'ün ortaya çıkmasıyla bu eğilim değişti ve şimdi birçok son teknoloji ürünü model transformatörleri omurga olarak kullanıyor. Çakışmayan görüntü yamalarına dayanan ViT, uzamsal ilişkileri küresel olarak modellemek için standart bir transformatör kodlayıcı25 kullanır. Swin Transformer24, özellikleri öğrenmek için vites değiştirme pencerelerini de sunar. Vites değiştirme pencereleri sadece daha fazla verimlilik sağlamakla kalmaz, aynı zamanda dizinin uzunluğunu da büyük ölçüde azaltır, çünkü penceredeki öz dikkat hesaplanır. Aynı zamanda, iki bitişik pencere arasındaki etkileşim, kaydırma (hareket) işlemi ile yapılabilir. Swin Transformer'ın bilgisayarlı görmede başarılı bir şekilde uygulanması, ultrason görüntü analizi için transformatör tabanlı mimarilerin araştırılmasına yol açmıştır26.

Son zamanlarda, Li ve ark., Faster R-CNN27'den esinlenerek tiroid papiller kanser tespiti için derin bir öğrenme yaklaşımı28 önermişlerdir. Daha hızlı R-CNN, klasik bir CNN tabanlı nesne algılama mimarisidir. Orijinal Hızlı R-CNN'nin dört modülü vardır: CNN omurgası, bölge teklif ağı (RPN), ROI havuzlama katmanı ve algılama kafası. CNN omurgası, giriş görüntüsünden özellik haritalarını ayıklamak için bir dizi temel conv+bn+relu+pooling katmanı kullanır. Ardından, özellik eşlemeleri RPN ve ROI havuzlama katmanına beslenir. RPN ağının rolü, bölge önerileri oluşturmaktır. Bu modül, çapaların pozitif olup olmadığını belirlemek için softmax kullanır ve kutu regresyonunu sınırlayarak doğru ankrajlar oluşturur. YG havuzu oluşturma katmanı, girdi özellik haritalarını ve teklifleri toplayarak teklif özellik haritalarını ayıklar ve teklif özellik haritalarını sonraki algılama kafasına besler. Algılama kafası, nesneleri sınıflandırmak ve kutu regresyonunu sınırlayarak algılama kutularının doğru konumlarını elde etmek için teklif özellik eşlemelerini kullanır.

Bu yazıda, Faster R-CNN'deki CNN omurgasının Swin Transformer ile değiştirilmesiyle oluşturulan Swin Faster R-CNN adlı yeni bir tiroid nodülü tespit ağı sunulmakta ve bu da ultrason görüntülerinden nodül tespiti için özelliklerin daha iyi çıkarılmasını sağlamaktadır. Ek olarak, özellik piramit ağı (FPN)29 , farklı ölçeklerdeki özellikleri toplayarak farklı boyutlardaki nodüller için modelin algılama performansını artırmak için kullanılır.

Access restricted. Please log in or start a trial to view this content.

Protokol

Bu retrospektif çalışma, Batı Çin Hastanesi, Sichuan Üniversitesi, Sichuan, Çin'in kurumsal inceleme kurulu tarafından onaylandı ve bilgilendirilmiş onam alma zorunluluğundan feragat edildi.

1. Ortam kurulumu

  1. Grafik işleme birimi (GPU) yazılımı
    1. Derin öğrenme uygulamalarını uygulamak için önce GPU ile ilgili ortamı yapılandırın. GPU'nun web sitesinden GPU'ya uygun yazılım ve sürücüleri indirip yükleyin.
      NOT: Bu çalışmada kullanılanlar için Malzeme Tablosuna bakınız.
  2. Python3.8 kurulumu
    1. Makinede bir terminal açın. Aşağıdakileri yazın:
      Komut satırı: sudo apt-get install python3.8 python-dev python-virtualenv
  3. Pytorch1.7 kurulumu
    1. Miniconda'yı indirmek ve yüklemek için resmi web sitesindeki adımları izleyin.
    2. Bir conda ortamı oluşturun ve etkinleştirin.
      Komut satırı: conda create --name SwinFasterRCNN python=3.8 -y
      Komut satırı: conda activate SwinFasterRCNN
    3. Pytorch'u yükleyin.
      Komut satırı: conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2
  4. MMDetection kurulumu
    1. Resmi Github deposundan klonlayın.
      Komut satırı: git clone https://github.com/open-mmlab/mmdetection.git
    2. MMDetection'ı yükleyin.
      Komut satırı: cd mmdetection
      Komut satırı: pip install -v -e .

2. Veri hazırlama

  1. Veri toplama
    1. Ultrason görüntülerini topladı (burada, A Sınıfı bir üçüncül hastaneden 3.000 vaka). Her vakanın tanı kayıtlarına, tedavi planlarına, ABD raporlarına ve ilgili ABD görüntülerine sahip olduğundan emin olun.
    2. Tüm ABD resimlerini "resimler" adlı bir klasöre yerleştirin.
      NOT: Bu çalışmada kullanılan veriler, 3.000 vakadan 3.853 ABD görüntüsünü içermektedir.
  2. Veri temizleme
    1. Lenf görüntüleri gibi tiroid olmayan alanların görüntüleri için veri kümesini el ile kontrol edin.
    2. Renkli Doppler akışı içeren görüntüler için veri kümesini el ile denetleyin.
    3. Önceki iki adımda seçilen görüntüleri silin.
      NOT: Veri temizliğinden sonra, 2.680 vakadan 3.000 görüntü kalmıştır.
  3. Veri ek açıklaması
    1. Kıdemli bir doktorun ABD görüntüsündeki nodül alanını bulmasını ve nodül sınırını ana hatlarıyla belirtmesini sağlayın.
      NOT: Ek açıklama yazılımı ve işlemi Ek Dosya 1'de bulunabilir.
    2. Başka bir kıdemli doktorun ek açıklama sonuçlarını gözden geçirmesini ve gözden geçirmesini sağlayın.
    3. Ek açıklamalı verileri "Ek Açıklamalar" adlı ayrı bir klasöre yerleştirin.
  4. Veri bölme
    1. Python betiğini çalıştırın ve adım 2.1.2'de görüntünün yolunu ve adım 2.3.3'te ek açıklamaların yollarını ayarlayın. Tüm görüntüleri ve ilgili etiketli dosyaları rastgele 8:2 oranında eğitim ve doğrulama kümelerine bölün. Eğitim seti verilerini "Train" klasörüne ve doğrulama seti verilerini "Val" klasörüne kaydedin.
      NOT: Python betikleri Ek Dosya 2'de sağlanır.
  5. CoCo veri kümesi biçimine dönüştürme
    NOT: MMDetection'ı kullanmak için, verileri ek açıklama bilgilerini tutan bir json dosyası ve ABD görüntülerini içeren bir görüntü klasörü içeren bir CoCo veri kümesi biçiminde işleyin.
    1. Python betiğini çalıştırın ve doktor tarafından özetlenen nodül alanlarını çıkarmak ve bunları maskelere dönüştürmek için ek açıklamalar klasör yollarını (adım 2.3.3) girin. Tüm maskeleri "Maskeler" klasörüne kaydedin.
      NOT: Python komut dosyaları Ek Dosya 3'te sağlanır.
    2. Python betiğini çalıştırın ve verileri CoCo biçiminde bir veri kümesine dönüştürmek ve ABD görüntüleriyle bir json dosyası oluşturmak için adım 2.5.1'de maskeler klasörünün yolunu ayarlayın.
      NOT: Python betikleri Ek Dosya 4'te sağlanır.

3. Swin Daha hızlı RCNN yapılandırması

  1. Swin Transformer model dosyasını (https://github.com/microsoft/Swin-Transformer/blob/main/models/swin_transformer.py) indirin, değiştirin ve "mmdetection/mmdet/models/backbones/" klasörüne yerleştirin. "swin_transformer.py" dosyasını bir vim metin düzenleyicisinde açın ve Ek Dosya 5'te sağlanan Swin Transformer model dosyası olarak değiştirin.
    Komut satırı: vim swin_transformer.py
  2. Daha Hızlı R-CNN yapılandırma dosyasının bir kopyasını oluşturun, omurgayı Swin Transformer olarak değiştirin ve FPN parametrelerini ayarlayın.
    Komut satırı: cd mmdetection/configs/faster_rcnn
    Komut satırı: cp faster_rcnn_r50_fpn_1x_coco.py swin_faster_rcnn_swin.py
    NOT: Swin Faster R-CNN yapılandırma dosyası (swin_faster_rcnn_swin.py) Ek Dosya 6'da sağlanır. Swin Faster R-CNN ağ yapısı Şekil 1'de gösterilmiştir.
  3. Veri kümesi yolunu, yapılandırma dosyasındaki CoCo biçimi veri kümesi yoluna (adım 2.5.2) ayarlayın. Vim metin düzenleyicisinde "coco_detection.py" dosyasını açın ve aşağıdaki satırı değiştirin:
    data_root = "veri kümesi yolu(adım 2.5.2)"
    Komut satırı:vim mmdetection/configs/_base_/datasets/coco_detection.py

4. Swin Faster R-CNN'yi Eğitme

  1. mmdetection/configs/_base_/schedules/schedule_1x.py düzenleyin ve öğrenme hızı, optimize edici ve dönem dahil olmak üzere eğitimle ilgili varsayılan parametreleri ayarlayın. Vim metin düzenleyicisinde "schedule_1x.py" dosyasını açın ve aşağıdaki satırları değiştirin:
    optimize edici = dict(type="AdamW", lr=0.001, momentum=0.9, weight_decay=0.0001)
    koşucu = dict(type='EpochBasedRunner', max_epochs=48)
    Komut satırı:vim mmdetection/configs/_base_/schedules/schedule_1x.py
    NOT: Bu makale için bu protokolde, öğrenme oranı 0.001 olarak ayarlandı, AdamW optimize edici kullanıldı, maksimum eğitim dönemi 48 olarak ayarlandı ve toplu iş boyutu 16 olarak ayarlandı.
  2. Aşağıdaki komutları yazarak eğitime başlayın. Ağın 48 dönem boyunca eğitime başlamasını ve sonuçta ortaya çıkan Swin Faster R-CNN ağının eğitilmiş ağırlıklarının çıktı klasöründe oluşturulmasını bekleyin. Model ağırlıklarını doğrulama kümesinde en yüksek doğrulukla kaydedin.
    Komut satırı: cd mmdetection
    Komut satırı: python tools/train.py congfigs/faster_rcnn/swin_faster_rcnn_swin.py --work-dir ./work_dirs
    NOT: Model "NVIDIA GeForce RTX3090 24G" GPU üzerinde eğitilmiştir. Kullanılan merkezi işlem birimi "AMD Epyc 7742 64 çekirdekli işlemci × 128" idi ve işletim sistemi Ubuntu 18.06 idi. Genel eğitim süresi ~ 2 saat idi.

5. Yeni görüntülerde tiroid nodülü tespitinin yapılması

  1. Eğitimden sonra, yeni görüntülerde tiroid nodülü tespiti için doğrulama setinde en iyi performansa sahip modeli seçin.
    1. İlk olarak, görüntüyü 512 piksel x 512 piksel olarak yeniden boyutlandırın ve normalleştirin. Bu işlemler, test komut dosyası çalıştırıldığında otomatik olarak gerçekleştirilir.
      Komut satırı: python tools/test.py congfigs/faster_rcnn/swin_faster_rcnn_swin.py --out ./output
    2. Komut dosyasının önceden eğitilmiş model parametrelerini otomatik olarak Swin Faster R-CNN'ye yüklemesini bekleyin ve çıkarım için önceden işlenmiş görüntüyü Swin Faster R-CNN'ye besleyin. Swin Faster R-CNN'nin her görüntü için tahmin kutusunu çıkarmasını bekleyin.
    3. Son olarak, yinelenen öğe algılama kutularını kaldırmak için komut dosyasının her görüntüde otomatik olarak NMS son işlemesini gerçekleştirmesine izin verin.
      NOT: Algılama sonuçları, algılama kutularını ve sınırlayıcı kutu koordinatlarını paketlenmiş bir dosyada içeren görüntüleri içeren belirtilen klasöre çıkarılır.

Access restricted. Please log in or start a trial to view this content.

Sonuçlar

Tiroid ABD görüntüleri, Eylül 2008'den Şubat 2018'e kadar Çin'deki iki hastaneden toplandı. Bu çalışmaya US görüntülerinin dahil edilmesi için uygunluk kriterleri, biyopsi ve cerrahi tedavi öncesi konvansiyonel US muayenesi, biyopsi veya cerrahi sonrası patoloji ile tanı ve 18 yaş ≥ idi. Dışlama kriterleri tiroid dokusu olmayan görüntülerdi.

3.000 ultrason görüntüsü 1.384 malign ve 1.616 iyi huylu nodül içeriyordu. Malign nodüllerin çoğunluğu (%90) papiller k...

Access restricted. Please log in or start a trial to view this content.

Tartışmalar

Bu makalede, ortam kurulumunun, veri hazırlamanın, model yapılandırmasının ve ağ eğitiminin nasıl gerçekleştirileceği ayrıntılı olarak açıklanmaktadır. Ortam kurulumu aşamasında, bağımlı kitaplıkların uyumlu ve eşleşmiş olduğundan emin olmak için dikkat edilmesi gerekir. Veri işleme çok önemli bir adımdır; Ek açıklamaların doğruluğunu sağlamak için zaman ve çaba harcanmalıdır. Modeli eğitirken bir "ModuleNotFoundError" ile karşılaşılabilir. Bu durumda, eksik kütüphaneyi...

Access restricted. Please log in or start a trial to view this content.

Açıklamalar

Yazarlar çıkar çatışması olmadığını beyan ederler.

Teşekkürler

Bu çalışma, Çin Ulusal Doğa Bilimleri Vakfı (Hibe No.32101188) ve Sichuan Eyaleti Bilim ve Teknoloji Bölümü Genel Projesi (Hibe No. 2021YFS0102), Çin tarafından desteklenmiştir.

Access restricted. Please log in or start a trial to view this content.

Malzemeler

NameCompanyCatalog NumberComments
GPU RTX3090Nvidia124G GPU
mmdetection2.11.0SenseTime4https://github.com/open-mmlab/mmdetection.git
python3.82https://www.python.org
pytorch1.7.1Facebook3https://pytorch.org

Referanslar

  1. Grant, E. G., et al. Thyroid ultrasound reporting lexicon: White paper of the ACR Thyroid Imaging, Reporting and Data System (TIRADS) committee. Journal of the American College of Radiology. 12 (12 Pt A), 1272-1279 (2015).
  2. Zhao, J., Zheng, W., Zhang, L., Tian, H. Segmentation of ultrasound images of thyroid nodule for assisting fine needle aspiration cytology. Health Information Science and Systems. 1, 5(2013).
  3. Haugen, B. R. American Thyroid Association management guidelines for adult patients with thyroid nodules and differentiated thyroid cancer: What is new and what has changed. Cancer. 123 (3), 372-381 (2017).
  4. Shin, J. H., et al. Ultrasonography diagnosis and imaging-based management of thyroid nodules: Revised Korean Society of Thyroid Radiology consensus statement and recommendations. Korean Journal of Radiology. 17 (3), 370-395 (2016).
  5. Horvath, E., et al. An ultrasonogram reporting system for thyroid nodules stratifying cancer risk for clinical management. The Journal of Clinical Endocrinology & Metabolism. 94 (5), 1748-1751 (2009).
  6. Park, J. -Y., et al. A proposal for a thyroid imaging reporting and data system for ultrasound features of thyroid carcinoma. Thyroid. 19 (11), 1257-1264 (2009).
  7. Moon, W. -J., et al. Benign and malignant thyroid nodules: US differentiation-Multicenter retrospective study. Radiology. 247 (3), 762-770 (2008).
  8. Park, C. S., et al. Observer variability in the sonographic evaluation of thyroid nodules. Journal of Clinical Ultrasound. 38 (6), 287-293 (2010).
  9. Kim, S. H., et al. Observer variability and the performance between faculties and residents: US criteria for benign and malignant thyroid nodules. Korean Journal of Radiology. 11 (2), 149-155 (2010).
  10. Choi, Y. J., et al. A computer-aided diagnosis system using artificial intelligence for the diagnosis and characterization of thyroid nodules on ultrasound: initial clinical assessment. Thyroid. 27 (4), 546-552 (2017).
  11. Chang, T. -C. The role of computer-aided detection and diagnosis system in the differential diagnosis of thyroid lesions in ultrasonography. Journal of Medical Ultrasound. 23 (4), 177-184 (2015).
  12. Fully convolutional networks for ultrasound image segmentation of thyroid nodules. Li, X. IEEE 20th International Conference on High Performance Computing and Communications; IEEE 16th International Conference on Smart City; IEEE 4th International Conference on Data Science and Systems (HPCC/SmartCity/DSS), , 886-890 (2018).
  13. Nguyen, D. T., Choi, J., Park, K. R. Thyroid nodule segmentation in ultrasound image based on information fusion of suggestion and enhancement networks. Mathematics. 10 (19), 3484(2022).
  14. Ma, J., Wu, F., Jiang, T. A., Zhu, J., Kong, D. Cascade convolutional neural networks for automatic detection of thyroid nodules in ultrasound images. Medical Physics. 44 (5), 1678-1691 (2017).
  15. Song, W., et al. Multitask cascade convolution neural networks for automatic thyroid nodule detection and recognition. IEEE Journal of Biomedical and Health Informatics. 23 (3), 1215-1224 (2018).
  16. Learning from weakly-labeled clinical data for automatic thyroid nodule classification in ultrasound images. Wang, J., et al. 2018 25Th IEEE International Conference on Image Processing (ICIP), , IEEE. 3114-3118 (2018).
  17. Wang, L., et al. A multi-scale densely connected convolutional neural network for automated thyroid nodule classification. Frontiers in Neuroscience. 16, 878718(2022).
  18. Krizhevsky, A., Sutskever, I., Hinton, G. E. Imagenet classification with deep convolutional neural networks. Communications of the ACM. 60 (6), 84-90 (2017).
  19. He, K., Zhang, X., Ren, S., Sun, J. Deep residual learning for image recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 770-778 (2016).
  20. Hu, H., Gu, J., Zhang, Z., Dai, J., Wei, Y. Relation networks for object detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 3588-3597 (2018).
  21. Szegedy, C., et al. Going deeper with convolutions. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 1-9 (2015).
  22. Dosovitskiy, A., et al. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. , (2020).
  23. Touvron, H., et al. Training data-efficient image transformers & distillation through attention. arXiv:2012.12877. , (2021).
  24. Liu, Z., et al. Swin Transformer: Hierarchical vision transformer using shifted windows. 2021 IEEE/CVF International Conference on Computer Vision (ICCV). , 9992-10002 (2021).
  25. Vaswani, A., et al. Attention is all you need. Advances in Neural Information Processing Systems. 30, (2017).
  26. Chen, J., et al. TransUNet: Transformers make strong encoders for medical image segmentation. arXiv. arXiv:2102.04306. , (2021).
  27. Ren, S., He, K., Girshick, R., Sun, J. Faster r-cnn: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems. 28, 91-99 (2015).
  28. Li, H., et al. An improved deep learning approach for detection of thyroid papillary cancer in ultrasound images. Scientific Reports. 8, 6600(2018).
  29. Lin, T. -Y., et al. Feature pyramid networks for object detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. , 2117-2125 (2017).
  30. Ouahabi, A. A review of wavelet denoising in medical imaging. 2013 8th International Workshop on Systems, Signal Processing and their Applications. , 19-26 (2013).
  31. Mahdaoui, A. E., Ouahabi, A., Moulay, M. S. Image denoising using a compressive sensing approach based on regularization constraints. Sensors. 22 (6), 2199(2022).
  32. Castleman, K. R. Digital Image Processing. , Prentice Hall Press. Hoboken, NJ. (1996).
  33. Liu, W., et al. Ssd: Single shot multibox detector. European Conference on Computer Vision. , 21-37 (2016).
  34. Redmon, J., Farhadi, A. Yolov3: An incremental improvement. arXiv. arXiv:1804.02767. , (2018).
  35. Lin, T. -Y., Goyal, P., Girshick, R., He, K., Dollár, P. Focalloss for dense object detection. arXiv. arXiv:1708.02002. , (2017).
  36. Carion, N., et al. End-to-end object detection with transformers. Computer Vision-ECCV 2020: 16th European Conference. , Glasgow, UK. 23-28 (2020).

Access restricted. Please log in or start a trial to view this content.

Yeniden Basımlar ve İzinler

Bu JoVE makalesinin metnini veya resimlerini yeniden kullanma izni talebi

Izin talebi

Daha Fazla Makale Keşfet

T pSay 194

This article has been published

Video Coming Soon

JoVE Logo

Gizlilik

Kullanım Şartları

İlkeler

Araştırma

Eğitim

JoVE Hakkında

Telif Hakkı © 2020 MyJove Corporation. Tüm hakları saklıdır