JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 대표적 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

본 프로토콜은 새로운 종단 간 두드러진 물체 감지 알고리즘을 설명합니다. 심층 신경망을 활용하여 복잡한 환경 컨텍스트 내에서 두드러진 물체 감지의 정밀도를 향상시킵니다.

초록

현저한 물체 감지는 컴퓨터 비전 영역 내에서 급성장하는 관심 영역으로 부상했습니다. 그러나 일반적인 알고리즘은 복잡하고 다면적인 환경에서 두드러진 물체를 감지하는 작업을 수행할 때 정밀도가 감소합니다. 이러한 긴급한 문제에 비추어 이 기사에서는 복잡한 환경 내에서 두드러진 물체를 감지하는 것을 목표로 하는 종단 간 심층 신경망을 제시합니다. 이 연구는 복잡한 환경 내에서 두드러진 물체를 감지하는 것을 목표로 하는 종단 간 심층 신경망을 소개합니다. 제안된 네트워크는 두 개의 상호 관련된 구성 요소, 즉 픽셀 수준의 다중 스케일 전체 컨볼루션 네트워크와 심층 인코더-디코더 네트워크로 구성되며, 컨텍스트 의미 체계를 통합하여 다중 스케일 기능 맵에서 시각적 대비를 생성하는 동시에 깊고 얕은 이미지 기능을 사용하여 개체 경계 식별의 정확도를 향상시킵니다. 완전히 연결된 CRF(Conditional Random Field) 모델의 통합은 두드러진 맵의 공간 일관성과 등고선 묘사를 더욱 향상시킵니다. 제안된 알고리즘은 SOD 및 ECSSD 데이터베이스에서 10개의 최신 알고리즘에 대해 광범위하게 평가됩니다. 평가 결과는 제안된 알고리즘이 정밀도와 정확성 측면에서 다른 접근 방식을 능가하여 복잡한 환경에서 두드러진 물체 감지에 대한 효율성을 확립했음을 보여줍니다.

서문

눈에 띄는 물체 감지는 사람의 시각적 주의를 모방하여 배경 정보를 억제하면서 주요 이미지 영역을 신속하게 식별합니다. 이 기법은 이미지 자르기(image cropping)1, 의미론적 분할(semantic segmentation)2, 이미지 편집(image editing)3과 같은 작업에서 전처리 도구로 널리 사용된다. 배경 교체 및 전경 추출과 같은 작업을 간소화하여 편집 효율성과 정밀도를 향상시킵니다. 또한 타겟 국소화를 강화하여 의미론적 분할을 지원합니다. 계산 효율성을 높이고 메모리를 보존하기 위한 두드러진 물체 감지의 잠재력은 중요한 연구 및 응용 프로그램 전망을 강조합니다.

수년에 걸쳐 두드러진 객체 감지는 초기 기존 알고리즘에서 딥 러닝 알고리즘의 통합으로 발전했습니다. 이러한 발전의 목적은 두드러진 물체 감지와 인간의 시각적 메커니즘 사이의 격차를 좁히는 것이었습니다. 이로 인해 두드러진 물체 감지 연구를 위한 심층 컨볼루션 네트워크 모델이 채택되었습니다. Borji et al.4 은 이미지의 기본 특징에 의존하는 대부분의 고전적인 기존 알고리즘을 요약하고 일....

프로토콜

1. 실험 설정 및 절차

  1. 사전 훈련된 VGG16 모델을 불러옵니다.
    참고: 첫 번째 단계는 Keras 라이브러리6에서 사전 훈련된 VGG16 모델을 로드하는 것입니다.
    1. PyTorch와 같은 인기 있는 딥러닝 라이브러리를 사용하여 Python에서 사전 훈련된 VGG16 모델을 로드하려면( 자료 목차 참조) 다음 일반 단계를 따르십시오.
      1. 수입품 토치. torchvision.models 를 모델로 가져옵니다.
      2. 사전 훈련된 VGG16 모델을 불러옵니다. vgg16_model = models.vgg16(pretrained=True)입니다.
      3. VGG16 모델의 요약이 "print(vgg16_model)"인지 확인합니다.
  2. DCL 및 DEDN 모델을 정의합니다.
    1. DCL 알고리즘의 의사 코드의 경우 입력: 이미지 데이터 세트 SOD출력: 학습된 DCL 모델을 제공합니다.
      1. VGG16 백본 네트워크로

대표적 결과

이 연구에서는 픽셀 수준의 다중 스케일 완전 컨볼루션 네트워크와 심층 인코더-디코더 네트워크라는 두 가지 상호 보완적인 네트워크로 구성된 종단 간 심층 신경망을 소개합니다. 첫 번째 네트워크는 컨텍스트 의미론을 통합하여 다중 축척 기능 맵에서 시각적 대비를 도출하여 다양한 계층에 걸친 심층 신경망의 고정 수용 필드 문제를 해결합니다. 두 번째 신경망은 깊은 영상과 얕은 영상 특?.......

토론

이 기사에서는 복잡한 환경에서 두드러진 물체를 감지하도록 특별히 설계된 종단 간 심층 신경망을 소개합니다. 이 신경망은 두 개의 상호 연결된 구성요소, 즉 픽셀 수준의 다중 스케일 완전 컨벌루션 신경망(DCL)과 심층 인코더-디코더 신경망(DEDN)으로 구성됩니다. 이러한 구성 요소는 시너지 효과를 발휘하여 상황별 의미 체계를 통합하여 다중 축척 기능 맵 내에서 시각적 대비를 생성합니다. 또.......

공개

저자는 공개할 것이 없습니다.

감사의 말

이 작업은 2024년 허난성 고등 교육 기관 핵심 과학 연구 프로젝트 자금 지원 프로그램 설립(프로젝트 번호: 24A520053)의 지원을 받습니다. 이 연구는 허난성의 전문 창조 및 통합 특성 시범 코스 건설의 지원도 받고 있습니다.

....

자료

NameCompanyCatalog NumberComments
MatlabMathWorksMatlab R2016aMATLAB's programming interface provides development tools for improving code quality maintainability and maximizing performance.
It provides tools for building applications using custom graphical interfaces.
It provides tools for combining MATLAB-based algorithms with external applications and languages
Processor Intel11th Gen Intel(R) Core (TM) i5-1135G7 @ 2.40GHz64-bit Win11 processor 
PycharmJetBrainsPyCharm 3.0PyCharm is a Python IDE (Integrated Development Environment)
a list of required python:
modulesmatplotlib
skimage
torch
os
time
pydensecrf
opencv
glob
PIL
torchvision
numpy
tkinter
PyTorch FacebookPyTorch 1.4 PyTorch is an open source Python machine learning library , based on Torch , used for natural language processing and other applications.PyTorch can be viewed both as the addition of GPU support numpy , but also can be viewed as a powerful deep neural network with automatic derivatives .

참고문헌

  1. Wang, W. G., Shen, J. B., Ling, H. B. A deep network solution for attention and aesthetics aware photo cropping. IEEE Transactions on Pattern Analysis and Machine Intelligence. 41 (7), 1531-1544 (2018).
  2. Wang, W. G., Sun, G. L., Gool, L. V.

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

202

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유