JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

유아와 유아는에서 근본적으로 다른 방식으로 세계를 볼. 헤드 마운트 카메라 유아 시각적 환경을 이해 하 그러므로 메커니즘을 제공. 이 프로토콜 가정 이나 유아와 유아의 자기 볼을 잡으려고 실험실에서 실험에 대 한 원칙을 제공 합니다.

초록

유아와 유아 그들의 부모 로부터 근본적으로 다른 방식으로 기본적인 감각 수준에서 세계를 볼. 이것은 주로 생물 제약: 유아 그들의 부모 보다 다른 신체 비율을 소유 하 고 그들의 자신의 머리의 움직임을 제어 하는 능력은 덜 개발. 이러한 제약 시각 입력을 사용할 수 제한. 이 프로토콜 머리 장착형 카메라를 사용 하 여 개발 유아에 의해 경험 변화 시각 입력을 이해 하는 연구에 대 한 원칙을 제공 하는 것을 목표로. 이 프로토콜의 성공적인 사용 설계 하 고 개발 어린이 시각적 환경 가정 또는 실험실에서의 연구 실행 연구를 허용할 것 이다. 이 방법에서 연구원은 어린이 보기의 필드의 모든 가능한 항목의 집계 보기를 컴파일할 수 있습니다. 이 메서드는 직접 정확 하 게 어떤 아이 보고 측정 하지 않습니다. 결합 하 여 기계 학습, 컴퓨터 비전 알고리즘, 그리고 손 코딩, 연구원은이 이렇게 개발 유아의 변화 시각 생태를 설명 하는 고밀도 데이터 집합을 생성할 수 있습니다.

서문

수십 년 동안, 심리학자 윌리엄 제임스는 "피, 윙윙 거리는 혼란1."로 유명한 기술 개발 유아의 환경을 이해 하고자 했다 유아의 일상 경험은 일반적으로 3 인칭 관점에서 사회적 파트너와 자연 놀이 촬영 하 여 공부 했다. 이러한 뷰는 측면에서 이상 일반적으로 유아2듣는 복잡 환경과 새로운 단어에 대 한 잠재적인 referents의 발굴 수 표시. 외부 관찰자에 게 제임스의 설명 쉽다, 하지만이 고정, 3 인칭 관점 유아 세상을 보는 방법이 아니다. 유아는 지상에 가까운 이며 시각적 탐사에 대 한 개체를 가까이 데리고 그들의 세계를 통해 이동할 수 있습니다. 3 인칭의 부모-유아 상호 작용은 그림 1에 나와 있습니다. 강조 그들의 관점 사이 근본적인 다름이 있다. 아마도, 유아 받을 입력은 거의 부모와 연구자에 의해 예상 혼란. 머리 장착형 카메라와 방법의 목표는 경험을 캡처하는 유아는 1 인칭 시점에서 개발을 통해 그들에 게 사용할 수 있는 시각적 환경 이해입니다.

헤드 마운트 카메라, 모자 나 머리 띠를 착용 개발 유아의 순간 순간 시각적 경험에 창을 제공 합니다. 이 관점에서의 구조와 유아의 환경에서 규칙 성을 연구 분명해 집니다. 헤드 마운트 카메라 손에 의해 크게 지배를 유아의 시각적 경험을 계시 했다 둘 다 그들의 자신의 그들의 사회적 파트너의, 그리고 한 번 공동 관심을 설정 하기 위한 필수 고려 하 그 얼굴 모습, 예상된 보다 훨씬 scarcer 되 3. 머리 장착형 카메라도는 유아와 그들의 보호자 만들 때 개체는 시각적으로 지배 하 고 중앙 유아의 시야 (FOV)에 순간 개체 레이블 매핑4에 내재 된 불확실성을 감소 나타났습니다.

헤드 마운트 카메라 캡처 머리 움직임에 따라 유아의 1 인칭 시점. 이 뷰는 완벽 하 게, 동기 또는 대표, 유아 눈 움직임, 눈-추적기와 함께에서 캡처할 수 있습니다. 예를 들어, 머리 고정, 유지 하면서만 눈의 변화 또는 고정 된 개체에 눈을 유지 하는 동안 머리의 교대 유아의 실제 FOV와 헤드 카메라에 의해 촬영 된 사이 부정합을 만들어집니다. 그럼에도 불구 하 고, 장난감 놀이, 동안 유아 일반적으로 센터 개체, 참석 하는 그들의 머리, 눈, 그리고 그들의 바디의 중간5장난감의 위치 정렬. 부정합 드물다 고 눈 shift 키와 함께 머리 회전3사이 순간 지연에 의해 일반적으로 만들어집니다. 따라서, 머리 카메라 캡처 관심의 변화에의 신속한 역학에 적합 하지 않습니다. 헤드 마운트 카메라의 강도 캡처 유아에 게 사용할 수 있는 영상 콘텐츠를 공개 하는 일상적인 시각적 환경에 놓여 있습니다.

다음과 같은 프로토콜 및 대표 결과 어떻게 머리에 장착 된 카메라를 시연할 예정 이다 유아와 유아의 시각적 환경을 공부 하는 데 사용할 수 있습니다.

Access restricted. Please log in or start a trial to view this content.

프로토콜

유아와 유아의 시각적 경험 실험실에서 그리고 집에서에서 데이터를 수집 하려면 다음 절차는 인디애나 대학 기관 검토 위원회에 의해 승인 되었다. 동의 유아의 간병인에서 얻은 했다.

1. 머리 카메라 선택

참고: 구매 (그림 2)에 대 한 쉽게 사용할 수 있는 수많은 작은, 경량, 그리고 휴대용 카메라 있다.

  1. 돌출은 기록 되 고 장면에 영향을 주지 것입니다 머리 카메라를 선택 하십시오.
    1. 아늑한 모자 또는 임시 접착제를 사용 하 여 헤드에 카메라를 장착 하거나 안전 하 게 밴드에 연결 된 작은 플라스틱 플레이트에 카메라를 장착 합니다. 어린이이 마 (그림 2B, 왼쪽)에 카메라를 배치 합니다.
      1. 카메라의 모양에 따라 머리 띠 나 모자 (그림 2B, 가운데 및 오른쪽)으로 바느질 작은 피복 루프에 의해 카메라를 탑재.
      2. 모자 또는 머리 띠 (그림 2A) 어린이 머리에 아늑한 하 고 편안 하 게 맞춤을 달성 하기 위해 조정 가능한 지 확인 합니다.
        참고: 그러나 이것은 현재의 기술로 가능한 카메라를 직접 유아의 눈 사이 있는 이론적으로 이상적입니다. 배치 될 수 있는 낮은 마에는 작은 카메라는 점점 제공 되고있다.
  2. 카메라는 부모와 함께 집 보내면 되 고, 부모는 어떤 기술적인 도움도 없이 그들을 사용할 수 있습니다 확인 합니다.
    1. 부모를 떠나기 전에 실험실, 머리 카메라를 작동 하는 방법에 그들을 훈련.
    2. 보내기 집 부모는 카메라와 함께 사용, 머리 밴드 또는 모자, 그리고 카메라와 기록 데이터를 설정 하는 절차를 설명 하는 손을 아웃.
  3. 카메라 충분히 착용 하 고 잊어 유아 빛 인지 확인 합니다.
    참고: 권장된 무게 30 g3보다 작습니다. 모든 선택한 카메라 사용 중 열 하지 해야 하며 내구성 무거운 사용 되어야 합니다.
  4. 실험 설치 하려면 아이 들을 자유롭게 이동, 내부 저장소 카드에 녹화 된 비디오를 저장 합니다. 그렇지 않으면, 데이터 수집 컴퓨터에 닿는 곳에 카메라를 사용 하 여.
  5. 높은-품질 렌즈와 카메라를 사용 하 여 더 나은 관심 영역에 시각적 장면 세그먼트는 기계 학습 알고리즘의 최근 발전을 활용.
    1. 시각적 장면 연구자에 의해 수동으로 코딩 될 것 이다, 수동 검사에 대 한 충분 한 품질로 이미지를 캡처할 수 있는 카메라를 사용 합니다.
  6. 모든 배터리 구동 카메라는 원하는 양의 시간에 대 한 녹음의 능력을 확인 합니다.
  7. 직전에 실험을 시작 하거나 부모와 함께 집에 카메라를 보내는, 그것은 적절 하 게 작동 되도록 헤드 카메라 테스트.

2. 데이터 수집 실험실에서

참고: 헤드 마운트 카메라는 대부분 실험을 쉽게 추가할 수 있습니다.

  1. 2-3 경험 어린이 머리에 카메라를 장소는: 한 실험 장소 헤드 카메라, 하나 모니터링 머리-카메라 보기 하 고, 필요한 경우, 하나는 아이 그러기로 했 어.
    1. 부모 아이 유지 진정 하 고 배치 과정에서 아이 산만 하 게.
  2. 3 단계에서 카메라 배치를 다음과 같이 수행 합니다.
    1. 손으로 그들의 머리 근처 작업에 유아 감도
      1. 가볍게 터치 또는 유아의 머리와 머리 몇 번 뇌졸중을 부모를 요구 하십시오.
      2. 2.2.1.1 동일 할 유아의 머리에는 모자를 두고 실험을 부탁 드립니다.
    2. 아이가 산만 때 머리 장착형 카메라를 배치 하는 실험을 했습니다.
      1. 푸쉬 버튼 장난감을 사용 하 여 어린이 손을 바쁘게.
      2. 산만 한 실험 또는 부모는 아이의 손이 머리에 들어가지 않는다 그래야 매력적인 장난감으로 아이의 손에 부드럽게 눌러이 단계에 도움이 있다.
    3. 어린이 머리에 모자를 강화 하 고 장난감으로 아이 때 헤드 카메라를 조정 합니다.
      1. 유아 자신의 얼굴 앞에서 개체, 경우 개체 중심 헤드 카메라 FOV에에서 카메라를 조정 합니다.
      2. 만약 아이가 앉아 아이 때 어린이 무릎의 대부분 캡처 되도록 카메라를 조정 합니다.
  3. 어린이 머리에 카메라를 배치, 후는 방에서 녹음을 시작을 실험을 부탁 드립니다.
  4. 카메라를 장소 이동 또는 제거는 다시 카메라를 수정 하는 방을 입력 합니다.
    1. 아이가 다시 적용 되 고 카메라를 용납 하지 않는 실험을 종료 합니다.
      참고: 가정에서 자연 환경 기록, 먼저 모자와 카메라 개별 유아에 맞게 하 고 부모는 카메라 위치를 방법을 보여 줍니다. 디자인과 카메라의 적합은 부모 기술 도움 없이 그들의 아이에 모자를 넣어 수 있을 것 이다 하는 것을 확인 해야 합니다.

3. 데이터 수집 부모-유아 연구에 대 한

참고: 머리-카메라에 대 한 다음과 같은 대표적인 방법 유아와 그들의 부모 (그림 3A)의 자기 중심적 플레이에 실시 될 수 있는 분석의 종류를 설명 하는 실험실에서 자연 장난감 놀이 사용 합니다.

  1. 2.1과 2.2에 설명 된 대로 부모와 자식 머리 장착형 카메라와 옷.
  2. 머리의 카메라를 사용 하 여 30 프레임/s의 2.3 및 2.4 단계에 설명 된 대로 진행에서 720 x 1280 픽셀의 해상도와 비디오를 캡처.
    1. 모든 5 프레임 비디오 스트림을 subsample s.
    2. 수동으로 상용 소프트웨어 또는 프로그램을 자체 개발 (샘플 프레임 그림 3C 참조)를 사용 하 여 보기에서 각 장난감 (그림 3B) 주위의 경계 상자를 그립니다.
      1. 장난감의 부분은 다른 장난감 또는 프레임의 가장자리에 자르기에 의해 폐색 표시, 경우에만 장난감 쉽게 식별할 수 장난감의 모든 눈에 보이는 부분을 포함 하는 때 경계 상자 그립니다.
      2. 예를 들어 단지 인형의 다리를 볼 수 있으면, 다리 주위 경계 상자를 그립니다. 개체 표시, 머리와 다리를 떠나 인형의 절반을 occludes 다음 머리와 다리를 포함 하는 상자를 그립니다.

Access restricted. Please log in or start a trial to view this content.

결과

한 간단 하면서도 유익한 정보, 분석 보기에서 각 지점에서 개체의 수를 계산 하는 시간에서입니다. 이후 약 30 Hz에서 데이터를 생산 하는 헤드 카메라 (30 이미지/s), 다운 샘플링 데이터 1 이미지 해상도 유지 하면서 더 관리 가능한 데이터 집합을 생성 하는 모든 5 s 데 도움이 장면 어린이의 종류를 이해 하기 위한 적절 한를 참조 하십시오. 이전 연구는 시각적 장면 유아

Access restricted. Please log in or start a trial to view this content.

토론

이 종이 그들의 자기 중심 시각적 장면 캡처 유아를 머리 장착형 카메라를 적용 하기 위한 기초를 설명 합니다. 상업적으로 사용 가능한 머리 카메라는 연구의 대부분에 대 한 충분 한. 소형, 경량, 및 휴대용 카메라 연약한 직물 모자 또는 머리 띠에 통합 하 고 어린이 머리에 적용 한다. 한 번 성공적으로 설계 및 구현, 다양 한 실험, 가정 환경에서 뿐만 아니라 실험실 설정에서 모두 실행할 수 있?...

Access restricted. Please log in or start a trial to view this content.

공개

저자는 관심 없음 충돌 선언합니다.

감사의 말

저자 감사 닥터 첸 유가이 원고의 창조에 대 한 그의 대표적인 결과 섹션에서 사용 되는 데이터에 대 한. 우리는 그림에 사용 되며이 원고에의 그녀의 주의 읽기에 대 한 리 디 아 Hoffstaetter 뿐만 아니라 프로토콜의 촬영 하기로 참여 가족을 감사 합니다. 이 연구는 건강 보조금 (J.I.B., D.H.A.), T32HD007475-22 R01 HD074601 (S.B.), R01 HD028675의 국가 학회에 의해 지원 되었다 (S.B., L.B.S.), 및 F32HD093280 (L.K.S.). 국립 과학 재단 부여 BCS 1523982 (S.B., L.B.S)와 경력 IIS-1253549 (S.B., D.J.C.)는 국립 과학 재단 대학원 연구 친교 프로그램 #1342962 (S.E.S.), 그리고 신흥 지역 연구를 통해 인디애나 대학 이니셔티브-학습: 두뇌, 기계, 및 아이 들 (J.I.B., S.B., L.B.S.).

Access restricted. Please log in or start a trial to view this content.

자료

NameCompanyCatalog NumberComments
Head-cameraLooxcieLooxcie 3
Head-cameraWatecWAT-230A
Head-cameraSupercircuitsPC207XP
Head-cameraKT&CVSN500N
Head-cameraSereneLifeHD Clip-On
Head-cameraConbrovPen TD88
Head-cameraMvowizonSmiley Face Spy Button
Head-cameraNarrativeClip 2
Head-cameraMeCamDM06

참고문헌

  1. James, W. The Principles of Psychology. , Henry Holt and Co. New York. (1890).
  2. Quine, W., Van, O. Word and object: An inquiry into the linguistic mechanisms of objective reference. , The MIT Press. Cambridge, MA. (1960).
  3. Yoshida, H., Smith, L. B. What's in view for toddlers? Using a head camera to study visual experience. Infancy. 13 (3), 229-248 (2008).
  4. Yu, C., Smith, L. B. Embodied attention and word learning by toddlers. Cognition. 125 (2), 244-262 (2012).
  5. Bambach, S., Smith, L. B., Crandall, D. J., Yu, C. Objects in the center: How the infant's body constrains infant scenes. Joint IEEE International Conference on Development and Learning and Epigenetic Robotics 2016. , 132-137 (2016).
  6. Adolph, K. E., Gilmore, R. O., Freeman, C., Sanderson, P., Millman, D. Toward open behavioral science. Psychological Inquiry. 23 (3), 244-247 (2012).
  7. Sanderson, P. M., Scott, J. J. P., Johnston, T., Mainzer, J., Wantanbe, L. M., James, J. M. MacSHAPA and the enterprise of exploratory sequential data analysis (ESDA). International Journal of Human-Computer Studies. 41 (5), 633-681 (1994).
  8. Pereira, A. F., Smith, L. B., Yu, C. A bottom-up view of toddler word learning. Psychonomic Bulletin & Review. 21 (1), 178-185 (2014).
  9. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLOS ONE. 8 (11), e79659(2013).
  10. Jayaraman, S., Fausey, C. M., Smith, L. B. The faces in infant-perspective scenes change over the first year of life. PlOS ONE. 10 (5), e0123780(2015).
  11. Fausey, C. M., Jayaraman, S., Smith, L. B. From faces to hands: Changing visual input in the first two years. Cognition. 152, 101-107 (2016).
  12. Jayaraman, S., Fausey, C. M., Smith, L. B. Why are faces denser in the visual experiences of younger than older infants? Developmental Psychology. 53 (1), 38(2017).
  13. Clerkin, E. M., Hart, E., Rehg, J. M., Yu, C., Smith, L. B. Real-world visual statistics and infants' first-learned object names. Philosophical Transactions of the Royal Society B, Biological Sciences. 372, 20160055(2017).

Access restricted. Please log in or start a trial to view this content.

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

140

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유