JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

幼児ない受動的、世界を観察が、むしろ積極的に探索を行い環境に従事。このプロトコルは、原則の自然な動作のコンテキストで乳児を記録する目のヘッド マウント型トラッカーと幼児の動的なビジュアル環境と視覚的注意を用いた実用的な推奨事項を提供します。

要約

幼児の視覚環境は動的な子供たちが物理的、視覚的に空間とオブジェクトを探索し、周りの人々 との対話で瞬間瞬間を変更します。頭に取り付けられた視線は、子どもの動的自己中心的なビューとそれらのビュー内の視覚的注意を割り当てる彼らどのようにキャプチャするユニークな機会を提供しています。このプロトコルは、基本理念と研究室でより自然主義的な設定ヘッド マウント目トラッカーを使用して研究者の実用的な推奨事項を提供します。ヘッド マウント型視線より携帯性と画面の視線と比較して頭と体の動きの自由をもっと生態学上有効なコンテキストでのデータ収集のための機会を高めることによって他の実験方法を補完します。このプロトコルは、モーショントラッ キングや心拍監視、自然な動作、学習、および以前より開発を調べるため高密度マルチ モーダルなデータセットを提供するなど、他のテクノロジと統合できます。本稿は、幼児のための 1 つの自然な文脈で視覚的注意を調査するように設計研究では頭部装着視線から生成されるデータの種類を示しています: 親と玩具プレイを自由に流れます。このプロトコルの使用の成功は、視覚的注意についてだけでなく、他の知覚・認知・社会的スキルとその開発の広い範囲についての質問に答えるためのデータを収集する研究者になります。

概要

最後の数十年は、幼児と幼児の視覚的注意の開発の研究に関心の高まりを見てきました。この関心は、プライマリばかりで他の認知機能を評価するためには、独自の権利で乳児の視覚的注意に関する研究に進化するいると時間の測定の使用から大きい部分で茎しています。乳児と幼児の視覚的注意の現代調査は主にアイ ・ トラッキング タスクの画面の中に眼球運動を測定します。幼児は、静止画像やイベントのプレゼンテーション中に目の動きを監視しながら椅子またはスクリーンの前に親のひざに座っています。このようなタスクは、自然な視覚的注意と能動的探索 - 子供の自然な視覚環境を生成手段の動的な性質をキャプチャするただし、失敗します。

乳児や幼児は、彼らの手、頭、目とオブジェクト、人々、および前後にスペースを探検するボディを移動アクティブな生き物です。体形態、運動技能と行動 - クロール、ウォーキング、社会的パートナーとの魅力的なオブジェクトを拾って - の各の新しい開発は初期の視覚環境の変化を伴います。幼児が何彼らが参照してください決定します、彼らが参照してください彼らは視覚的にガイド付きのアクションで何の提供していますので視覚的注意の自然な開発を勉強して最高で行われます自然現象1のコンテキスト。

ヘッド マウントの目追跡システム (ETs) が発明・大人のための十年2,3の使用します。最近技術の進歩したアイトラッ キング技術のヘッド マウント乳幼児に適した。参加者には 2 台の軽量カメラ頭、参加者の最初の人の視点をキャプチャするシーンのカメラが外側に直面していると目の画像をキャプチャに内側に直面して目カメラが備わっています。校正手順は、視覚的に出席されていた情景画像の対応するピクセルに目の画像で瞳孔や角膜反射 (CR) の変化する位置をできるだけ正確にマップするアルゴリズムにトレーニング データを提供します。このメソッドの目的は、自由に両方、幼児や乳児のアクティブな視覚探索それら環境の幼児の動きとして自然な視覚環境をキャプチャすることです。このようなデータは、視覚的注意についてだけでなく、知覚、認知、および社会開発4,5,6,7,8の広い範囲についての質問に答えるのに役立ちます。これらの技術の使用を変えた共同注意7,8,9, 持続的注意10年齢と運動機能発達4視覚の経験を変更することの理解,6,11と単語学習12視覚経験の役割。本指針および乳幼児を持つヘッド マウント アイトラッ キング実験を行うための実用的な推奨事項を提供し、自然にヘッド マウント型視線から生成できるデータの種類を示しています幼児のためのコンテキスト: 親と玩具プレイを自由に流れます。

プロトコル

このチュートリアルは、インディアナ大学の制度検討委員会によって承認された幼児とヘッド マウント目追跡データを収集する手順に基づいています。幼児の実験に参加する前に情報の親権者の同意が得られました。

1. 研究のための準備

  1. 眼球追尾装置。いくつかヘッド マウント アイトラッ キング システム、市販されているいずれか 1 つの子供のために具体的には、販売のいずれかを選択またはカスタムメイド幼児キャップ、例えばとして図 1 および図 2に示すように動作するようにシステムを変更します。アイトラッ キング システムに乳児や幼児を次の手順でテストするために必要な機能があることを確認します。
    1. ポジショニングの面で調整可能ですし、研究の質問に対処するための適切なフィールドのビューを取得する十分な幅の角度を持っているシーンのカメラを選択します。ここで説明したような無料プレイ設定で幼児の活動の大部分をキャプチャするには、少なくとも 100 度斜めの視野をキャプチャするカメラを選択します。
    2. ポジショニングの面で調整可能で、いずれかのカメラやカメラに隣接して建てられたし、目の角膜が光を反射するように配置されている赤外線 LED 目カメラを選択します。メモいくつかのアイトラッ キング モデルが固定位置が、柔軟な調整をできるモデルをお勧めします。
    3. 控えめな、最大のチャンスを提供するために可能な限り軽量アイトラッ キング システムを選択・乳児が容認する装置を身に着けています。
      1. キャップに、キャップに縫い付けて Velcro の反対側に貼付されている Velcro ストラップをシーンと目のカメラを接続することによってシステムを埋め込むと幼児のビューの中心からカメラを配置します。
        注: メガネに似ているように設計されたシステムが最適ではないです。幼児の顔の形態が異なっている大人と幼児の鼻や耳に残りの部分は、気が散ると参加者の不快感をすることができます。
      2. ET はコンピューターに有線、ケーブルをバンドルし、トリップまたは気晴らしを防ぐために参加者の後ろにそれらを保ちます。また、大きく移動する子供に配置することができます携帯電話などの中間デバイスにデータを格納する自己完結型システムを使用します。
    4. オフラインの校正では、校正ソフトウェア パッケージを選択します。
  2. 録音環境。
    1. 子供がデータ収集中に空間を通して移動先範囲を検討してください。単一の位置が望ましい場合、彼らは目的の場所にとどまる子を助けることができるので子供の介護者に明記します。届くべき子がやり取りする必要がありますそれらを除いてスペースからすべての潜在的なディス トラクターを削除します。
    2. ET が難民となるときの瞬間を識別するためだけでなく子どもの行動の後でコーディングを支援する三人称視点のカメラを採用してください。子供は、空間を通して移動されますが、同様に追加のカメラを検討してください。

2. アイ ・ トラッキング データを収集します。

  1. 人事・ アクティビティ。2 つ実験者と対話し、子との 1 つを配置し、ET の位置を占める 1 つ存在があります。
    1. 完全に子供を子移動まで到達しないか、または彼らの頭の上に配置する ET をつかむように、子供の手を占有する活動に従事します。手動による操作と実験者間保持できる子や親が子供に読む小さな本を促進するおもちゃを検討してください。
  2. 子に ET を配置します。ヘッド マウント型 ET を身に着けている幼児の許容範囲によって異なりますので、配置や子らを維持することで成功を促進するこれらの推奨事項に従ってください。
    1. 研究に至るまでの時間、キャップやビーニー、自分の頭で何かを持っていることに慣れてもらうために自宅、ET で使用されるものに類似した彼らの子供の摩耗を持っている介護者を求めます。
    2. ある研究では、ET の着脱可能キャップの種類。異なったサイズおよび様式の後方を着用することができますボール キャップなど動物の耳、ビーニー キャップを購入し、Velcro アイトラッ キング システム、Velcro の反対側が装備の着脱を追加してキャップをカスタマイズします。また介護者、実験者、子どもの興味や意欲もキャップを着用するを助長することが着用する帽子を持っていることを検討してください。
      1. 子にキャップを置く前に髪を軽く何度も触れるおもちゃに幼児の興味関心とを指定して頭にタッチに幼児を鈍感実験者があります。
    3. 子に ET を配置、するの背後にあるまたは子の側にある (図 2A参照)。子供がそれぞれの手でおもちゃを保持しているときなど、自分の手が占められるとき子供に ET を配置します。
      1. 子 ET を配置する実験者の方場合は、こんにちはと言って、子供の何が行われている知っている中で、子供の頭に ET をすばやく配置します。ら、子供の苦痛を引き起こすことができます、その子は自分の頭を移動または ET の到達する大きい機会として貧しい位置につながる可能性がありますを配置しながら遅すぎる移動しないでください。
      2. 参加者に ET を配置する前に、配置後のカメラの調整にかかる時間を減らすために設定したときに子供の頭の予想される位置にあるカメラ (セクション 2.3.1 と 2.3.2 参照)。
  3. 位置 ET のシーンとカメラ目。ET は、子供の頭では、これらのカメラのビデオ フィードを監視しながらシーンと目のカメラの位置を調整をします。
    1. 最高額の低いシーン カメラおおよそ子供の視野の位置 (図 1Bを参照)。何子供を見て研究中のシーンのカメラ ビューを中心します。
      1. 手と対象物が常に子供の近くに非常にあるし、さらにオブジェクトがバック グラウンドと高いシーンのカメラ ビューでは、シーンのカメラ ビューで低を覚えておいてください。最高研究の質問に最も関連するビューの種類を捕捉できるシーンのカメラを位置します。
      2. 小さなおもちゃやレーザー ポインターを使用して、ビューのフィールドの特定の場所に子供の注意を誘致することでシーンのカメラの位置をテストします。観察研究に興味がある地域の距離で予想されるこれらの場所を確保する (図 3参照)。
      3. 水平面がフラットのシーンのカメラ ビューに表示されることを確認することによって傾斜を避けるため。再配置中に誤って逆取得カメラの可能性を軽減するためにシーンのカメラの縦方向が、必要に応じて、ポスト処理中に、追加の手順が正しい向きに画像を戻すことができることに注意してください。
    2. 高品質の視線データを取得する両方の瞳孔、角膜反射 (CR) を検出する目のカメラの位置 (図 2参照)。
      1. それは子供の生徒、頬や目の運動の全範囲でまつげがない咬合を中心としたので目のカメラの位置 (図 2C F善と悪の目の画像の例についてを参照してください)。これで支援するために目の下、頬、上向き、子のビューのセンターからカメラを保つことの近くの目のカメラを位置します。また、下の目のカメラの位置、目の外側に内側を指してくださいします。
      2. カメラが目の動きが目のカメラ画像で瞳孔の比較的大きな変位を生成することに十分に近いことを確認します。
      3. 目の画像で目の角は、水平ラインを形作ることができることを確認することによって傾斜を避ける (図 2C参照)。
      4. 瞳孔は虹彩から正確に識別することができますので、虹彩と瞳孔のコントラストが比較的高いことを確認 (図 2C参照)。このために、(LED が独立して調整できない) 場合 (アイカメラ) 横場合 LED 光源の位置か、目から目のカメラの距離を調整します。児童数の増加の検出角度で、目のないストレートに LED ライトを配置します。LED ライトの調整がまだ明確な CR を生成してください (図 2C参照)。
  4. オフラインのキャリブレーションのための調査の間にポイントを取得します。
    1. シーン/目のイメージとして、高品質として一度できます、彼らの視野の別の場所に子供の注目を描画することによって収集校正データ。
      1. 明らかに視野の中小、明確なポイントに子供の注意を指示することでさまざまな表面上キャリブレーション ポイントを取得 (図 3参照)。例えば、小さな独立アクティブ led を単色の背景またはサーフェスに対してレーザー ポインターを使用します。
      2. 子供のキャリブレーション ターゲットを確認する子のビューで他の興味深いターゲットの存在を制限します。
    2. 交互に目の角度変位を必要とする別の場所に注目します。
      1. 同様にビューのフィールドをカバーし、次の場所に彼らを見たときを推論するためにオフラインの校正中に子供から明確なサッカードを見つけることを援助する点の間余りにすぐに移動しないでください。
      2. 子供はすぐに新しい強調表示された場所を見ない、レーザーを揺らす、/、Led をオフまたは指で場所に触れる場所への彼らの注意を得る。
      3. 可能であれば、後で使用可能になるいくつかの場合よりも必要なキャリブレーション ポイントを取得します。
    3. 校正中に子供の体の位置が研究に使用される位置と一致することを確認します。
      1. たとえば、子供が立って後でいると予測される場合に子供が座っているときにキャリブレーション ポイントを収集しません。
      2. 子間の距離を確認し、キャリブレーション ターゲットが子供と調査の間に興味のある、地域間の距離のようです。
      3. 実験では、子どもはさらに離れているオブジェクトでは探して主に子供の体に非常に近いキャリブレーション ポイントを配置しないでください。1 つは近くと遠くの両方のオブジェクトに興味が場合は、キャリブレーション ポイントの 2 つの異なるセットを取得後、表示距離ごとにユニークな校正を作成する使用ことがでくことを検討してください (詳細についてはセクション 3.1 を参照)。
        注: 両眼の視線は、開発技術13,14約束進歩深さで視線を追跡します。
    4. 調査の間にドリフトや ET の動きに対応するため、最低でも研究の前後両方でキャリブレーション ポイントを収集します。可能であれば、セッション中に一定の間隔で追加のキャリブレーション ポイントを収集します。
  5. 調査の間に ET と 3 人のビデオ フィードを監視します。
    1. ET は、ぶつかったまたは他の動き/アクションによるずれを取得した場合における再調整し、別々 に、研究の部分をバンプ/ずれの前後にコードが必要になる場合がありますので、これが起こったときの注意してください (セクション 3.1.1 参照)。
    2. 可能であれば、シーン、目のカメラを (セクション 2.3 を参照してください)、位置を変更する各バンプ/ずれした後に研究を中断し、校正の新しいポイントを取得 (セクション 2.4 を見る)。

3. 調査の後のキャリブレーション ソフトウェアを使用して ET データを調整します。

注: 校正ソフトウェア ・ パッケージ各種市販されています。

  1. 複数のキャリブレーションを作成検討してください。ないアルゴリズムが正しく一致しないデータを供給することにより視線追跡の精度を最大化する別のビデオのセグメントにキャリブレーション ポイントをカスタマイズします。
    1. ET は、研究中にいつでも位置を変更した場合は、ET の位置の変更の前後に部分の独立した校正を作成します。
    2. 非常に異なる視聴距離でオブジェクトに注意に興味を持って、別のキャリブレーションの各視聴距離でオブジェクトが子が探しているビデオの一部を作成します。距離の表示の違いを心に留めておいてが非常の間子供の視覚的注意のシフトによって作成された可能性がありますを閉じて、遠くのオブジェクトを異なるもオブジェクトを基準にして子供の体の位置の変更、によってなど、立っている座っているからシフトします。
  2. 各校正を実行します。校正ポイント - ポイントを子供の視線はそのフレームの中に明確に指示された情景画像中のシリーズを作成してシーンと目間のマッピングを確立します。注校正ソフトウェアが推定でき、校正ポイント セットからすべてのフレームで視線 (POG) のポイントを均等に補間にまたがるシーンの画像。
    1. 目のカメラの特定の POG が信頼できることを確認する映像の各フレームで CR の瞳孔を検出のキャリブレーション ソフトウェアを支援します。確実に、一貫してソフトウェアが CR を検出できない場合、瞳孔だけ (ただし、データの品質は結果として苦しむこと) を使用します。
      1. ありますソフトウェアのさまざまな検出パラメーター調整のしきい値を調整することによって目のカメラ フレームに良い目画像を得る: 目の画像の明るさ、ソフトウェア瞳孔の大きさは期待してバウンディング ボックスを設定する、瞳孔をソフトウェアが検索する場所の境界。動きの目の完全な範囲を通してボックス内に瞳のまま確保しながら可能な限り小さく境界ボックスを描画します。瞳孔を決して占有スペースを含む大きいバウンディング ボックスが偽瞳孔検出の可能性が高くなるし、より少なく正確に検出する瞳孔の小さな動きを引き起こす可能性があります注意してください。
      2. 注意してください、ソフトウェアのさまざまな検出しきい値を調整した後でもソフトウェア可能性がありますまだ時々 正しくない瞳孔または検索 CR;例えば、まつげをカバー瞳孔場合。
    2. シーンと目のカメラ フレームに基づいて良いキャリブレーション ポイントを見つけます。ソフトウェアに提供される最高の校正ポイントが、瞳孔と CR が正確に検出された目は安定した情景画像の領域で明確に識別できる点に釘付けになったし、ポイントは全範囲にわたって均等に分散しているものであることに注意してください。シーン画像。
      1. 瞳孔検出がキャリブレーション ポイントがプロットされます各フレームの正確なアルゴリズムに与えられる有効な x と y のシーンの座標と有効な瞳孔座標の両方いることを確認します。
      2. 校正で最初のパスの間に子はこの情景画像から明確な点に明確を見て瞬間にキャリブレーション ポイントを識別します。レーザー ポインターのインスタンスでデータ収集中実験者によって意図的に作成されたポイントをすることができますこれらを覚えておいて (図 3A Bを参照)、または、POG で簡単に識別できる (参照研究からポイントをすることができます図 3C) 瞳孔がそれらのフレーム正確に検出されない限り、します。
      3. さらに極端な x と y のシーン画像座標に視線の瞬間を見つけるために子供の目がその最も極端な x と y の位置にあるときに正確な瞳孔検出との瞬間を見つける目カメラ フレームをスキャンできます。
    3. 各校正可能な最も正確な校正に繰り返し磨きをかけるため複数の「パス」を行います。最初の「パス」を修了すると校正で、多くのソフトウェア プログラム (例えば十字) の現在のトラックを失うことがなく以前使用されるポイントの削除を許可するに注意してください。前の校正パスは、徐々 に、徐々 に「クリーンアップ」任意のノイズ校正精度を上げることによって生成された POG トラックの追加援助ですが最初からアルゴリズムを訓練するキャリブレーション ポイントの新しいセットを選択または以前の実行で発生した誤差。
  3. どれだけ、POG、校正中にレーザー ポインターで、ドットなどの知られている視線の場所に対応し、方向と子供のサッケードの大きさを反映して観察することによって校正の品質を評価します。校正プロセス中にポイントとしても使用された校正品質を評価するためにポイントを使用しないでください。
    1. 子どもの頭と目は、揃えられる、子供の視覚的注意は情景画像の中心に向かって監督多いと正確なトラックがこれが反映されますので、それを覚えています。キャリブレーションにより生成される映像のフレーム単位で x と y POG 座標をプロットし、トラックの中心を評価する (図 4を参照)。ポイントが最もシーンの画像の中心部に密なシーンのカメラは子供の視野の最初に配置するときの中心にありませんの場合を除き、対称的に分散であることを確認します。
    2. 校正精度を反映して線形・射影変換のフィット スコアいくつかのキャリブレーション ソフトウェアを生成することに注意してください。これらのスコアがある程度役に立つので、彼らが悪い場合、トラックもする可能性が貧しいことを念頭にしてください。しかし、彼らは、POG の地上真実の場所にこれらの点のフィットについての情報を提供しない、自分で選択した校正ポイントに同意する度合いを反映して校正精度の尺度としてフィット スコアを使用しません。
    3. 視線の先が、簡単に識別したがって、地上真実として使用することができます研究の瞬間があることに注意してください。知られている視線ターゲットと POG の十字間の誤差を測定することによって視角の精度を計算 (ビデオ画像からピクセル単位でエラー約に変換できるシーンのカメラのレンズ特性に基づく度)4

4. コード領域 (ROIs)。

注: POG データ子は、視覚的に、時間の特定の瞬間の間に出席しているどのような領域を決定するための評価である ROI 符号化します。ROI が記述されているフレームで POG データから高解像度と高精度です。このコードの出力は時間をかけて POG の領域を指定するデータ ポイント - ビデオ フレームごとの 1 つのポイント - のストリーム (図 5を参照)。

  1. ROI 符号化を開始、する前に研究の質問に基づいてコーディングする必要がありますすべての Roi のリストをコンパイルします。注意して、不必要に時間がかかるコーディングになります質問を研究に答える必要ない・ ロワをコーディングします。
  2. ROI 符号化の原則。
    1. 成功したコーディングがコーダーの子を探してと代わりに各フレームの目の画像、風景画像、計算 POG を慎重に調べるべきである仮定を放棄を要求することに注意してください。たとえば、オブジェクトは子によって開催されている、特定のフレームの映像が非常に大きい、場合でもを推論しないこと、子供が見てそのオブジェクトその瞬間も目の位置による指示がない限り。・ ロワが地域、子は子完全な視覚情報をキャプチャされませんが、foveating を示すことに注意してください。
    2. 投資収益率を視覚的に出席されている決定するのに目の画像、風景画像、POG トラックを使用します。
      1. ガイドとして、地上ではなく POG トラックを使用します。理想的には POG トラックは明らかに見つめた時に各フレームのための子供によって正確な場所を示す、けれども、子どもが閲覧する現実の世界の 3 D の自然に対する情景画像の 2 次元 (2 D) 性質のためケースを常にはないこれを注意d と参加者間の校正精度の変化。
        1. 計算の POG トラックがキャリブレーション アルゴリズムに基づく推定値であり、この特定のフレームの POG トラックの信頼性がどれだけ瞳孔と CR が検出されたに依存したがってことを覚えています。いずれかまたは両方が検出されないまたはが正しくありません、POG トラックは信頼性の高いできません。
          注: 十字があります一貫してオフのターゲット固定距離で。新しいソフトウェアは、この不一致を修正計算する 1 つをすることが。そうでなければ、訓練を受けた研究者は手動で補正を行うことがあります。
      2. 投資収益率を変更可能性があります第一次手掛りとして目の画像の瞳孔の動きを使用します。
        1. 目の画像を見て一つ一つのフレームをスクロールします。目の見える動きが発生すると、子供は新しい投資収益率、ない定義された投資収益率、POG、シフトかどうかチェックしてください。
        2. すべての眼球運動が投資収益率の変化を示すことに注意してください。心に留めておいて、投資収益率は、空間 (例えば、間近のオブジェクト) の大規模な領域を構成する場合、小さな目の動きは、同じ ROI 内の新しい場所に外観を反映可能性があります。同様に、子供が単一移動 ROI を追跡または動いている子供として自分の頭も同じ ROI に視線を維持するために彼らの目の動き、眼球運動が発生することに注意してください。
        3. 注意: いくつかの ETs と目の画像は子供の目のミラー イメージの場合目がシーンで右へのシフトに対応する左に移動する場合。
    3. POG のトラックをガイドとしてのみ提供しています、ためコーディングの決定を導くために同様に使用可能なコンテキスト情報の使用します。
      1. ROI をコーディングするときは、さまざまなソースまたはフレームからの情報を統合します。にもかかわらず、投資収益率は、フレームごとに別々 にコーディングされている、正しい投資収益率を決定する際に役立つコンテキスト情報を得るために現在のフレームの前後フレームを利用します。例えば、POG トラックが不在または不正確貧しい瞳孔検出のための特定のフレームの目は、瞳孔が正確に検出された先行/後続フレームに基づくを移動しなかった場合、そのフレームの POG トラックを無視し、ROI ba のコード周囲のフレームにセッド。
      2. ユーザーの研究の質問の特定の他の決定を行います。
        1. たとえば、2 ・ ロワが互いに近くに ROI をコーディングする方法のためのプロトコルを作るにはそれは「正しい」投資収益率を決定することは困難することができます。子供が 2 つ・ ロワの交差点にある表示の場合、同時に両方の Roi をコードするかどうかまたは選択して投資収益率カテゴリの 1 つだけを割り当てる方法の意思決定ルールのセットを作成するかどうかを決定します。
        2. 他の例として興味の対象は、手はオブジェクトを遮蔽するように格納されている場合は、手の投資収益率、または保持されたオブジェクトの ROI として、POG をコードするかどうかを決定します。
  3. 信頼性のための投資収益率のコードします。コーディング プロシージャ プロトコルをコーディング初期投資収益率が完了した後信頼性を実装します。利用可能な信頼性コーディング プロシージャのさまざまな種類があります。具体的な研究の質問に基づいて最も関連するプロシージャを選択します。

結果

ここで説明する方法は、幼児とその親との間の自由に流れるグッズ プレイ コンテキストに適用されました。研究は、雑然とした環境で自然な視覚的注意を調査するため設計されました。母子は、6 分間 24 おもちゃのセットを自由に指示されました。発症を符号化することによる幼児の視覚的注意を測定し、特定のオフセットに見える各 ROI に興味 (ROIs)--24 おもちゃや...

ディスカッション

このプロトコルは、基本理念と幼児および幼児の頭に取り付けられた視線を実装するための実用的な推奨事項を提供します。このプロトコルは、実験室のおもちゃで親幼児無料ゲームのコンテキストで自然な幼児行動に関する研究に基づいていた。社内の視線追跡装置とソフトウェアは、キャリブレーション、データ符号化のため使用されました。それにもかかわらず、このプロトコルは、?...

開示事項

著者は、競合または競合する利益があるないことを宣言します。

謝辞

この研究は、国立衛生研究所の助成金 R01HD074601 (確報)、T32HD007475-22 (J.I.B.、D.H.A.)、F32HD093280 (L.K.S.); によって賄われていた全米科学財団許可 BCS1523982 (L.B.S.、確報)新興地域研究イニシアチブ - インディアナ大学で学習: 脳、マシン、および子供 (L.B.S.)。著者は、この研究に参加したと数字で使用され、このプロトコルの撮影をすることに合意した子供と親のボランティアをありがとうございます。また、開発と、このプロトコルをホーニングに彼らの支援のため特にスヴェン ・動物、安亭陳スティーブン Elmlinger、セス ・ フォスター、グレース Lisandrelli、シャーリーン テイ計算認知と学習の研究室のメンバーを申し上げます。

資料

NameCompanyCatalog NumberComments
Head-mounted eye trackerPupil LabsWorld Camera and Eye Camera

参考文献

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M., Knoors, H., Marschark, M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. , (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. . Eye tracking: A comprehensive guide to methods and measures. , (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M., Hopkins, B., Geangu, E., Linkenauger, S. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. , 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R., Hopkins, B., Geangu, E., Linkenauger, S. Eye tracking. The Cambridge Encyclopedia of Child Development. , 97-101 (2017).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

141

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved