JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

We describe how to implement a battery of behavioral tasks to examine the processing and integration of sensory stimuli in children with ASD. The goal is to characterize individual differences in temporal processing of simple auditory and visual stimuli and relate these to higher order perceptual skills like speech perception.

要約

社会的コミュニケーションと制限された関心や反復行動の存在下での障害に加えて、感覚処理の欠損は、現在自閉症スペクトラム障害(ASD)の中核症状として認識されている。知覚と外部世界と対話する当社の能力は、感覚処理に根ざしている。たとえば、会話を聞いてスピーカー(発話内容、韻律、構文)だけでなく、関連した視覚情報(顔の表情、ジェスチャー)から来る聴覚手がかりを処理することを伴う。総称して、より良い理解における情報の結果、これらの多感覚( すなわち 、組み合わせた視聴覚)個の「統合」。このような多感覚統合は、対になった刺激の時間的関係に強く依存することが示されている。したがって、時間的に近接して発生する刺激は、行動と知覚利点をもたらす可能性が高い - を反映すると考えられてゲインこれら二つの刺激が同じソースから来た可能性の知覚システムの判断。この時間積分の変化が強く知覚のプロセスを変更することが期待され、正確に認識すると私たちの世界と相互作用する能力を低下させる可能性があるされている。ここでは、ASD児における感覚及び多感覚時間的処理の様々な局面を特徴づけるために設計されたタスクの次電池について説明する。自閉症におけるその有用性に加えて、この電池は、他の臨床集団における感覚機能の変化、ならびに寿命全体で、これらのプロセスの変化を調べるために使用さを特徴付けるための大きな可能性を秘めている。

概要

伝統的な神経科学の研究は、多くの場合、個々の感覚モダリティに着目して知覚を理解近づいた。しかし、環境は一見楽な方法で、世界の統一された知覚ビューに統合されている感覚入力の広い配列で構成されています。我々はそのような豊かな多感覚環境に存在するという事実は、我々はより良​​い脳は違う感覚システム間で情報を結合する方法を理解している必要があります。この理解の必要性はさらに感覚情報の複数の部分の存在は、多くの場合、行動および認知1-3の大幅な改善をもたらすという事実によって増幅される。例えば、観察者がスピーカの唇の動き4-7を見ることができれば、ノイズの多い環境で音声を理解する能力の大幅な向上(信号対雑音比で最大15 dB)が存在する。

その大きな要因の一つ異なる感覚入力を組み合わせて統合されている方法に影響を与えることは、それらの相対的な時間的近接である。 2知覚合図が時間的に近接して発生した場合、共通の起源を示唆している時間的な構造は、それらが行動と知覚8-12の変化によって証明されるように一体化される可能性が高い。行動と知覚応答に関する多感覚時間構造の影響を調べるための最も強力な実験的なツールの一つは、同時性の判断(SJ)タスク13〜16である。そのようなタスクでは、多感覚( 例えば、視覚と聴覚)刺激は客観的に同時に至るまで、様々な刺激開始の非同期性(のSOA)でペアになっている( すなわち 、0ミリ秒のオフセットが時間的な)非常に非同期( 例えば 、400ミリ秒)にし。参加者は、簡単なボタンを押し経由で同時またはしないなどの刺激を判断するように求められます。視覚と聴覚刺激が100ミリ秒以上のSOAので提示されていてもそのようなタスクでは、被験者はペアと報告している試験の大部分での同時だった。 2つの入力が発生すると同時に発生するものとして認識されている確率が高いが、時間的な結合窓(TBW)17-19としても知られて持つことができる時間のウィンドウ。

それは私たち19の周りの世界の統計的な規則性を表すようにTBWは、非常に動物行動学構築物である。 「ウィンドウ」とは、共通の起源のイベントの仕様のための柔軟性を提供します。 (物理的および神経の両方)は、異なる伝播時間が異なる距離で生じる刺激はまだ互いに「結合」であるために可能にするもの。 TBWは確率的構築物があるものの、このウィンドウのサイズを拡張(または縮小)の変更は、カスケードと知覚20,21上の潜在的に有害な影響を与える可能性がある。

自閉症スペクトラム障害(ASD)は、古典的にoを診断された神経発達障害であるnの社会的コミュニケーションの欠損の基礎と制限された関心や反復行動22の存在。また、など、最近DSM-5に体系化、ASDを持つ子どもたちが頻繁に感覚刺激に対する反応の変化を示す。そうではなく、単一の意味に限定されるものではなく、これらの赤字は、多くの場合、聴覚、触覚、バランス、味とビジョンを含む複数の感覚を包含する。そのような「多感覚」プレゼンテーションとともに、ASDを持つ個人は、多くの場合、一時的な領域の欠損を示す。まとめると、これらの観察は、多感覚の時間的機能を優先自閉症17,23-25 ​​に変更され得ることを示唆している。 ASDにおける変化した感覚機能の景色と調和するが、多感覚時間的機能の変化は、社会とコミュニケーション機能のための多感覚刺激の迅速かつ正確な結合の重要性を与えられた、ASDにおける社会的コミュニケーションの欠損に重要な貢献である。として取るnは、例えば、音声交換は、前述した重要な情報は、聴覚および視覚モダリティの両方に含まれている。実際、これらのタスクは、自閉症26-28と高機能子供の多感覚TBWの幅の有意差を実証するために使用されてきた。

により正常な知覚機能、そのような社会的コミュニケーション(および他の認知能力)などの高次処理のためのその潜在的な影響、およびその臨床的関連性のためにその重要性に、ASDの小児における多感覚時間的機能を評価するために設計されたタスクのバッテリーが記載されている。

プロトコル

倫理声明:すべての被験者は実験前にインフォームドコンセントを提供する必要があります。ここで説明する研究はヴァンダービルト大学医療センターの施設内倫理委員会によって承認されています。

1.実験のセットアップ

  1. 薄暗い、音制御室での作業を完了するよう参加者に依頼。
    注:研究デザインの一部として視覚的なスケジュール29,30の実装検討。このバッテリーの各タスクが比較的短いですが、行のいくつかのタスクを実行すると、一般的な開発(TD)とし、ASDの両方、いくつかの子供たちに疲労を引き起こす可能性があります。視覚的なスケジュールは、すべての計画された活動(両方のタスクおよび聴覚/視力検査)だけでなく、タスク間の短い休憩を含める必要があります。この構造は、参加者の全体的な正の研究経験に貢献し、さらにいくつかのタスク31に、より正確な応答を誘発することが示されている。
  2. タスクを完了しながら、参加者が参加者から60センチメートル離して配置コンピューターのモニターで、座ってテーブルに顎当てを貼っ。これは刺激が各参加者のために同じ強度であることを確認することです。聴覚刺激送達のためのノイズキャンセリングヘッドフォンやスピーカーを使用してください。
  3. 個々の実験プラットフォームの違い(サウンドカード、グラフィックスカード、オペレーティングシステムなど )により、刺激持続時間を確認し、実験のために、各コンピュータ上のオシロスコープ、光電池、およびマイク発症の非同期(のSOA)を刺激。
    注:刺激提示のタイミングが正確であるように、個々のプラットフォームに応じて(例えば、遅いサウンドカード)、実験コードへの調整を行います。

2.刺激

  1. 500 Hzから千Hzの - (3ミリ秒までのランプとランプダウン2を含む)16ミリ秒の持続時間が2 .WAVまたは.MP4ファイルを生成します。して行いますトーンの終わりにランプダウンが続く完全な振幅まで徐々にランプアップと所望の周波数の正弦波を指定する。聴覚ファイルとして正弦波を保存します。それは60デシベルで再生されていることを確認する音圧レベル計で各トーンの音量をテストする。スピーカーは聴覚刺激を提示するために使用している場合は、音が離れて(参加者が座るん)画面から60センチメートルでテストする必要があります。ヘッドフォンを使用する場合は、それぞれのヘッドフォンに直接次の体積を測定。
    注:標準の音量でコンピュータを維持し、それに応じて、刺激またはオーディオ編集プログラムを生成するために使用されるコードを調整することにより、音のボリュームを調整することが容易である。
  2. どちらの実験コードフラッシュのサイズと位置を指定することによって、または黒い背景と固定十字線を中心に白い輪のJPEGまたはビットマップ画像を生成し、適切な時間に表示することによって視覚刺激を作成する。時間を設定実験コード内の16ミリ秒の視覚フラッシュの。
  3. フレームの中央にスピーカーで最大肩から真っ白な背景に、静かな部屋の中でネイティブスピーカーによる録音音声の刺激。利用可能な最高解像度のビデオカメラで映像刺激を記録します。あるいは、所望であれば、公的に利用可能な刺激ビデオを利用することができる。
    注:ビデオと音節「BA」と「GA」を言って話者の音声がこの実験のために必要とされる。
    1. すべてのビデオ編集プログラムを使用して、各トラックの聴覚コンポーネントをエクスポートして、独立した.wavファイルとして保存します。エクスポート設定ウィンドウに行くことによってこれを行いますと「フォーマット」ドロップダウンメニューから "WAVオーディオファイル」を選択します。 「エクスポートオーディオ」を確認し、[エクスポートの設定]ウィンドウの下部に「エクスポート」をクリックします。
    2. 次に、各トラックのANのビジュアルコンポーネント( すなわち、サイレントビデオ)をエクスポート別々の.aviファイルとして保存dは。エクスポート設定ウィンドウに行くことによってこれを行いますと「フォーマット」ドロップダウンメニューから「非圧縮AVI」を選択します。 「エクスポートビデオ」を確認し、[エクスポートの設定]ウィンドウの下部に「エクスポート」をクリックします。
    3. 最後に、「GA」トラックの聴覚コンポーネントを削除し、マガーク刺激を作るために「BA」トラックの聴覚部品と交換してください。これを行うには、この場合「ga_VOnly.avi」で、「ソース」を選択して、ビデオソースとしてにデスクトップから「.AVI」ファイルを選択します。同様に他のビデオ "ba_Aonly.avi」を選択します。プログラムシーケンスメニューで、ビデオ(V1)「ビデオ1」ソースは "ga_VOnly.avi」で、オーディオ(A1)"オーディオ1 "ソース"がba_Aonly.avi」であることを確認してください。視覚刺激「GA」の発症が一時的に聴覚STIと整合していることを確認しますmulus「BA」。
      注:それは視聴覚「BA」とマガーク刺激間の唯一の違いは、ビデオ·コンポーネントであるように聴覚刺激が視聴覚と聴覚のみ刺激(だけでなく、同じ音節)の両方で完全に同じ記録であることが重要です。これは、1つは、適切な比較は、知覚、聴覚音節上の視覚刺激の影響を調べるために作ることができるようになります。

3.タスクバッテリー

注:このタスクは、すべての参加者が理解し、実験者から口頭指示に従うことができることが必要です。

  1. すべての参加者が試験前に簡単なスクリーニングを行うことにより正常な視力を持っていることを確認してください。 20フィートでスネレン視力検査表を使用し、(参加者が開いた両目で刺激を閲覧される)開いた両眼でそれぞれの行を読み取るために、参加者に依頼。その部分の最低ラインを記録しますicipantsは正確に視覚刺激を報告している。参加者は20/40ビジョンやより良いを持っている必要があります。
  2. すべての参加者は、500で千、2000、および各耳で4000 Hzの聴力しきい値をテストすることにより、通常の聴覚を持っていることを確認してください。聴覚検査は聴力測定器との健全な制御された部屋で完了する必要があります。
    1. 参加者のしきい値を検索するには、彼らが音を検出するたびに、彼らの手を上げるために、参加者に指示する。 35デシベルから始まる右耳に送られたパルス500 Hzのトーンを再生し、5 dBステップで音量を下げる。参加者がもはやトーンを検出すると、最低の知覚音量を検証5 dBステップで音量を上げない。各周波数でこの手順を繰り返し、その後、左耳内のすべてのトーン周波数を繰り返します。参加者は20デシベル以下のしきい値を持つ必要があります。
  3. 参加者は、標準化とIQと受容言語スキルの両方を測定することによって、理解し、口頭指示に従うことができることを確認試験前に神経心理学的措置。参加者は、70以上の測定されたIQを持っている必要があります。所望であれば、追加の神経心理学的試験は、この時点で完了することができる。

4.同時性判定(SJ)

注:SJタスクは二つの代替強制選択タスク(2-AFC)であり、様々なSOAを(視覚、正=視覚的な進行聴覚の前の負=聴覚)で発表された視覚的なリングと1,000Hzの聴覚トーンで構成され、ランダムな順序で提示。

  1. TBW(典型的な刺激セットの全幅の正確な測定を得るためにかなり大規模のSOA(少なくとも-400に400ミリ秒)を含めるようにしてください:-400、-300、-200、-150、-100、 - 50、0、50、100、150、200、300、400ミリ秒SOA)。参加者間でタスクを簡単に比較できます各参加者のためのSOAの同じセットを使用してください。正確な見積もりの​​ためにSOAあたり20試行の最小値を提示。タスクは、約1取り5から20分で完了します。参加者の疲労を軽減するために、短い休憩ごとに100回の試行を提供します。
  2. フラッシュとビープ音を観察し、そのタスクはフラッシュとビープ音が同時にまたは異なる時間に発生したかどうかを決定することであることを説明するために参加者に指示します。刺激は異なる時刻に発生した場合、刺激が同時に発生した場合は、テンキーの「1」を押して参加者に指示し、または「2」。
    注:レスポンスボックスが利用可能である場合、これはまた、応答を収集するために使用することができる。各試行後に応答画面上でこれらの同じ命令を含む。
  3. 別の代替として視覚と聴覚の音声トークンとフラッシュとビープ音が同じタスク命令で同じのSOAで(「BA」を広口と「BA」を表明)と現在(「同時または異なる時間?」)。このように、複雑さ、および個々の対象内のソーシャルコンテンツに変化する刺激のためTBWを比較27。

5.時間的順序判断(TOJ)

注:聴覚TOJタスクは、聴覚処理の一時的な視力を検査するために使用される2-AFCタスクです。視覚的TOJタスクは視覚処理の時間的な視力を検査するために使用される2-AFCタスクです。多感覚TOJタスクはオーディションとビジョン全体に一時的な視力を検査するために使用される2-AFCタスクです。完了するために15分 - 各タスクには、約10かかります。

  1. 聴覚TOJのタスクでは、様々な遅延で発表2回のビープ音(500 Hzから千ヘルツ)に耳を傾け、より高いトーンが低い音が "2"最初のまたはを押して再生される場合は、「1」を押して参加者に依頼する参加者に指示最初に再生されます。ランダムな順番で各SOAの20試験を提示。
    注:SJタスクと比較すると、unisensory聴覚と視覚の時間的順序の変更のどの認知上のSOAのはるかに小さいダイナミックレンジがあり、そのための-250、-200、-150、-75、-50、-35、-20、-10、10、20、35、50、75:eは小さいのSOAがより強く表現される刺激セット(典型的な刺激セットを使用高い音を進めるネガティブ=高いトーン低いトーンの前に、ポジティブ=低いトーン、150、200、250ミリ秒SOA、)unisensory TOJタスクの。
  2. 視覚的TOJのタスクでは、様々な遅延で二つの円(中央固定十字線の上下)を観察し、底円が表示された場合、一番上の円が最初のまたはを押して「2」と表示された場合に「1」を押して参加者に依頼する参加者に指示最初。ランダムな順番で各SOAの20試験を提示。
    注:このタスクでは、負のSOAは、トップサークルが発表された第一と正のSOAは、底円が最初に提示されたことを示していることを示している。
  3. 視聴覚のTOJのタスクでは、小さな中央のフラッシュを観察し、様々な遅延でのシングルトーン(1,000ヘルツ)に耳を傾け、参加者tを聞いて参加者に指示ビープ音が提示された場合は、Oプレス「1」は、最初の押すか "2"フラッシュが最初に提示された場合。ランダムな順番で各SOAの20試験を提示。
    注:視聴覚TOJの精度がunisensory聴覚TOJと視覚TOJの作業に比べて一般的にはるかに悪いです。 -300、-250、-200、-150、-100、-80、-50、-20、0、20、50、80、:これはunisensory TOJタスク(典型的な刺激セットに比べてのSOAのより広い範囲を必要とする100、150、200、250、300)。このタスクでは、負のSOAは、聴覚が最初に発表された、正のSOAは、視覚が最初に提示されたことを示したことを示している。
    NOTE:SJタスクと同様に、TOJタスクは刺激の複数種にわたって時間的処理を調べるために適合させることができる。ここでTOJタスクは、単純な刺激(聴覚ビープ音と視覚的な点滅)に完成したが、これは音声と生物学的な運動24のような他の刺激対を見るために拡張することができます。
TLE "> 6。マガークタスク

注:マガークの錯覚は、音節「BA」の聴覚記録とペアになって、視覚的音節「GA」の映像で構成されています。多くの被験者は実際に視覚と聴覚音節を融合し、音節「ダ」または「THA」32として、このペアを知覚します。

  1. 別の音節を観察し、彼らは、知覚音節を報告するよう参加者に依頼する参加者に指示します。 1ブロック現在20試験では、ランダムな順序でunisensory音節(聴覚のみ音節(A-「BA」、A-「GA」)とビ​​ジュアルだけ音節(V-「BA」、V-「GA」)のそれぞれ。で第二ブロック、現在の20試行視聴覚音節の各(AV-「BA」、AV-「GA」、およびA-「BA」/ V-「GA」マガーク刺激)ランダムな順序で。押して参加者へ質問に対応したキーボードの手紙知覚音節(「BAの記者B、GAの記者グラム、DAのためのdボタンを押して、THAの記者T ")。完了するために10分の合計 - このタスクは、約5かかります。
  2. より保守的な見積もりは、参加者が大声で、知覚音節を報告し、応答が実験者によって記録されているオープンな応答形式33で構成されています。

結果

このタスクのバッテリーはASD 17,18,23,27とない個体では時間的処理の個人差を測定する際に非常に成功したことが判明している。 SJタスクについては、第一の主題は、「同期」応答し、その後、ガウス曲線で得られた応答曲線をフィッティングする各SOAにおける応答の割合を計算することによって、各個々の被験者から得られたデータをプロットする。 図1Aに示されている...

ディスカッション

原稿は、感覚と多感覚システム研究に時間的処理と視力を評価するために使用される心理物理タスク電池の要素について説明します。バッテリーは集団の数の幅広い適用性を有しており、典型的な成人18、子供10,39に視聴覚一時的な性能を特徴付けるために、私たちの研究室が使用していた、と自閉症17,23の小児および成人では。また、27を解析し、現在の言語...

開示事項

The authors declare that they have no competing financial interests.

謝辞

This research was supported by NIH R21CA183492, the Simons Foundation, the Wallace Research Foundation, and by CTSA award UL1TR000445 from the National Center for Advancing Translational Sciences.

資料

NameCompanyCatalog NumberComments
Oscilloscope
Photovoltaic cell
Microphone
Noise-cancelling headphones
Chin rest
Audiometer

参考文献

  1. Calvert, G. A., Spence, C., Stein, B. E. . Handbook of Multisensory Processes. , (2004).
  2. Stein, B. E., Meredith, M. A. . The Merging of the Senses. , 224 (1993).
  3. King, A. J., Calvert, G. A. Multisensory integration: perceptual grouping by eye and ear. Curr Biol. 11 (8), R322-R325 (2001).
  4. Stevenson, R. A., James, T. W. Audiovisual integration in human superior temporal sulcus: Inverse effectiveness and the neural processing of speech and object recognition. NeuroImage. 44 (3), 1210-1223 (2009).
  5. MacLeod, A., Summerfield, A. Q. A procedure for measuring auditory and audio-visual speech-reception thresholds for sentences in noise: rationale, evaluation, and recommendations for use. Br J Audiol. 24 (1), 29-43 (1990).
  6. Sumby, W. H., Pollack, I. Visual Contribution to Speech Intelligibility in Noise. J. Acoust. Soc. Am. 26, 212-215 (1954).
  7. Bishop, C. W., Miller, L. M. A multisensory cortical network for understanding speech in noise. J Cogn Neurosci. 21 (9), 1790-1805 (2009).
  8. Stevenson, R. a., Wallace, M. T. Multisensory temporal integration: task and stimulus dependencies. Exp Brain Res. 227 (2), 249-261 (2013).
  9. Colonius, H., Diederich, A., Steenken, R. Time-window-of-integration (TWIN) model for saccadic reaction time: effect of auditory masker level on visual-auditory spatial interaction in elevation. Brain Topogr. 21 (3-4), 177-184 (2009).
  10. Hillock, A. R., Powers, A. R., Wallace, M. T. Binding of sights and sounds: age-related changes in multisensory temporal processing. Neuropsychologia. 49, 461-467 (2011).
  11. Wallace, M. T. Unifying multisensory signals across time and space. Exp Brain Res. 158 (2), 252-258 (2004).
  12. Alais, D., Newell, F. N., Mamassian, P. Multisensory processing in review: from physiology to behaviour. Seeing Perceiving. 23 (1), 3-38 (2010).
  13. Conrey, B., Pisoni, D. B. Auditory-visual speech perception and synchrony detection for speech and nonspeech signals. J Acoust Soc Am. 119 (6), 4065-4073 (2006).
  14. Stevenson, R. A., Fister, J. K., Barnett, Z. P., Nidiffer, A. R., Wallace, M. T. Interactions between the spatial and temporal stimulus factors that influence multisensory integration in human performance. Exp Brain Res. 219 (1), 121-137 (2012).
  15. Wassenhove, V., Grant, K. W., Poeppel, D. Temporal window of integration in auditory-visual speech perception. Neuropsychologia. 45 (3), 598-607 (2007).
  16. Eijk, R. L. J., Kohlrauch, A., Juola, J. F., Van De Par, S. Audiovisual synchrony and temporal order judgments: Effects of exerpimental method and stimulus type. Percept Psychophys. 70 (6), 955-968 (2008).
  17. Foss-Feig, J. H. An extended multisensory temporal binding window in autism spectrum disorders. Exp Brain Res. 203 (2), 381-389 (2010).
  18. Stevenson, R. A., Zemtsov, R. K., Wallace, M. T. Individual differences in the multisensory temporal binding window predict susceptibility to audiovisual illusions. J Exp Psychol Hum Percept Perform. 38 (6), 1517-1529 (2012).
  19. Wallace, M. T., Stevenson, R. A. The construct of the multisensory temporal binding window and its dysregulation in developmental disabilities. Neuropsychologia. 64C, 105-123 (2014).
  20. Hairston, W. D., Burdette, J. H., Flowers, D. L., Wood, F. B., Wallace, M. T. Altered temporal profile of visual-auditory multisensory interactions in dyslexia. Exp Brain Res. 166 (3-4), 474-480 (2005).
  21. Carroll, C. A., Boggs, J., O'Donnell, B. F., Shekhar, A., Hetrick, W. P. Temporal processing dysfunction in schizophrenia. Brain Cogn. 67 (2), 150-161 (2008).
  22. Kanner, L. Autistic Disturbances of Affective Contact. Nervous Child. 2, 217-250 (1943).
  23. Kwakye, L. D., Foss-Feig, J. H., Cascio, C. J., Stone, W. L., Wallace, M. T. Altered auditory and multisensory temporal processing in autism spectrum disorders. Front Integr Neurosci. 4, 129 (2011).
  24. Boer-Schellekens, L., Eussen, M., Vroomen, J. Diminished sensitivity of audiovisual temporal order in autism spectrum disorder. Front Integr Neurosci. 7, 8 (2013).
  25. Bebko, J. M., Weiss, J. A., Demark, J. L., Gomez, P. Discrimination of temporal synchrony in intermodal events by children with autism and children with developmental disabilities without autism. J Child Psychol Psychiatry. 47 (1), 88-98 (2006).
  26. Stevenson, R. A. Brief Report: Arrested Development of Audiovisual Speech Perception in Autism Spectrum Disorders. J Autism Dev Disord. 44 (6), 1470-1477 (2013).
  27. Stevenson, R. A. Multisensory temporal integration in autism spectrum disorders. J Neurosci. 34 (3), 691-697 (2014).
  28. Stevenson, R. A. Evidence for Diminished Multisensory Integration in Autism Spectrum Disorders. J Autism Dev Disord. 44 (12), 3161-3167 (2014).
  29. Hodgdon, L. Q., Quill, Q. A. . Teaching children with autism: Strategies to enhance communication and socialization. , 265-286 (1995).
  30. Bryan, L. C., Gast, D. L. Teaching on-task and on-schedule behaviors to high-functioning children with autism via picture activity schedules. J Autism Dev Disord. 30 (6), 553-567 (2000).
  31. Liu, T., Breslin, C. M. The effect of a picture activity schedule on performance of the MABC-2 for children with autism spectrum disorder. Res Q Exerc Sport. 84 (2), 206-212 (2013).
  32. McGurk, H., MacDonald, J. Hearing lips and seeing voices. Nature. 264, 746-748 (1976).
  33. Colin, C., Radeau, M., Deltenre, P. Top-down and bottom-up modulation of audiovisual integration in speech. European Journal of Cognitive Psychology. 17 (4), 541-560 (2005).
  34. Boer-Schellekens, L., Eussen, M., Vroomen, J. Diminished sensitivity of audiovisual temporal order in autism spectrum disorder. Front Integr Neurosci. 7 (8), (2013).
  35. Lenroot, R. K., Yeung, P. K. Heterogeneity within Autism Spectrum Disorders: What have We Learned from Neuroimaging Studies. Front Hum Neurosci. 7, 733 (2013).
  36. Irwin, J. R., Tornatore, L. A., Brancazio, L., Whalen, D. H. Can children with autism spectrum disorders 'hear' a speaking face. Child Dev. 82 (5), 1397-1403 (2011).
  37. Woynaroski, T. G. Multisensory Speech Perception in Children with Autism Spectrum Disorders. J Autism Dev Disord. 43 (12), 2891-2902 (2013).
  38. Magnotti, J. F., Beauchamp, M. S. The Noisy Encoding of Disparity Model of the McGurk Effect. Psychonomic Bulletin & Review. , (2014).
  39. Hillock-Dunn, A., Wallace, M. T. Developmental changes in the multisensory temporal binding window persist into adolescence. Dev Sci. 15 (5), 688-696 (2012).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

98

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved