JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

ここでは、ドメイン間の一時的な統計的パターンの子供の学習と感覚モダリティを調べることに向けた子供に優しい統計的学習タスクのセットを紹介するプロトコルです。開発されたタスクは、ウェブベースのプラットフォームとタスクベースの機能的磁気共鳴画像(fMRI)データを使用して行動データを収集し、統計的学習中の神経関与を調べる。

要約

統計的学習は、環境の規則性を抽出する基本的なスキルであり、多くの場合、第一言語開発の中核的な支援メカニズムと考えられています。統計的学習の多くの研究は単一のドメインまたはモダリティ内で行われますが、最近の証拠は、このスキルが刺激が提示される文脈に基づいて異なる可能性があることを示唆しています。さらに、学習の成果に焦点を当てて、リアルタイムで展開する学習を調査する研究はほとんどありません。本プロトコルでは、個人(言語的言語と非言語的)および感覚的モダリティ(視覚および聴覚)を越えて、統計的学習の認知的および神経基盤を特定するためのアプローチを記述する。このタスクは、参加者にできるだけ少ない認知需要を投げかけるように設計されており、若い学齢の子供や特別な人口に最適です。行動タスクのウェブベースの性質は、私たちが全国のより代表的な人口に到達し、より高い精度で効果サイズを推定し、オープンで再現可能な研究に貢献するユニークな機会を提供します。機能的磁気共鳴画像法(fMRI)タスクによって提供されるニューラルメジャーは、統計的学習中に関与する神経メカニズムと、ドメインまたはモダリティに基づいて個人間でどのように異なるかを研究者に知らせることができます。最後に、両方のタスクは、ターゲット刺激に対する反応時間の変化が露光期間にわたって追跡されるように、リアルタイム学習の測定を可能にする。このプロトコルを使用する主な制限は、実験の 1 時間の期間に関連します。子供たちは、複数の座り込みで4つの統計的学習タスクをすべて完了する必要があります。したがって、Web ベースのプラットフォームは、タスクを個別に配布できるように、この制限を念頭に置いて設計されています。この方法論により、ユーザーは、異なる発達背景を持つ子供たちのドメインとモダリティの間で、統計的学習のプロセスがどのように展開するかを調査することができます。

概要

統計的学習は、言語入力1におけるルール統治の組み合わせの獲得を支援する基本的なスキルです。乳児の統計的学習能力の成功は、後の言語学習の成功を予測する2,3.学齢の子供の統計的学習スキルのばらつきも語彙4読書5、66に関連付けられている。統計的学習における難しさは、言語障害の基礎となる1つの病因的メカニズムとして提案されている神経型と非定型の両方の集団における統計的学習と言語の結果との関連にもかかわらず、統計的学習の基礎となる認知的および神経メカニズムは依然として十分に理解されていない。さらに、以前の文献では、個人の中で、統計的学習能力は、ドメインとモダリティ66、8、98,9にわたって均一ではなく独立していることを明らかにしている。統計的学習能力の発達軌道は、ドメインおよびモダリティ10によってさらに異なる可能性がある。これらの知見は、開発過程を通じて複数のタスクにわたる統計的学習における個人差を評価することの重要性を強調している。しかし、まず、統計的学習と第一言語開発の関係について、より体系的な調査が必要です。これらの問題に対処するために、多数の子どもに到達するウェブベースの試験プラットフォーム11や、統計情報のリアルタイム符号化を調べる実験室ベースの神経イメージング技術(機能的磁気共鳴画像法、fMRI)を含む革新的な方法を適用する。

統計的学習の標準的な尺度は、慣れ親しんだ段階から始まり、2つの代替強制選択(2-AFC)タスク12、13,が続きます。慣れ親しんだ段階では、統計的規則性に埋め込まれた刺激の連続的な流れを導入し、いくつかの刺激は他のものよりも同時に起こる可能性が高い。これらの共起する刺激の提示は、一定の時間的秩序に従う。慣れ親しんだ段階で参加者は受動的にストリームにさらされ、その後に 2-AFC タスクが発生し、参加者がパターンを正常に抽出したかどうかをテストします。2-AFC精度タスクは、慣れ親しんだフェーズで参加者に提示されたシーケンス、もう1つのシーケンスは新規シーケンス、またはシーケンスの一部を含む2つの連続したシーケンスを示します。2-AFCのチャンス以上の精度は、グループレベルでの学習の成功を示します。統計的学習を評価する従来の行動タスクは、一般的に学習の結果尺度として精度に依存しています。しかし、正確さは、情報が時間内に展開する自然な学習を考慮に入れられなかった。リアルタイム学習の尺度は、子供たちが入力14、15、16,15から規則性をまだ符号化している間、統計的学習の暗黙の学習プロセスを活用するために必要です16。パラダイム全体にわたる様々な適応は、2-AFC尺度から離れて、露光16の間に行動応答を通してのオンライン学習の尺度に向けて開発された。露光段階で反応時間を測定するこれらの適応を利用した研究は、成人学習者18の精度と比較して、より良いテスト再テスト信頼性を有する学習後の精度17に関連していることを発見した。

言語学習が起こる暗黙のプロセスは、言語が19を学んだ後に使用されるものとは異なる神経資源を募集する可能性が高いので、神経対策は時間の経過とともに学習がどのように展開されるかについての私たちの理解の基礎でもあります。神経対策はまた、特別集団20を介して言語能力の基礎となる認知専門性の違いに関する洞察を提供する。fMRI研究における条件のコントラストの設計は、学習中の神経活性化パターンをどのように解釈する上で非常に重要です。一般的な方法の 1 つは、通常のパターンを含むシーケンスとランダムに順序付けられた同じ刺激を含むシーケンスの間で、慣れ親しんだ段階での脳応答を比較することです。しかし、このようなランダム制御条件を実施する以前の研究では、構造化された配列とランダム配列の間の神経の違いにもかかわらず、行動を学習するための証拠は見つからなかった。これは、両方とも同じ刺激21,22,22から構築されたために、構造化された配列の学習におけるランダム配列の干渉が原因である可能性がある。制御条件として後方音声または以前の学習ブロックを利用した他のfMRI研究は、学習が行動的に行われた19,23,23であった。しかし、これらのパラダイムはそれぞれ、前者の場合に対する言語処理の効果や後者の場合の実験順序の効果など、独自の交核要因を導入した。私たちのパラダイムは、ランダムシーケンスを制御条件として使用しますが、構造化されたシーケンスの参加者の学習に対する干渉を軽減します。私たちのfMRIパラダイムはまた、一過性の試行関連および持続的なタスク関連のBOLD信号24の同時モデリングを可能にする混合ブロック/イベント関連の設計を実装しています。最後に、より広く、神経対策は、明示的な行動応答を引き出すのが困難である可能性がある集団における学習の測定を可能にする(例えば、発達および特別集団)25。

現在のプロトコルは、従来の精度測定に加えて応答時間測定を採用し、慣れ親しんだ段階で脳の活性化を調べます。これらのメソッドの組み合わせは、リアルタイムの学習プロセスの調査のための豊富なデータセットを提供することを目的としています。Webベースのプラットフォームは、暴露フェーズ中の応答時間とテストフェーズ中の2-AFCタスクの精度の両方を含めることによって、一連の学習手段を提供します。ニューロイメージングプロトコルは、ドメインとモダリティを越えた統計的学習をサポートする基礎となる神経メカニズムの調査を可能にします。WebベースとfMRIプロトコルの両方を使用して個人内の統計的学習を測定することが最適ですが、タスクは独立して普及できるように設計されており、したがって、統計的学習の2つの独立した尺度として設計されています。現在のプロトコルに含まれるfMRI実験は、刺激符号化、パターン抽出、および統計的学習の他の構成要素が特定の脳領域およびネットワークによってどのように表されるかを明らかにするのに役立つ。

プロトコル

参加者全員が参加に書面による同意を与え、研究は機関審査委員会に従って行われました。

1. ウェブベースのプロトコルで利用される統計的学習パラダイムの概要

  1. 現在のパラダイムには、画像(視覚非言語的)、文字(視覚言語)、トーン(聴覚非言語的)、音訳(聴覚言語)の4つのタスクが含まれます。
    1. 12スタンドアロンエイリアン漫画画像(画像)と12文字の画像(文字;)B、J、K、A、H、C、F、E、J、G、D、M)は、大文字が書かれた12の看板を掲げている同じエイリアンを示す。
    2. 12英語音節(音節;pi,pu,pa,ti,tu.ta,di,du,da,bi,bu,ba)と12の音楽的トーンを同じオクターブ内(トーン;音) で構成する聴覚刺激;F,G,D,G#,C#,B,C,F#,D#,E,A,A#).音読性刺激は人工音声シンセサイザーを使用して行うことができる、とPraat26、27,27で別々のファイルとして記録することができます。
  2. 慣れ親しんだ段階では、構造化されたストリームに刺激を提示します( 図1を参照)。フィードバックは、慣れ親しんだ段階またはテストフェーズ中のどの時点でも提供されません。
    注: 各タスクでは、慣れ親しんだフェーズの直後にテスト フェーズが続きます。
    1. イメージ (視覚的非言語的) タスクの場合、12 個のイメージを 4 つのターゲット三つ子に構成します。慣れ親しんだ段階では、合計96個の三つ子について、4つのターゲット三つ子をそれぞれ24回繰り返します。
      注: 96 の三つ子は連続ストリームにランダムに連結され、トリプレットを直ちに繰り返す必要がなされないという制約があります。画像は画面中央に一度に 1 つずつ表示されます。各画像は、200 ms の刺激間間隔で 800 ms で表示されます。慣れ親しんだ段階は4分48sの間続く。
    2. テストフェーズが常に慣れ親しんだフェーズに従い、32の2つの代替強制選択(2AFC)の質問で構成されていることを確認します。各質問には、慣れ親相のターゲットトリプレットと、ホイルトリプレットと呼ばれる慣れ親相に含まれなかった三重項の2つのオプションが含まれます。
      注: ホイル三重子の各画像の相対位置がターゲットトリプレットと同じになるように、ホイル三つ子が構築されます。各ターゲットとホイルトリプレットは、テストで合計8回提示され、各箔ターゲットペアが繰り返されます。試験段階は32(4つのターゲット三つ子x 4つの箔三つ子x 2反復)からランダムに順序付けられた試験から成っている。
    3. レター (ビジュアル言語) タスクには、大文字の 12 個の画像が含まれ、4 つのターゲット三つ子 (GJA、FKC、LBE、および MDH) に編成されます。 テストフェーズでは、4つのホイル三つ子(GDE、FJH、LKA、およびMBC)を作成し、ターゲット三つ子とペアにして32の2AFC試験試験を行います。文字トリプレットには、単語、共通の頭字語、または頭文字を含めることはできません。
    4. トーン(聴覚非言語的)タスクには、同じオクターブ内の12の音楽的純粋なトーン(中央Cから始まる完全な色調スケール)が含まれ、それらを4つのターゲット三つ子(F#DE、ABC、C#A#F、GD#G#)に連結します。視覚タスクとは異なり、聴覚知覚の好み66、28、2928,の違いにより、プレゼンテーションの速度が速くなります
      注:4つのターゲット三つ子のそれぞれは、合計192の三つ子(視覚条件の2倍)に対して48回繰り返されます。すべての三つ子は、連続して2回繰り返されない三つ子と音の流れに連結されます。純粋なトーンは、参加者が空白の画面を見ながら、一度に1つずつ表示されます。各トーンの持続時間は460 msで、20 msの刺激間間隔が設定されています。全体のストリームは約4分と36 sを持続します。ビジュアル タスクと同様に、ターゲットとフォイルの三つ子のペア (F#BF、AA#G#、C#D#E、GDC) のペアで 32 2 AFC 試験のテスト フェーズは、慣れ親しんだフェーズの直後に続きます。
    5. 音の音ができる(聴覚言語)タスクでは、12個の子音母音(CV)音素を作成して4つのターゲット三つ子(pa-bi-ku、go-la-tu、da-ro-pi、ti-bu-do)にグループ化します。各音素の持続時間と刺激間の間隔は、トーン条件と同じです。テスト段階で4つのホイル三つ子(pa-ro-do、go-bu-ku、da-bi-tu、ti-la-pi)とターゲット三つ子をペアにします。
  3. 参加者間での4つの統計的学習タスクの順序をランダム化します。

2. 参加者募集

注: Web ベースのプロトコルと fMRI プロトコルは、1 人の参加者の中で最適に実装されていますが、ここでは各タスクの参加者募集のベスト プラクティスを個別に説明します。

  1. Webベースの参加者募集
    1. 6歳以上の募集参加者。性別、人種、民族性の参加者は参加することができます。ただし、研究サンプルは母集団を代表する必要があります。
    2. 英語を母国語で話し、5歳までに英語以外の言語に触れたことのない参加者を募集する。
    3. 既知の心理的(ADD、うつ病、PTSD、臨床不安を含む)および/または神経学的状態(脳卒中、発作、脳腫瘍、または閉じた頭部外傷を含む)を報告しないようにしてください。
    4. 参加者が正常または正常に修正された視力(眼鏡や接触は大丈夫)、正常な色覚および正常な聴覚(補聴器または人工内耳装置なし)を持っていることを確認してください。
  2. タスクベースの fMRI 参加者募集
    1. 6歳以上の募集参加者。性別、人種、民族性の参加者は参加することができます。ただし、研究サンプルは母集団を代表する必要があります。
    2. 資格を得るためには、英語を母国語で話し、5歳までに英語以外の言語に触れたことがない参加者を募集します。
    3. 既知の心理的(ADD、うつ病、PTSD、および臨床不安を含む)および神経学的状態(脳卒中、発作、脳腫瘍、または閉じた頭部外傷を含む)を持たない右利きの個人を募集する。
    4. 妊娠中、閉所恐怖症、精神活性薬の服用、または体内の金属を持っている参加者(ペースメーカー、神経インプラント、金属板または関節、シュラプネル、外科ステープルを含む)を除外します。
    5. 参加者が正常または正常に修正された視力(眼鏡や接触は大丈夫)、正常な色覚および正常な聴覚(補聴器または人工内耳装置なし)を持っていることを確認してください。
    6. 参加者(または未成年者の場合は親)がMRI安全スクリーニングフォームを完成させることによって、MRIに参加する資格を決定します。

3. ウェブベースのプロトコル

注: ウェブベースの統計的学習パラダイムは、安全なウェブサイト(https://www.cogscigame.co 11)でホストされ、英語の行動実験をオンラインで作成するためのJavaScriptライブラリであるjsPsychを使用して開発されています

  1. タスクを再現するには、DOI:10.5281/zenodo.3820620 に進みます。すべてのスクリプトと資料は一般に公開されています。研究者は、出力ファイルのすべてのパスが適切に設定されている限り、スクリプトを変更し、任意のWebブラウザでローカルに実験を実行することができます。
  2. 参加者に、各統計学習タスクの慣れ親しんだ段階で特定のターゲットが表示されたときにボタンを押す必要があるカバータスクを完了させます。
  3. 各タスクの目標刺激割り当て
    1. 画像、文字、および歌語可能なタスクでは、ランダムに4つの三つ子のいずれかを選択し、トリプレットの第3の刺激にターゲットを割り当てます。トーンタスクでは、三重子の3番目の刺激の最低または最高のトーンにターゲット刺激を制限し、トリプレットの第3刺激にターゲットを割り当てます。これは、トーン刺激が他のタイプの刺激よりも比較的区別しにくいためです。
    2. 音の音とトーンのタスクでは、外国人に参加者を紹介し、その外国人の言語/民俗音楽で好きな単語/ノート。参加者に、外国人の言語/音楽を聴き、お気に入りの単語/ノートを聞くたびにスペースバーを押すことを忘れないように、/とノートの間のスペースを削除することを伝えます。
    3. 画像タスクでは、宇宙船に入るためにエイリアンのグループが並ぶので、特別なエイリアンを追跡するように参加者に指示します。手紙のタスクでは、エイリアンがパレードの看板を掲げるので、エイリアンのお気に入りのサインを追跡するように参加者に伝えます。画像とレターの両方のタスクで参加者の練習トライアルを行います。
    4. 三つ子の存在に関する明示的な指示を提供しないでください。
    5. 視覚タスクの24回の試行と、聴覚タスクの48回の試験で応答時間を測定し、オンライン学習を評価します。
    6. 試験段階では、ターゲット(慣れ親しんだ段階に含まれる)とホイルトリプレット(慣れ親相に含まれていない)の両方が参加者に提示されます。その後、慣れ親しんだ段階で見たか聞いたものに似た方がどちらであるかを選択するように参加者に指示します。各トライアルは応答で終了する必要があります。
  4. ウェブベースのプロトコルにおける統計的学習の行動尺度
    1. 反応時間の線形傾斜(慣れ親しんだ段階を通して反応時間の変化)を介して、慣れ親しんだ段階の間にリアルタイム学習を測定する。
    2. ターゲットに対する有効な応答と見なされるためには、キーキーがターゲット刺激の前と刺激の後の1つの刺激の時間枠になければならないことを確認してください。これは、聴覚タスクでのターゲットの発症に対して -480 ミリ秒から +960 ミリ秒、ビジュアル タスクでは -1000 ミリ秒から +2000 ミリ秒です。ターゲットの前にキープレスは期待と見なされ、したがって否定的な反応時間を生み出す。
    3. 条件間で反応時間を比較するには、各タスクの各参加者の反応時間を z スコアに変換します。これにより、個人の反応時間が正規化され、タスク間のスコアを比較できるようになります。
    4. 線形回帰を使用して、各条件の各参加者の反応時間勾配を計算します。Zノルム反応時間を従属変数として入力し、ターゲット試行順序を独立変数として入力します (ビジュアル: 1 ~ 24;聴覚: 1 ~ 48)。線形回帰直線の傾き (ベータ係数/推定値) は、反応時間勾配 (RT の傾き) です。
    5. テストフェーズからの正しい試験の数を試験の合計数で割って(32回の試行)、各条件の各参加者のオフライン精度を測定します。

4. タスクベースのfMRIプロトコル

  1. 統計的学習パラダイムの変更 (図 2)。
    1. 各タスクについて、構造化されたシーケンス (統計的規則性を含む) とランダムシーケンス (統計的規則性なし) の両方を提示します。
      注: 構造化されたシーケンスは、Web ベースのプロトコルで説明されているシーケンスと同じです ( 図 1を参照)。対照的に、ランダム配列は、構造化された配列で提示されたのと同じ12の刺激を含むが、疑似ランダムに順序付けされる。3回の刺激の組み合わせは複数回繰り返されません。
    2. 各シーケンスを同じ長さの6つの小さなブロックに分けます(視覚タスクでは24回の刺激、聴覚タスクでは48回の刺激)。
    3. 3つの構造化ブロック、3つのランダムブロック、6つの静止ブロック(空白の画面で沈黙)を疑似ランダムな順序で連結して、聴覚刺激の4つの実行と4回の視覚刺激を作成します。構造化されたシーケンスの学習を最大化するには、各実行のランダムブロックに構造化されたシーケンスとは異なるドメインが含まれていることを確認します(例えば、音値可能な構造化シーケンスは、1回の実行でトーンランダムシーケンスと一緒に提示され、音色のランダムシーケンスは別の実行でトーン構造化シーケンスと一緒に提示されます)。
    4. 約 4.77 分のビジュアル タスクの各実行で表示される 288 の画像を含めます。約4.42分続く聴覚タスクに提示される576音を含める。各ブロックの先頭に、言語およびビジュアルプローブでターゲットに関する手掛かりを提示します:「今すぐ[TARGET]を聞く/探す」。
    5. ビジュアルタスクの4つの実行の中で、2つは構造化された画像のシーケンスを含み、他の2つは構造化された文字のシーケンスを含んでいるようにします。聴覚タスクの4つの実行の中で、2つは音ブルの構造化されたシーケンスを含み、他の2つはトーンの構造化されたシーケンスを含んでいるようにしてください。
  2. fMRI統計学習手順
    1. 参加者、特に子供たちをスキャナーで快適にするために、まずモックスキャナ31を使用してMRIスキャンセッションを練習する。モック スキャナーは、実際のスキャン セッションと同様の自然主義的なエクスペリエンスを提供しますが、通常は子に優しい環境に配置されます。
    2. まず、子供をモックスキャナ、すなわち脳カメラに紹介し、スキャナーに入れる前に快適であることを確認します。
    3. 彼らの「スキャンバディ」にそれらを紹介し、スキャンバディの目的は、彼らが同行し、彼らが何かを必要とする場合にそれらを助けることであることを説明します。スキャン仲間は、あまりにも多くの動きが「カメラ」によって検出された場合、静止したままにして、参加者を穏やかに思い出させます。
    4. スキャナーに入ったら、子供に優しいビデオを再生して、サウンドとビデオに慣れやすくします。準備ができたら、いくつかの事前に録音されたスキャナサウンドクリップを再生して、実際のMRIによって生成されるノイズに備えます。この間、彼らはじっと滞在し、スキャン仲間と一緒に働く練習を持っています。
    5. 統計的学習パラダイムに子供を紹介し、スキャナーの外で練習してもらいます。これは、上記の手順 3.2.2 および 3.2.3 を実行して、Web ベースのプロトコルと同様に、コンピュータ上のタスクの簡単な部分を子どもに実行させることによって行われます。
      注:練習刺激は、タスクで使用されるものと同じです。しかし、子供はランダムな配列にのみさらされ、構造化されたシーケンスにはさらされず、特定のシーケンスの学習を可能にすることなく、刺激とタスクの要求に対する簡単な慣例を可能にします。
    6. fMRI データ収集プロトコルが MRI 取得コンピューターで適切にセットアップされていることを確認します。
      注:取得パラメータは、思春期の脳認知発達(ABCD)研究32の勧告に従います。
    7. 高解像度 T1 重み付きスキャンでスキャン セッションを開始します。TR(繰り返し時間)=2500ミリ秒、TE(エコー時間)=2.9ms、フリップ角度= 8°、FOV(視野)=25.6cm、256 X 256マトリックスサイズ、1mmスライス厚さを使用して、これらを取得します。この買収は7.2分続く。
    8. 機能データを取得するには、Tr= 800 ms、TE = 32 ms、反転角度 = 61°、FOV = 21 cm、マトリックス = 64 x 64で同時マルチスライススキャン取得を行う T2*加重エコー平面イメージングを使用します。この実験では、2.5mmのスライス厚さ、21cmのFOV、64 X 64マトリックスを持つインターリーブシーケンスで60個の隣接するスライスを取得し、2.5mm x 2.5 mm x 2.5 mmの面内解像度を得ます。
    9. 参加者は、スキャナーのノイズから耳を保護するヘッドフォンと手に応答パッド/ボタンボックス(ヘッドフォンとボタンボックスの両方がスキャナ互換である必要があります)でfMRIスキャナのベッドに快適に横たわらなければなりません。
    10. データ収集中にヘッドの動きを制限するために、頭の周りに追加のパディングを配置します。参加者間でボタンを押す際に左手と右手のどちらを使用するかに関係なく、事前にボタン応答ボックスを参加者に渡して回答を記録し、カウンターバランスを行います。
    11. すべての子供にスキャンバディのオプションを与えます。スキャンバディなしで快適な年上の神経典型的な子供たちのために、彼らが苦しんでいるか、停止する必要がある場合は、実験者に通知するためにスクイーズボールを与えます。若い子供や特別な集団にスクイーズボールを与えるだけでなく、彼らを助けるためにスキャンバディを提供します(4.2.3で説明)。
    12. ヘッドコイルを参加者の頭の上に置き、ベッドの中で患者の位置を揃えます。
    13. 取得したコンピュータに新しい参加者を登録します。参加者 ID、生年月日、体重、身長を入力します。参加者は、MRIのボアに挿入される可能性があります。
    14. 参加者に映画を見せながら、T1加重スキャンを取得します。
    15. 統計学習パラダイムを始める前に、各タスクの指示を与える場合は、ヘッドフォンに接続されたインターコムシステムを通して話し合ってください。
    16. 聴覚タスクでは、参加者に「今、私たちはボタンを押すゲームをするつもりです。あなたはエイリアンが言葉を言い、音楽を演奏するのを聞くでしょう。聴いている音が聞こえるときには、必ず左/右手のボタンを押してください。4部があって、各パーツは約5分続きます」
    17. 視覚的なタスクでは、参加者に伝えます:「今、あなたはエイリアンと文字の写真を見るつもりです。探している画像が表示される場合は、左/右手のボタンを押します。この4回連続再生します。毎回約5分かかります。
    18. プレゼンテーションコンピュータで統計学習パラダイムを起動し、タスクfMRIデータを取得します。
    19. 参加者がパラダイムを完了したら、MRIを停止し、スキャナーの内部から安全に取り外し、ヘッドコイルを取り外します。
    20. データ収集後、取得したコンピュータからセキュリティで保護されたサーバーにすべての MRI データを転送して、さらに分析します。
  3. fMRI データ分析
    1. fMRI タスク中のスキャナー内反応時間を、慣れ親しんだ段階での反応時間の Web ベースの計算と同様に分析します。条件間で比較する反応時間を正規化し、個々の条件ごとに正規化された反応時間を使用して線形傾斜を計算します。
    2. fMRI データを分析する場合、まず、HeuDiConv34 (https://github.com/nipy/heudiconv) を使用して、データを構成して、ブレイン イメージング データ構造33 (BIDS) の書式設定に変換します。
    3. fMRIPrep35,36を使用してこれらのデータ前処理します。この自動前処理パイプラインは、AFNI37、ANTs38、フリーサーファー39、FSL40、Mindboggle41の方法論を組み合わせて、データ分析に使用するための科学的に厳密で再現可能なデータを提供します。
      注: 現在のスタディでは、ブロック/イベント関連の混合設計が実装されています。代表的な結果(以下)は、各ミニブロックをイベントとして扱う(例えば、ランダムシーケンスはイベント、構造化されたシーケンスはイベント等)。ただし、このタスクは、各刺激をイベントとしてモデル化できるように設計されています。
    4. 1 次レベルのモデル設計には、実行ごとに 2 つのタスクリグレッサー (ビジュアル条件の「イメージ」と「文字」、聴覚条件の「音色」と「トーン」) を含めます。正規の血行力応答関数を使用して、イベント発症時間のベクトルをその期間と組み込み、タスクリグレッサーを決定する。上位レベルのモデル設計の各被験者内の実行間の差異と平均を計算します。これは、刺激の各タイプ内の構造化されたシーケンスとランダムなシーケンスの間のコントラストになります。
    5. 各モダリティ/ドメイン内のランダムブロックと比較して、構造化ブロックの活性化のグループ平均を作成します。

結果

Web ベースの動作結果
現在のプロトコルは、発達集団との容易な普及のために設計されていることを考えると、我々は22の発達中学齢児(平均(M)年齢=9.3歳、標準偏差(SD)年齢=2.04歳、範囲=6.2-12.6歳、13女の子からのデータに基づいて予備的なウェブベースの結果を含んでいます。Web ベースの統計的学習タスクでは、子どもは、すべての条件で 0.5 より有意に優れたパフォーマンスを...

ディスカッション

現在のプロトコルで提示された方法は、開発の過程で統計学習の行動と神経の指標を理解するためのマルチモーダルパラダイムを提供します。現在の設計では、モダリティとドメイン間の統計的学習能力の個人差を特定することができ、これは統計的学習と言語開発の関係の将来の調査に使用することができます。個人の統計的学習能力は、ドメインとモダリティ66、8?...

開示事項

著者らは開示するものは何もない。

謝辞

ヨエル・サンチェス・アラウジョとウェンディ・ジョージアンがウェブベースのプラットフォームの初期設計に貢献してくれたことに感謝します。私たちは、ウェブベースの統計的学習タスクの改善、fMRIタスクの実装、成人参加者のタスクのパイロットに取り組んでくださったNguyenとViolet Kozloffに感謝します。バイオレット・コズロフとパーカー・ロビンズが子供のデータ収集を支援してくれたことに感謝します。デラウェア大学生物脳イメージングセンターのイブラヒム・マリク、ジョン・クリストファー、トレバー・ウィガル、キース・シュナイダーの神経イメージングデータ収集に協力してくれてありがとう。この研究は、国立難聴およびその他のコミュニケーション障害研究所(PI:Qi;NIH 1R21DC017576)と国立科学財団社会・行動・経済科学局(PI:シュナイダー、Co-PI:気とゴリンコフ;NSF 1911462)。

資料

NameCompanyCatalog NumberComments
4 Button Inline Response DeviceCambridge Research SystemsSKU: N1348An fMRI reponse pad used for measuring in-scanner response time
Short/Slim Canal TipsComply FoamSKU: 40-15028-11Short & slim in-ear canal tips are recommended for children to protect hearing and allow for them to hear the stimuli while in the scanner.
jsPsychjsPsychhttps://www.jspsych.org/jsPsych is a JavaScript library for running behavioral experiments in a web browser.
Speech SynthesizerPraatVersion 6.1.14This program is an artificial speech synthesizer which was used to create the syllable stimuli.
Web-based statistical learning tasksZenodohttp://doi.org/10.5281/zenodo.3820620 (2020).All web-based statistical learning tasks are available for free access on Zenodo.

参考文献

  1. Saffran, J. R., Newport, L. L., Aslin, R. N. Word Segmentation: The Role of Distributional Cues. Journal of Memory and Language. 35, 606-621 (1996).
  2. Newman, R., Ratner, N. B., Jusczyk, A. M., Jusczyk, P. W., Dow, K. A. Infants' early ability to segment the conversational speech signal predicts later language development: A retrospective analysis. Developmental Psychology. 42 (4), 643-655 (2006).
  3. Graf Estes, K., Gluck, S. C. W., Grimm, K. J. Finding patterns and learning words: Infant phonotactic knowledge is associated with vocabulary size. Journal of Experimental Child Psychology. 146, 34-49 (2016).
  4. Evans, J. L., Saffran, J. R., Robe-Torres, K. Statistical Learning in Children With Specific Language Impairment. Journal of Speech, Language, and Hearing Research. 52 (2), 321-335 (2009).
  5. Arciuli, J., Simpson, I. C. Statistical Learning Is Related to Reading Ability in Children and Adults. Cognitive Science. 36 (2), 286-304 (2012).
  6. Qi, Z., Sanchez Araujo, Y., Georgan, W. C., Gabrieli, J. D. E., Arciuli, J. Hearing Matters More Than Seeing: A Cross-Modality Study of Statistical Learning and Reading Ability. Scientific Studies of Reading. 23 (1), 101-115 (2019).
  7. Walenski, M., Tager-Flusberg, H. B., Ullman, M. T., Moldin, S. O., Rubenstein, J. L. R. Language in autism. Understanding autism: From Basic Neuroscience to Treatment. , 175-203 (2006).
  8. Siegelman, N., Frost, R. Statistical learning as an individual ability: Theoretical perspectives and empirical evidence. Journal of Memory and Language. 81, 105-120 (2015).
  9. Erickson, L. C., Kaschak, M. P., Thiessen, E. D., Berry, C. A. S. Individual Differences in Statistical Learning: Conceptual and Measurement Issues. Collabra. 2 (1), 14 (2016).
  10. Shufaniya, A., Arnon, I. Statistical Learning Is Not Age-Invariant During Childhood: Performance Improves With Age Across Modality. Cognitive Science. 42 (8), 3100-3115 (2018).
  11. Qi, Z., et al. An online platform for visual and auditory statistical learning for school-aged children (Version 1.0.0). Zenodo. , (2020).
  12. Conway, C. M., Christiansen, M. H. Statistical learning within and between modalities: Pitting abstract against stimulus-specific representations. Psychological Science. 17 (10), 905-912 (2006).
  13. Saffran, J. R., Johnson, E. K., Aslin, R. N., Newport, E. L. Statistical learning of tone sequences by human infants and adults. Cognition. 70 (1), 27-52 (1999).
  14. Siegelman, N., Bogaerts, L., Elazar, A., Arciuli, J., Frost, R. Linguistic entrenchment: Prior knowledge impacts statistical learning performance. Cognition. 177, 198-213 (2018).
  15. Armstrong, B. C., Frost, R., Christiansen, M. H. The long road of statistical learning research: past, present and future. Philosophical Transactions of the Royal Society B: Biological Sciences. 372 (1711), 20160047 (2017).
  16. Siegelman, N., Bogaerts, L., Christiansen, M. H., Frost, R. Towards a theory of individual differences in statistical learning. Transactions of the Royal Society B. 372 (1711), 20160059 (2017).
  17. Krogh, L., Vlach, H. A., Johnson, S. P. Statistical Learning Across Development: Flexible Yet Constrained. Frontiers in Psychology. 3, 598 (2013).
  18. Siegelman, N., Bogaerts, L., Elazar, A., Arciuli, J., Frost, R. Linguistic entrenchment: Prior knowledge impacts statistical learning performance. Cognition. 177, 198-213 (2018).
  19. Plante, E., Patterson, D., Dailey, N. S., Kyle, R. A., Fridriksson, J. Dynamic changes in network activations characterize early learning of a natural language. Neuropsychologia. 62 (1), 77-86 (2014).
  20. Milne, A. E., Wilson, B., Christiansen, M. H., Petkov, C., Marslen-Wilson, W. Structured sequence learning across sensory modalities in humans and nonhuman primates This review comes from a themed issue on The evolution of language. Current Opinion in Behavioral Sciences. 21, 39-48 (2018).
  21. Mcnealy, K., Mazziotta, J., Dapretto, M. Cracking the Language Code: Neural Mechanisms Underlying Speech Parsing. Journal of Neuroscience. 26 (29), 7629-7639 (2006).
  22. McNealy, K., Mazziotta, J. C., Dapretto, M. Age and experience shape developmental changes in the neural basis of language-related learning. Developmental Science. 14 (6), 1261-1282 (2011).
  23. Karuza, E. A., Emberson, L. L., Aslin, R. N. Combining fMRI and behavioral measures to examine the process of human learning. Neurobiology of Learning and Memory. 109, 193-206 (2014).
  24. Petersen, S. E., Dubis, J. W. The mixed block/event-related design. NeuroImage. 62 (2), 1177-1184 (2012).
  25. Batterink, L. J., Paller, K. A., Reber, P. J. Understanding the Neural Bases of Implicit and Statistical Learning. Topics in Cognitive Science. 11, 482-503 (2019).
  26. Boersma, P., Weenink, D. . Praat: doing phonetics by computer [Computer program]. Version 601014. , (2020).
  27. Boersma, P. Praat, a system for doing phonetics by computer. Glot International. 5 (9), 341-345 (2001).
  28. Conway, C. M., Christiansen, M. H. Seeing and hearing in space and time: Effects of modality and presentation rate on implicit statistical learning. European Journal of Cognitive Psychology. 21 (4), 561-580 (2009).
  29. Emberson, L. L., Conway, C. M., Christiansen, M. H. Timing is everything: Changes in presentation rate have opposite effects on auditory and visual implicit statistical learning. Quarterly Journal of Experimental Psychology. 64 (5), 1021-1040 (2011).
  30. de Leeuw, J. R. jsPsych: A JavaScript library for creating behavioral experiments in a Web browser. Behavior Research Methods. 47 (1), 1-12 (2015).
  31. Kana, R. K., et al. Probing the brain in autism using fMRI and diffusion tensor imaging. Journal of Visualized Experiments. (55), e3178 (2011).
  32. Casey, B. J., et al. The Adolescent Brain Cognitive Development (ABCD) study: Imaging acquisition across 21 sites. Developmental Cognitive Neuroscience. 32, 43-54 (2018).
  33. Gorgolewski, K. J., et al. The brain imaging data structure, a format for organizing and describing outputs of neuroimaging experiments. Scientific Data. 3 (1), 1-9 (2016).
  34. Halchenko, Y. . nipy/heudiconv v0.6.0 (Version v0.6.0). Zenodo. , (2019).
  35. Esteban, O., et al. FMRIPrep: a robust preprocessing pipeline for functional MRI. Nature Methods. 16, 111-116 (2019).
  36. Esteban, O., et al. Analysis of task-based functional MRI data preprocessed with fMRIPrep. bioRxiv. , 694364 (2020).
  37. Cox, R. W. AFNI: Software for analysis and visualization of functional magnetic resonance neuroimages. Computers and Biomedical Research. 29 (3), 162-173 (1996).
  38. Avants, B. B., et al. A reproducible evaluation of ANTs similarity metric performance in brain image registration. NeuroImage. 54 (3), 2033-2044 (2011).
  39. Dale, A. M., Fischl, B., Sereno, M. I. Cortical surface-based analysis: I. Segmentation and surface reconstruction. NeuroImage. 9 (2), 179-194 (1999).
  40. Woolrich, M. W., et al. Bayesian analysis of neuroimaging data in FSL. NeuroImage. 45, 173-186 (2009).
  41. Klein, A., et al. Mindboggling morphometry of human brains. PLoS Computational Biology. 13 (2), 1005350 (2017).
  42. Arnon, I. Do current statistical learning tasks capture stable individual differences in children? An investigation of task reliability across modality. Behavior Research Methods. 52 (1), 68-81 (2020).
  43. Finn, A. S., Hudson Kam, C. L. The curse of knowledge: First language knowledge impairs adult learners' use of novel statistics for word segmentation. Cognition. 108 (2), 477-499 (2008).
  44. Krogh, L., Vlach, H. A., Johnson, S. P. Statistical learning across development: Flexible yet constrained. Frontiers in Psychology. 3, 598 (2013).
  45. De Leeuw, J. R., Motz, B. A. Psychophysics in a Web browser? Comparing response times collected with JavaScript and Psychophysics Toolbox in a visual search task. Behavior Research Methods. 48, 1-12 (2016).
  46. Lew-Williams, C., Saffran, J. R. All words are not created equal: Expectations about word length guide infant statistical learning. Cognition. 122 (2), 241-246 (2012).
  47. Poulin-Charronnat, B., Perruchet, P., Tillmann, B., Peereman, R. Familiar units prevail over statistical cues in word segmentation. Psychological Research. 81 (5), 990-1003 (2017).
  48. Leonard, J., Flournoy, J., Lewis-de los Angeles, C. P., Whitaker, K. How much motion is too much motion? Determining motion thresholds by sample size for reproducibility in developmental resting-state MRI. Research Ideas and Outcomes. 3, 12569 (2017).
  49. Power, J. D., et al. Ridding fMRI data of motion-related influences: Removal of signals with distinct spatial and physical bases in multiecho data. Proceedings of the National Academy of Sciences of the United States of America. 115 (9), 2105-2114 (2018).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

160 fMRI

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved