JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

子音と不協和区間を聞く神経相関は広く研究されているが、子音区間と不協和区間の生成に関連する神経機構はあまり知られていない。この記事では、行動テストとfMRIを、間隔の特定と歌い合わせのタスクと組み合わせて、これらのメカニズムを説明します。

要約

協調性と不協感性の神経相関は広く研究されているが、協調性と不協和性の神経相関は研究されていない。音楽制作の最も単純なやり方は歌ですが、イメージングの観点から見ると、それは運動活動を伴うため、聞き取るよりも難題が多いです。音楽区間の正確な歌唱は、正確に各音符を生成するために、聴覚フィードバック処理と声帯運動制御との間の統合を必要とする。このプロトコルは、子音および不協和区間の声調生成に関連する神経活動の監視を可能にする方法を提示する。聴覚弁別試験と、所定の時間間隔を最初に聞いて再生することの両方のために、4つの音程、2つの子音と2つの不協和音が刺激として使用される。保育者レベルの女性ボーカル学生全員が、機能的な磁気Resリスニングタスクを制御条件とする歌唱タスクの実行中のオニオンイメージング(fMRI)を含む。このようにして、モーターシステムと聴覚システムの両方の活動が観察され、歌作業中の声の正確度の測定値も得られた。したがって、このプロトコルは、異なるタイプの区間を歌うことに関連する活動化、または必要な音符をより正確に歌うことに関連する活動化を追跡するためにも使用することができる。この結果は、不協和音を歌うことは、子音の歌唱よりも聴覚および感覚運動システムからの外部フィードバックの統合に関与する神経機構のより大きな参加を必要とすることを示している。

概要

ある種の音楽ピッチの組み合わせは、一般的に子音であると認められており、典型的には心地よい感覚と関連している。他の組み合わせは、一般に、不協和と呼ばれ、不快感または未解決の感情と関連している1 。音韻習得と訓練が協調2の認識にある役割を果たすと仮定することは賢明であるが、子音と不協和区間と和音の知覚の違いはおそらく以前考えられていた3より音楽文化に依存しないことが示されている。単純な生物学的基盤4,5,6からも得られる。用語集のあいまいな理解を避けるために、Terhardt 7は、音楽的な文脈における協和とは対照的に、感覚的な協調の概念を導入したたとえば調和がある和音や音程への応答に影響を与える場合があります。現在のプロトコルでは、文脈依存処理からの干渉なしに、感覚的な協和にのみ関連する活性化を正確に区別するために、隔離された2音符間隔のみが正確に使用された8

ヘルマンホルツ9は、純粋に物理的な手段で協和を特徴付ける試みを始めた。ヘルムホルツ9は、不協和音に関連する知覚された粗さが隣接する周波数成分間の鼓動に起因すると考えた。しかしながら、より最近では、感覚的な協調は、粗さの欠如に関連するだけでなく、調和、すなわち、与えられた調子または和音の部分的な音と和音の非調和の音との調和とも関連することが示されている低い周波数10,11 。行動研究は、主観的な協和が実際にpuの影響を受けることを確認している周波数間隔12,13などの物理的パラメータに依存しているが、より広い範囲の研究は、物理現象が知覚される協和と不協和音の差異だけを説明することはできないことを最終的に示している14,15,16,17。しかしながら、これらの研究のすべては、様々な間隔または和音を聞くときに、これらの相違を報告する。子宮頸がんの発症時には、脳梗塞の発症が心配されています。陽電子放射断層撮影(PET)と機能性磁気共鳴画像法(fMRI)を使用したさまざまな研究により本研究の目的は、子音や声の不自然な音程を聞くのではなく、発声するときの脳活動に影響を与えます。

音楽制作中の感覚・運動制御の研究は、典型的には楽器の使用を伴い、非常にしばしば、ニューロイメージング中に使用するために特別に修正された器具の製作を必要とする。しかし、歌唱は、楽器が人間の声そのものなので、音楽制作中の感覚運動プロセスの分析のための適切なメカニズムを最初から提供しているようであり、声楽装置は、イメージング22 。ピッチ制御23 、声模倣24 、訓練誘導適応変化25 、外部フィードバック25の統合など、歌唱の態様に関連する神経機構は、 30 。この目的のために、現在の論文では、参加者による子音と不協和音の適切な認識を確立するための行動テストが記述されています。これに続いて、様々な子音と不協和音を歌う参加者のfMRIの研究が続きます。 fMRIプロトコルは比較的簡単ですが、すべてのMRI研究と同様に、実験を正しく設定するためには十分な注意が必要です。この場合、歌の作業中に頭、口、唇の動きを最小限にすることが特に重要であり、歌の物理的行為に直接関係しない効果をより簡単に特定することができます。この方法論は、歌うことによって音楽制作を含む様々な活動に関連する神経メカニズムを賞賛する。

Access restricted. Please log in or start a trial to view this content.

プロトコル

このプロトコルは、病院Infantil deMéxico "FedericoGómez"の研究、倫理、安全委員会によって承認されています。

1.行動試験

  1. すべての参加予定者が通常の聴覚(-8,000 Hzのオクターブ周波数で20 dBの聴力レベル(HL))を持つことを確認するために、標準の純音聴力検査を実施します。すべての参加者が右利きであることを確認するには、Edinburgh Handedness Inventory 31を使用します。
  2. 区間シーケンスの生成。
    1. サウンド編集プログラムを使用して、2つのオクターブにまたがる純粋なトーン、G4-G6を作成します。
      注:ここでは、無料のオープンソースのサウンド編集ソフトAudacityについて説明します。他のパッケージをこの目的のために使用することができます。
      1. 音色ごとに、サウンド編集ソフトウェアで新しいプロジェクトを開きます。
      2. "Generate"メニューで "Tone"を選択します。表示されるウィンドウで、s正弦波形、振幅0.8、および1秒の持続時間を選択する。目的の音符に対応する周波数の値を入力します( 例: 440 Hz for A4)。 「OK」ボタンをクリックします。
      3. [ファイル]メニューの[オーディオの書き出し]を選択します。開いたウィンドウで、オーディオファイルの名前を入力し、目的のファイルタイプとしてWAVを選択します。 [保存]をクリックします。
    2. それぞれの子音間隔が不協和区間に近いように、 表1に従って、2つの子音と2つの不協和区間を選択します。
      注:一例として、完璧な5番目と1オクターブの子音の間隔と、拡張された4番目のトーンの不協和音の間隔(トライトン)と主要な7番目の音程を考えてみましょう。これらは、著者が実施した研究のために選ばれた間隔である。
    3. G4とG6の間の範囲で、これらの4つの区間に対応するノートの可能なすべての組み合わせを生成します。
      1. eacのためにオーディオ編集ソフトウェアで新しいプロジェクトを開き、[ファイル]メニューの[オーディオのインポート]を使用して連結する2つのWAVファイルをインポートします。
      2. 2番目のトーン上の任意のポイントにカーソルを置き、クリックして選択します。 [編集]メニューの[すべて選択]をクリックします。同じメニューの下で、[コピー]をクリックします。
      3. カーソルを最初のトーンの上の任意のポイントに置き、クリックします。 「編集」メニューの「カーソルをトラック終了まで移動」をクリックし、同じメニューの「貼り付け」をクリックします。手順1.2.1.3の説明に従ってオーディオをエクスポートします。
    4. ランダムシーケンスジェネレータを使用して、4つの異なる間隔がそれぞれ正確に25倍になるように擬似ランダムに生成された100の間隔からなるシーケンスを生成します。これを行うには、統計解析ソフトウェアのランダム置換機能を使用します( 表の表を参照 )。 4つのintervを入力してくださいこのプロセスを25回繰り返すループを作成します。
    5. 行動研究ソフトウェアを使用して2つの異なるランを生成する。実行ごとにWAV形式で100間隔のシーケンスをロードし、各間隔の識別を単一の試行に関連付けます30
      注:ここでは、E-Primeの行動研究ソフトウェアが使用されています。他の同等の行動研究ソフトウェアを使用することができる。
  3. 参加者には、各々100の間隔の2つのシーケンスを聞くことを説明する。各シーケンスは異なるタスクとそれ自身の指示セットと関連している。参加者に両方のランで、有効なキーが押されたときにのみ次のインターバルが再生されることを教えてください。
    注記:区間認識シーケンスが開始されたら、中断してはいけません。そのため、すべての参加者ができるだけ明確な行動を取るようにしてください。
    1. 参加者にラップトップコンピュータの前に座らせる付属のヘッドホンを着用してください。良質の耳あふれるヘッドホンを使用してください。音量を各対象の快適なレベルに調整します。
    2. ここで説明した行動調査ソフトウェアを使用している場合は、ステップ1.2.5で作成したタスクをE-Runで開きます。表示されるウィンドウで、セッションと件名を入力して[OK]をクリックします。セッション番号を使用して、各参加者の実行を区別します。
      注記:手元にあるタスクの指示が画面に表示され、その後にタスク自体が表示されます。
      1. まず、2選択肢の強制選択タスクでは、参加者に聞こえる間隔が子音か不協和音かを識別させるだけです。参加者は、コンピュータのキーボードで "C"を、子音には "D"を、不協和音には "D"を押します。
        注記:すべての参加者はコンサバトリーレベルで音楽訓練を受ける予定であるため、すべての参加者は、純粋に子音と明白に区別することができると期待されています超音波間隔。最初のタスクは、ある意味では、これが本当に事実であるという確認として機能します。
      2. 第2に、4つの代替強制選択タスクにおいて、参加者にインターバルを識別させる。参加者にコンピュータキーボードの数字「4」「5」「7」「8」を押して、それぞれ第4、第5、第7、およびオクターブの間隔を確認させます。
    3. 各タスクの最後に、「OK」を押して、各参加者の結果を、件名とセッション番号と拡張子.edat2のラベルが付いた個々のE-DataAid 2.0ファイルに自動的に保存します。
    4. 統計分析ソフトウェア(Matlab、SPSS Statistics、オープンソースの代替案など)を使用して、各タスクの成功率( すなわち 、間隔が子音であるか不協和であるかを識別したときの成功率、自分自身も、グループとしても) 32

2. fMRI実験

  1. fMRIセッションの準備。
    1. ステップ1.2.3と同じ間隔のシーケンスを生成します。これも、それぞれ1秒間の連続した2つの純粋なトーンから構成されています。
      注:参加者の声の範囲は考慮されなければならず、すべての音符は各参加者の歌唱範囲​​内で快適に落ちなければなりません。
      1. ランダムシーケンスジェネレータを使用して、リッスンオンリー試行30のランダムシーケンスを作成します30 。歌う試行のために、参加者が特定の間隔を聞き、次にこの目標間隔を歌声に合わせるための120の間隔の擬似乱数列を作成します。擬似乱数化されたシーケンスの場合は、ステップ1.2.4で説明したのと同じ方法を使用し、引数として4つの間隔をもう一度使用しますが、nこのプロセスを30回繰り返す。
      2. ステップ1.2.5と同じ手順に従って、行動研究ソフトウェアを使用して、3つの異なるランを生成する。各ランは、最初は10回の無音ベースライン試験から成り、続いて10回の連続した試聴のみの試み、最後に40回の連続試聴で構成される。
        注:ベースライン試行中、4つの区間はランダムな順序で表示され、歌唱の試行では、4つの区間は擬似ランダム化された順序で表示され、各区間は最終的に正確に10回表示されます。各試行の所要時間は10秒です。したがって、1回の試運転は10分間続きます。各被験者は3回の実験を経るので、実験の合計時間は30分である。しかし、参加者がスキャナに出入りすることを可能にし、マイクロフォンをセットアップして試験する時間、解剖学的スキャンを得る時間、および機能的ラン間の時間については、各参加者に約1時間のスキャナ時間を割り当てるべきである。
    2. ステップ2.1.1.2に記載されているように、参加者に提示される試行のシーケンスを説明し、疑念があればそれに対応する。参加者に歌の試行中に口を開かずにノートを叩くように指示し、唇を静止したまま "m"の音を出すように指示します。
    3. 非磁性のMR互換ヘッドセットをラップトップに接続します。音量を各対象の快適なレベルに調整します。
    4. 小さなコンデンサーマイクをオーディオインターフェースに接続します。オーディオインターフェースは、シールドツイストトリプレットケーブルを使用してラップトップに接続します。
      注:マイク電源、オーディオインターフェイス、およびラップトップは、すべてスキャナを収納する部屋の外に設置する必要があります。
    5. マイクの周波数応答を確認してください。
      注記:このテストの目的は、マイクがスキャナ内部で正常に動作することを確認することです。
      1. サウンド編集ソフトウェアで新しいプロジェクトを開始し、コンデンサーを選択してくださいマイクを入力デバイスとして使用します。
      2. セクション1.2.1で説明したように、周波数と持続時間の適切な値とともに、10秒間の440Hzテストトーンを生成します。
      3. ラップトップのデフォルトのサウンド再生ソフトウェアを使用して、「再生」を押して、ヘッドホンの内側(ヘッドレストの上部)とスキャナの外側(コントロールルーム内)のマイクを両側に配置してテストトーンを送信しますそれぞれのケースでヘッドセットの
      4. サウンド編集ソフトウェアの "Record"を押して、各場所に約1秒のテストトーンを録音します。
      5. それぞれのケースの "分析"メニューから "プロットスペクトラム"を選択し、各場所で受信した信号の基本周波数が440 Hzであることを確認して、スキャナの内側と外側の両方のテストトーンとマイクロフォンの応答を比較します。
    6. コンデンサーマイクロフォンを参加者の首にテープで固定する喉頭。
    7. 参加者にヘッドセットを着用させる。参加者を磁気共鳴(MR)スキャナーに置く。
  2. fMRIセッション。
    1. セッションの開始時に、MRUI(magnetic resonance user interface)ソフトウェアパッケージを開きます。取得パラダイムをプログラムするには、MRUIを使用します。
      注記:インターフェイスのいくつかのバリエーションは、異なるモデル間で予想されます。
      1. 画面上のメニューから「患者」オプションを選択します。参加者の名前、年齢、体重を入力します。
      2. 「試験」ボタンをクリックします。まず、 "Head"を選択し、次に "Brain"を使用可能なオプションから選択します。
      3. 反復時間(TR)= 10.2ms、エコー時間(TE)= 4.2ms、フリップアングル= 90°、ボクセルサイズ= 1xを選択して、「3D」を選択し、次に「T1等角」を選択します。 1×1mm 3
        注:各参加者について、T1加重解剖学的ボリュームはb解剖学的参照のための勾配エコーパルスシーケンスを使用して取得される。
      4. TE = 40ms、TR = 10s、Acquisition Time(TA)= 3s、TR = 7sの遅延、Flip(トリプルトーン)= 3s、EchoPlanaImage_diff_perf_bold角度= 90°、視野(FOV)= 256 mm 2 、マトリックス寸法= 64 x 64です。「ダミー」オプションを使用して5つのボリュームを取得し、合計ボリューム数に「55」を入力します。
        注:これらの値は、 図1に示す疎サンプリングのパラダイムに従って機能的なT2 *加重全頭スキャンを取得することを可能にします。エコープレーナイメージング(EPI)の「ダミー」スキャンを取得して破棄し、T1飽和効果。一部のMRUIでは、TRの値は取得が行われる合計時間と見なされるため、TRの値は3秒でなければならないことに注意してください。
      5. このコピーをコピーするには、[コピー]をクリックしてくださいence。カーソルをシーケンスのリストの一番下に置き、「貼り付け」を2回クリックして、連続する3つの希薄なサンプリングシーケンスを設定します。
      6. 「開始」をクリックして、T1加重解剖学的ボリューム取得を開始します。
      7. ステップ2.1.1.2で説明したように、参加者に対して3回の実行を提示する。スキャンのトリガボックスを使用して、ランの開始をスキャナによる取得と同期させます。
        1. セクション1.3.2で説明したのと同じ手順で、3回の実行のそれぞれを開始し、セッション番号を使用して実行を区別します。手順1.3.3で説明した手順と同じ手順を使用して、3回の完全実行の結果を保存します。
          注:トライアルプレゼンテーションのタイミングは、システマティックに±500ミリ秒間ジッタがかかります。

figure-protocol-6179
図1:Sパースサンプリング設計。 ( A )2トーン間隔(2秒)だけを聞くことを含む試行内の事象のタイムライン。その後の明白な再現はない。 ( B )聴取および歌の作業を伴う試行内の事象のタイムライン。 この図の拡大版を見るには、ここをクリックしてください。

3.データ分析

  1. 標準的な手順33に従った脳イメージングデータシーケンスの解析用に設計されたソフトウェアを使用して機能データを前処理する。
    注:すべてのデータ処理は同じソフトウェアを使用して行われます。
    1. 提供されたメニューオプションを使用して、画像を最初のボリュームに再配置し、標準的なMontreal Neurological Institute(MNI)の定位空間34に再サンプリングし、空間的に正規化する(最終ボクセルサイズ:2 x 2 x 2mm 3 )。
    2. 指定されたメニューオプションを使用して、等方性、8mm、半値全幅(FWHM)ガウスカーネルを使用して画像を滑らかにします。
    3. BOLDレスポンスをモデル化するには、音量取得時間(3秒)にまたがる基本関数(1次)またはボックスカー関数として、単一ビン有限インパルス応答(FIR)を選択します。
      注記:このようなスパースサンプリングプロトコルでは、通常、イベント関連のfMRIの場合のように、FIRを血行力学的応答関数とコンボリューションする必要はありません。
    4. 各イベントのBOLDレスポンスにハイパスフィルタをかける(「歌うネットワーク」では1,000秒、他の場所では360秒)。
      注記:すべての歌作業を一緒にモデリングすると、400秒のブロックになります35

Access restricted. Please log in or start a trial to view this content.

結果

実験に参加した11人の参加者はすべて、コンサバトリーレベルの女性のボーカル生であり、スキャンのために選択される区間認識タスクで十分に機能しました。区間識別タスクの成功率は、65.72±21.67%であり、期待されるように、74.82±14.15%であった不協点および子音区間を特定する成功率よりも低い。

研究の基本的...

Access restricted. Please log in or start a trial to view this content.

ディスカッション

この作品は、歌声が子音と不協和音の間に脳活動を研究する手段として使用されるプロトコルを記述しています。歌唱は、おそらく音楽区間22の生成のための最も簡単な方法であるが、和音の生成を可能にしない。しかし、和音概念のほとんどの物理的特徴付けは、ある程度、同時音符の重ね合わせに依存するが、子音または不協和和音に対応する音符で構成された区間は?...

Access restricted. Please log in or start a trial to view this content.

開示事項

著者らは、利益相反を宣言していない。

謝辞

著者はSecretaríade Salud deMéxico(HIM / 2011/058 SSA。1009)、CONACYT(SALUD-2012-01-182160)、DGAPA UNAM(PAPIIT IN109214)からのこの研究に対する財政的支援を認めています。

Access restricted. Please log in or start a trial to view this content.

資料

NameCompanyCatalog NumberComments
Achieva 1.5-T magnetic resonance scannerPhilipsRelease 6.4
AudacityOpen source2.0.5
Audio interfaceTascamUS-144MKII
AudiometerBrüel & KjaerType 1800
E-Prime ProfessionalPsychology Software Tools, Inc.2.0.0.74
MatlabMathworksR2014A
MRI-Compatible Insert EarphonesSensimetricsS14
PraatOpen source5.4.12
Pro-audio condenser microphoneShureSM93
SPSS StatisticsIBM20
Statistical Parametric MappingWellcome Trust Centre for Neuroimaging8

参考文献

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061(1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237(2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Access restricted. Please log in or start a trial to view this content.

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

123 fMRI

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved