JoVE Logo

登录

需要订阅 JoVE 才能查看此. 登录或开始免费试用。

本文内容

  • 摘要
  • 摘要
  • 引言
  • 研究方案
  • 结果
  • 讨论
  • 披露声明
  • 致谢
  • 材料
  • 参考文献
  • 转载和许可

摘要

聆听辅音和不和谐间隔的神经相关性已得到广泛的研究,但是与辅音和不和谐音间隔的产生相关的神经机制则不甚了解。在这篇文章中,行为检测和功能磁共振成像与区间识别和唱歌任务结合起来来描述这些机制。

摘要

协调和不和谐感知的神经相关性得到了广泛的研究,而不是辅助和不和谐生产的神经相关性。最直截了当的音乐制作方式是唱歌,但是从成像的角度来看,它比听力有更多的挑战,因为它涉及到运动活动。音乐间隔的精确唱歌需要听觉反馈处理和声控马达控制之间的整合,以便正确地产生每个音符。该方案提供了一种允许监测与声母和不和谐间隔的声音产生相关联的神经激活的方法。四个音乐间隔,两个辅音和两个不和谐被用作刺激,用于听觉辨别测试和涉及首先听和然后再现给定间隔的任务。参加者,所有在音乐学院的女声学生,使用功能磁性研究演唱任务期间的演奏成像(fMRI),听力任务作为控制条件。以这种方式,观察到运动和听觉系统的活动,并且还获得了在歌唱任务期间的声音准确度的量度。因此,该协议还可用于跟踪与唱歌不同类型的间隔相关联的激活或更准确地唱出所需的音符。结果表明,唱歌不和谐间隔需要更多的神经机制的参与,负责来自听觉和感觉运动系统的外部反馈的整合,而不是唱歌辅音间隔。

引言

音乐会的某些组合通常被认为是辅音,并且它们通常与愉悦的感觉相关联。其他组合通常被称为不和谐,并且与不愉快或未解决的感觉相关1 。尽管假设文化和训练在辅音2的感觉中发挥了一定的作用,但似乎很明智,最近表明,辅音和不和谐间隔和和弦的感觉差异可能不如以前认为的音乐文化更少, 3可能甚至源于简单的生物基础4,5,6 。为了防止对术语协调的含糊的理解,Terhardt 7引入了感觉协调的概念,而不是音乐语境中的协调例如,和谐可能会很好地影响对给定和弦或间隔的响应。在本协议中,只有孤立的两音符间隔被精确地用于单独与感觉协调相关的激活,而没有来自上下文相关处理的干扰8

通过纯粹的物理手段来表征谐音的尝试开始于亥姆霍兹9 ,他将感觉到的与不协调的和弦相关的粗糙度归因于相邻频率分量之间的跳动。然而,最近,已经表明,感觉协调不仅与缺乏粗糙度有关,而且与谐波性有关,也就是说给定音调或和弦的部分与未听到的音调的对准低频10,11 。行为研究证实主观协调确实受到pu的影响依赖物理参数,如频率距离12,13 但是更广泛的研究结论性地证明,物理现象不能仅仅解释感觉到的和谐与不和谐之间的差异14,15,16,17。然而,所有这些研究在收听各种间隔或和弦时都会报告这些差异。使用正电子发射断层扫描(PET)和功能磁共振成像(fMRI)的各种研究已经显示,在听到辅音或不和谐间隔和和弦8,18,19,20时,皮质区域变得活跃的显着差异。本研究的目的是探讨差异在大脑活动中产生而不是听,辅音和不和谐的间隔。

在音乐制作过程中,感官运动控制的研究通常涉及使用乐器,并且经常需要制造专门为其在神经成像21期间使用而修改的乐器。然而,唱歌似乎从一开始就提供了一个适当的机制来分析音乐制作过程中的感官运动过程,因为乐器是人类的声音本身,声乐器不需要任何修改以适应成像22 。虽然与歌唱方面相关的神经机制,如音调控制23 ,声乐模仿24 ,训练诱导的适应变化25以及外部反馈的整合25 26,27,28,29,已经是过去二十年的一些研究的主题,歌唱辅音和不和谐间隔的神经相关性最近才被描述30 。为此目的,本文介绍了一种旨在确定参与者对辅音和不和谐间隔的充分认识的行为测试。接下来是对参与者进行功能磁共振成像的研究,演唱了各种辅音和不和谐的间隔。 fMRI协议相对简单,但与所有MRI研究一样,必须非常小心正确设置实验。在这种情况下,特别重要的是在唱歌任务中尽可能减少头部,嘴巴和嘴唇的运动,使与身体上的歌唱行为直接相关的效果的识别更直接。这种方法可能用于通过唱歌来调整涉及音乐制作的各种活动的神经机制。

Access restricted. Please log in or start a trial to view this content.

研究方案

该协议已经被医院Infantil deMéxico"FedericoGómez"的研究,伦理和安全委员会批准。

行为预测

  1. 执行标准的纯音听力测试以确认所有预期参与者具有正常听力(在-8,000Hz的八度音频上为20dB听力水平(HL))。使用爱丁堡手持库存31确保所有参与者都是右撇子。
  2. 间隔序列的生成。
    1. 使用声音编辑程序生成跨越两个八度的纯音,G4-G6。
      注意:在这里,描述了免费的开源声音编辑软件Audacity。其他包装可能用于此目的。
      1. 对于每种音调,在声音编辑软件中打开一个新项目。
      2. 在"生成"菜单下,选择"音调"。在出现的窗口中选择正弦波形,振幅为0.8,持续时间为1秒。输入与所需音符对应的频率值( 例如, A4为440 Hz)。点击"确定"按钮。
      3. 在"文件"菜单下,选择"导出音频"。在打开的窗口中,输入音频文件所需的名称,然后选择WAV作为所需的文件类型。点击"保存"。
    2. 根据表1选择两个辅音和两个不同时间间隔,使得每个辅音间隔接近于一个不和谐间隔。
      注意:例如,考虑完美的第五和八度音符的辅音间隔和增强的第四(三音)和第七音调的不和谐间隔。这些是由作者进行的研究选择的间隔。
    3. 生成与G4和G6之间的这四个间隔对应的所有可能的笔记组合。
      1. 对于each间隔,在声音编辑软件中打开一个新项目,并使用"文件"菜单下的"导入音频"导入要连接的两个WAV文件。
      2. 将光标放在第二个音调的任意位置,然后单击以选择。点击"编辑"菜单下的"全选"。在同一菜单下,点击"复制"。
      3. 将光标放在第一个音调的任意位置,然后单击。在"编辑"菜单下,单击"移动光标到跟踪结束",然后单击相同菜单下的"粘贴"。按照步骤1.2.1.3中的说明导出音频。
    4. 使用随机序列发生器来产生由100个间隔生成的序列,这些序列以伪随机方式产生,使得四个不同间隔中的每一个正好是25次30次。为此,请使用统计分析软件中的随机置换函数(参见"材料表" )。输入四个interv作为参数,并创建一个循环,重复此过程25次。
    5. 使用行为研究软件生成两个不同的运行。加载每个运行的WAV格式的100个间隔序列,并将每个间隔的标识与单个试验相关联30
      注意:这里使用E-Prime行为研究软件。可以使用其他等效的行为研究软件。
  3. 向参与者解释,他们将听取每个100个间隔的两个序列,其中每个序列与不同的任务相关联,并具有自己的指令集。告诉参与者,在两次运行中,仅当按下有效键时才会播放下一个间隔。
    注意:一旦间隔识别序列开始,它不应该被中断,所以行动过程应尽可能地清楚所有参与者。
    1. 让参与者坐在笔记本电脑的前面并佩戴提供的耳机。使用优质的耳塞式耳机。将声级调整到每个主题的舒适级别。
    2. 如果使用此处描述的行为研究软件,请使用E-Run打开步骤1.2.5中创建的任务。在出现的窗口中,输入会话和主题编号,然后单击"确定"。使用会话编号来区分每个参与者的运行。
      注意:手头的任务说明将出现在屏幕上,随后是任务本身的开始。
      1. 首先,在一个2选择的强制选择任务中,只需让参与者确定他们听到的间隔是辅音还是不协调。让参与者在计算机键盘上按"C"键进行辅音,"D"表示不谐音。
        注意:由于所有参与者都希望在音乐学院进行音乐训练,所有人都希望能够区分辅音和明显地分开声间隔。在某种意义上,第一项任务是证实这一点。
      2. 第二,在4替代强制选择任务中,让参与者自己识别间隔。让参加者按下计算机键盘上的数字"4","5","7"和"8",分别确定第4个,第5个,第7个和第8个音阶的间隔。
    3. 在每个任务结束时,按"确定"将每个参与者的结果自动保存在标有主题和会话号码以及扩展名为.edat2的单独的E-DataAid 2.0文件中。
    4. 使用统计分析软件( 例如, Matlab,SPSS Statistics或开源替代方案)来计算每个任务的成功率( ,确定间隔是辅音还是不一致时成功答案的百分比,以及当识别int自己),单独和作为一个组32

fMRI实验

  1. 准备fMRI会议。
    1. 生成与步骤1.2.3相同间隔的序列,再次由两个持续时间为1秒的连续纯音组成。
      注意:现在必须考虑参加者的声乐范围,所有音符必须舒适地落在每个参与者的歌唱范围内。
      1. 使用随机序列发生器创建30个间隔的随机序列,用于只听试验30 。对于歌唱试验,创建120个间隔的伪随机序列,供参加者收听特定间隔,然后将该目标间隔与他们的歌声进行匹配。对于伪随机序列,使用与步骤1.2.4中描述的相同的方法,再次以4个间隔作为参数,但n重复这个过程30次。
      2. 按照与步骤1.2.5相同的程序,使用行为研究软件产生三个不同的运行,每个运行包括10个静默基准测试,其次是10次连续的只听试验,最后连续40次连续唱歌试验。
        注意:在基线试验期间,四个间隔以随机顺序出现,而在歌唱试验期间,四个间隔以伪随机顺序出现,使得每个间隔最终呈现正好10次。每次试验的持续时间为10秒,整个运行持续10分钟。由于每个受试者经过3次实验,实验的总持续时间为30分钟。然而,允许参与者进入和退出扫描仪,有时间来设置和测试麦克风,以获得解剖扫描的时间,并且在功能运行之间的时间,应该为每个参与者分配约1小时的扫描仪时间。
    2. 向参与者说明如第2.1.1.2节所述的要呈现的试验序列,并回应其可能存在的任何疑问。指导参与者在唱歌试验期间不要张开嘴巴,保持嘴唇静止,同时产生"m"声。
    3. 将非磁性,MR兼容耳机连接到笔记本电脑。将声级调整到每个主题的舒适级别。
    4. 将小型电容麦克风连接到音频接口,然后使用屏蔽双绞线连接到笔记本电脑。
      注意:麦克风电源,音频接口和笔记本电脑都应位于收纳扫描仪的房间外面。
    5. 检查麦克风频率响应。
      注意:本测试的目的是确认麦克风在扫描仪内部的行为与预期的一致。
      1. 在声音编辑软件中启动一个新的项目并选择冷凝器麦克风作为输入设备。
      2. 产生一个440 Hz的测试音,持续时间为10秒,如1.2.1节所述,频率和持续时间的适当值。
      3. 使用笔记本电脑上的默认声音再现软件,按"播放",通过头戴式耳机在头枕(头枕顶部)和外部(控制室)扫描仪的位置发送测试音,麦克风位于两侧的耳机。
      4. 在声音编辑软件中按"录制",在每个位置记录大约1秒的测试音。
      5. 从每个案例的"分析"菜单中选择"绘制光谱",并通过检查每个位置接收到的信号的基频为440 Hz,将麦克风的响应与扫描仪内外的测试音进行比较。
    6. 将电磁话筒粘贴到参与者的脖子上喉。
    7. 参与者佩戴耳机。将参与者放置在磁共振(MR)扫描仪中。
  2. fMRI会话。
    1. 在会议开始时,打开磁共振用户界面(MRUI)软件包。使用MRUI来对采集范例进行编程。
      注意:不同型号之间的界面有些变化。
      1. 从屏幕菜单中选择"患者"选项。输入参与者的姓名,年龄和体重。
      2. 点击"考试"按钮。首先,从可用选项中选择"头",然后选择"大脑"。
      3. 选择"3D",然后选择"T1等距",相关参数为以下值:重复时间(TR)= 10.2 ms,回波时间(TE)= 4.2 ms,翻转角= 90°,体素大小= 1 x 1 x 1 mm 3
        注意:对于每个参与者,T1加权解剖体积将be采用梯度回波脉冲序列进行解剖参考。
      4. 点击"程序",选择EchoPlanaImage_diff_perf_bold(T2 *),相关参数的值如下:TE = 40 ms,TR = 10 s,采集时间(TA)= 3 s,TR中的延迟为7 s,角度= 90°,视场(FOV)= 256 mm 2 ,矩阵尺寸= 64 x 64.使用"Dummy"选项获取5卷,同时输入总体数量"55"。
        注意:这些值允许根据图1所示的稀疏采样范例采集功能T2 *加权全头扫描,其中采集回波平面成像(EPI)"虚拟"扫描并丢弃以允许T1饱和效果。请注意,在一些MRUI中,TR的值应为3 s,因为它被认为是采集发生的总时间。
      5. 点击"复制"制作这个序列的副本ENCE。将光标放在序列列表的底部,然后单击"粘贴"两次以设置三个连续的稀疏采样序列。
      6. 单击"开始"开始T1加权解剖体积采集。
      7. 对参与者进行三次运行,如步骤2.1.1.2所述。使用扫描仪触发器将运行的开始与扫描仪的采集同步。
        1. 按照第1.3.2节所述的相同过程开始三个运行中的每一个,区分使用会话编号的运行。使用与步骤1.3.3中所述相同的步骤保存三次完整运行的结果。
          注意:试用演示的时间安排系统地跳动±500 ms。

figure-protocol-4480
图1:S解析抽样设计。 ( A )仅涉及双音间隔(2秒)的试验中的事件的时间线,而不会随后的公开繁殖。 ( B )涉及听力和歌唱任务的审判事件的时间表。 请点击此处查看此图的较大版本。

3.数据分析

  1. 使用设计用于按照标准程序分析脑成像数据序列的软件预处理功能数据33
    注意:所有数据处理都是使用相同的软件完成的。
    1. 使用提供的菜单选项将图像重新对准标准蒙特利尔神经研究所(MNI)立体定位空间34的第一个体积,重采样和空间归一化(最终体素大小:2 x 2 x 2 mm 3 )。
    2. 使用提供的菜单选项,使用各向同性,8 mm,半最大宽度(FWHM)高斯内核平滑图像。
    3. 为了建模BOLD响应,选择单仓有限脉冲响应(FIR)作为基础功能(1级)或箱式功能,跨越卷采集时间(3秒) 28
      注意:像这样的稀疏采样协议通常不需要与血流动力学响应函数进行卷积,就像事件相关功能磁共振成像的情况一样。
    4. 对每个事件的BOLD响应应用高通滤波器("唱歌网络"为1,000秒,其他地方为360秒)。
      注意:将所有歌唱任务建模在一起将达到400秒35

Access restricted. Please log in or start a trial to view this content.

结果

我们实验中的所有11名参与者都是温室一级的女性声乐学生,他们在间隔识别任务中执行得很好,供选择进行扫描。间隔识别任务的成功率为65.72±21.67%,如预期的那样低于识别不谐音和辅音间隔的成功率,为74.82±14.15%。

为了验证研究的基本设计,我们希望在已知构成"歌唱网络"的地区歌唱中确定神经活动,如以前的研?...

Access restricted. Please log in or start a trial to view this content.

讨论

这项工作描述了一种协议,其中使用歌唱作为在辅音和不和谐间隔的生产期间研究脑活动的手段。尽管唱歌提供了用于制作音乐间隔22的最简单的方法,但它不允许制作和弦。然而,虽然辅音概念的大多数物理表征在某种程度上依赖于同时音符的叠加,但一些研究表明,用对应于辅音或不和谐和弦的音符构成的间隔仍被认为是辅音或不和谐,分别为4,6,15,41,42。

Access restricted. Please log in or start a trial to view this content.

披露声明

作者声明没有利益冲突。

致谢

作者承认财务支持秘书长萨卢德·墨西哥(HIM / 2011/058 SSA。1009),CONACYT(SALUD-2012-01-182160)和DGAPA UNAM(PAPIIT IN109214)的研究。

Access restricted. Please log in or start a trial to view this content.

材料

NameCompanyCatalog NumberComments
Achieva 1.5-T magnetic resonance scannerPhilipsRelease 6.4
AudacityOpen source2.0.5
Audio interfaceTascamUS-144MKII
AudiometerBrüel & KjaerType 1800
E-Prime ProfessionalPsychology Software Tools, Inc.2.0.0.74
MatlabMathworksR2014A
MRI-Compatible Insert EarphonesSensimetricsS14
PraatOpen source5.4.12
Pro-audio condenser microphoneShureSM93
SPSS StatisticsIBM20
Statistical Parametric MappingWellcome Trust Centre for Neuroimaging8

参考文献

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061(1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237(2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Access restricted. Please log in or start a trial to view this content.

转载和许可

请求许可使用此 JoVE 文章的文本或图形

请求许可

探索更多文章

123 fMRI

This article has been published

Video Coming Soon

JoVE Logo

政策

使用条款

隐私

科研

教育

关于 JoVE

版权所属 © 2025 MyJoVE 公司版权所有,本公司不涉及任何医疗业务和医疗服务。