JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Los correlatos neuronales de escuchar intervalos consonantes y disonantes han sido ampliamente estudiados, pero los mecanismos neurales asociados con la producción de intervalos consonantes y disonantes son menos conocidos. En este artículo, las pruebas de comportamiento y fMRI se combinan con la identificación de intervalos y las tareas de canto para describir estos mecanismos.

Resumen

Los correlatos neurales de la consonancia y la disonancia percepción han sido ampliamente estudiados, pero no los correlatos neurales de la consonancia y disonancia de la producción. La forma más directa de la producción musical es el canto, pero, desde una perspectiva de imagen, todavía presenta más retos que escuchar porque involucra la actividad motora. El canto preciso de los intervalos musicales requiere la integración entre el procesamiento de realimentación auditiva y el control del motor vocal con el fin de producir correctamente cada nota. Este protocolo presenta un método que permite el seguimiento de las activaciones neuronales asociadas con la producción vocal de intervalos consonantes y disonantes. Cuatro intervalos musicales, dos consonantes y dos disonantes, se utilizan como estímulos, tanto para una prueba de discriminación auditiva como para una tarea que implica escuchar primero y luego reproducir intervalos dados. Los participantes, todos los estudiantes femeninos vocales en el nivel de invernadero, fueron estudiados utilizando funcional Magnetic Res(FMRI) durante la realización de la tarea de canto, con la tarea de escucha que sirve como una condición de control. De esta manera, se observó la actividad de los sistemas motor y auditivo, y también se obtuvo una medida de la precisión vocal durante la tarea de canto. Por lo tanto, el protocolo también se puede utilizar para realizar un seguimiento de las activaciones asociadas con el canto de diferentes tipos de intervalos o con cantar las notas requeridas con mayor precisión. Los resultados indican que el canto de los intervalos disonantes requiere una mayor participación de los mecanismos neuronales responsables de la integración de la retroalimentación externa de los sistemas auditivo y sensoriomotor que los intervalos consonantes cantantes.

Introducción

Ciertas combinaciones de notas musicales se reconocen generalmente consonantes, y se asocian típicamente con una sensación agradable. Otras combinaciones se denominan generalmente disonantes y están asociadas con un sentimiento desagradable o no resuelto 1 . Aunque parece razonable suponer que la enculturación y el entrenamiento juegan algún papel en la percepción de la consonancia 2 , se ha demostrado recientemente que las diferencias en la percepción de los intervalos y acordes consonantes y disonantes probablemente dependen menos de la cultura musical de lo que se pensaba anteriormente3 y pueden Incluso derivan de simples bases biológicas 4 , 5 , 6 . Con el fin de evitar una comprensión ambigua del término consonancia, Terhardt 7 introdujo la noción de consonancia sensorial, en contraposición a la consonancia en un contexto musical, Donde la armonía, por ejemplo, puede influir en la respuesta a un acorde o intervalo dado. En el presente protocolo, sólo aislados, de dos notas intervalos se utilizaron precisamente para seleccionar las activaciones exclusivamente relacionadas con la consonancia sensorial, sin interferencia de contexto dependiente de procesamiento [ 8] .

Los intentos de caracterizar la consonancia a través de medios puramente físicos comenzaron con Helmholtz 9 , quien atribuyó la aspereza percibida asociada con acordes disonantes a la pulsación entre componentes de frecuencia adyacentes. Más recientemente, sin embargo, se ha demostrado que la consonancia sensorial no sólo está asociada con la ausencia de rugosidad, sino también con la armonía, es decir, la alineación de los parciales de un tono o acorde dado con los de un tono inaudito de un Frecuencia inferior 10 , 11 . Los estudios conductuales confirman que la consonancia subjetiva es realmente afectada por puDependen de los parámetros físicos, como la distancia de frecuencia 12 , 13 , pero una gama más amplia de estudios han demostrado concluyentemente que los fenómenos físicos no pueden explicar únicamente las diferencias entre la consonancia percibida y la disonancia 14 , 15 , 16 , 17 . Todos estos estudios, sin embargo, reportan estas diferencias al escuchar una variedad de intervalos o acordes. Una variedad de estudios que utilizan la tomografía por emisión de positrones (PET) y la resonancia magnética funcional (IRMf) han revelado diferencias significativas en las regiones corticales que se activan al escuchar intervalos consonantes o disonantes y acordes 8 , 18 , 19 , 20 . El propósito del presente estudio es explorar las diferenciasEn la actividad cerebral al producir, en lugar de escuchar, intervalos consonantes y disonantes.

El estudio del control sensorio-motor durante la producción musical suele implicar el uso de instrumentos musicales y muy a menudo requiere la fabricación de instrumentos modificados específicamente para su uso durante la neuroimagen 21 . El canto, sin embargo, parece proporcionar desde el principio un mecanismo apropiado para el análisis de los procesos sensorio-motor durante la producción musical, ya que el instrumento es la voz humana en sí, y el aparato vocal no requiere ninguna modificación para ser adecuado durante Imágenes 22 . Aunque los mecanismos neuronales asociados con aspectos del canto, como el control de tono 23 , la imitación vocal 24 , los cambios adaptativos inducidos por el entrenamiento 25 , y la integración de la retroalimentación externa 25 , , 27 , 28 , 29 , han sido objeto de una serie de estudios en los últimos dos decenios, los correlatos neurales de cantando consonante y disonante intervalos fueron sólo recientemente descrito [ 30] . Para este propósito, el presente trabajo describe una prueba conductual diseñada para establecer el reconocimiento adecuado de los intervalos consonantes y disonantes por los participantes. Esto es seguido por un estudio fMRI de participantes cantando una variedad de intervalos consonantes y disonantes. El protocolo fMRI es relativamente sencillo, pero, como con todas las investigaciones de RM, se debe tener mucho cuidado de configurar correctamente los experimentos. En este caso, es particularmente importante minimizar el movimiento de la cabeza, la boca y los labios durante las tareas de canto, haciendo que la identificación de efectos no directamente relacionados con el acto físico de cantar sea más directo. Esta metodología puede utilizarse paraLos mecanismos neuronales asociados con una variedad de actividades que implican la producción musical cantando.

Access restricted. Please log in or start a trial to view this content.

Protocolo

Este protocolo ha sido aprobado por el Comité de Investigación, Ética y Seguridad del Hospital Infantil de México "Federico Gómez".

1. Pretest conductual

  1. Realice una prueba audiométrica estándar de tono puro para confirmar que todos los participantes potenciales poseen audición normal (nivel de audición de 20 dB (HL) sobre frecuencias de octava de -8.000 Hz). Utilice el Edinburgh Handedness Inventory 31 para asegurarse de que todos los participantes son diestros.
  2. Generación de secuencias de intervalos.
    1. Produce tonos puros que abarcan dos octavas, G4-G6, utilizando un programa de edición de sonido.
      NOTA: Aquí se describe el software de edición de sonido libre, de código abierto Audacity. Otros paquetes pueden ser usados ​​para este propósito.
      1. Para cada tono, abra un nuevo proyecto en el software de edición de sonido.
      2. En el menú "Generar", seleccione "Tono". En la ventana que aparece, sElegir una forma de onda senoidal, una amplitud de 0,8 y una duración de 1 s. Introduzca el valor de la frecuencia que corresponda a la nota deseada ( por ejemplo, 440 Hz para A4). Haga clic en el botón "Aceptar".
      3. En el menú "Archivo", seleccione "Exportar audio". En la ventana que se abre, introduzca el nombre deseado para el archivo de audio y elija WAV como el tipo de archivo deseado. Clic en Guardar."
    2. Seleccione dos intervalos consonantes y dos disonantes, de acuerdo con la Tabla 1 , de tal manera que cada intervalo de consonantes esté cerca de un intervalo disonante.
      NOTA: Como ejemplo, considere los intervalos de consonante de un quinto perfecto y una octava y los intervalos disonantes de un cuarto aumentado (tritón) y un séptimo mayor. Estos son los intervalos elegidos para el estudio realizado por los autores.
    3. Generar todas las combinaciones posibles de notas correspondientes a estos cuatro intervalos en el rango entre G4 y G6.
      1. Para eacH, abra un nuevo proyecto en el software de edición de sonido y utilice "Importar audio" en el menú "Archivo" para importar los dos archivos WAV a concatenar.
      2. Coloque el cursor en cualquier punto del segundo tono y haga clic para seleccionarlo. Haga clic en "Seleccionar todo" en el menú "Editar". Bajo el mismo menú, haga clic en "Copiar".
      3. Coloque el cursor en cualquier punto sobre el primer tono y haga clic. Bajo el menú "Editar", haga clic en "Mover Cursor a Track End" y luego haga clic en "Pegar" en el mismo menú. Exporte el audio como se describe en el paso 1.2.1.3.
    4. Utilizar un generador de secuencia aleatoria para producir secuencias consistentes en 100 intervalos generados pseudo-aleatoriamente de tal manera que cada uno de los cuatro intervalos diferentes se produce exactamente 25 veces 30 . Para ello, utilice la función de permutación aleatoria en el software de análisis estadístico (véase la tabla de materiales ). Introduzca los cuatro intervalosAls como argumentos y crear un bucle que repita este proceso 25 veces.
    5. Utilice software de investigación conductual para generar dos ejecuciones distintas. Cargar una secuencia de 100 intervalos en formato WAV para cada ejecución y asociar la identificación de cada intervalo con un único ensayo [ 30] .
      NOTA: Aquí se utiliza el software de investigación de comportamiento E-Prime. Se puede utilizar otro software equivalente de investigación conductual.
  3. Explique a los participantes que escucharán dos secuencias de 100 intervalos cada una, donde cada secuencia está asociada con una tarea diferente y con su propio conjunto de instrucciones. Dígales a los participantes que, en ambas ejecuciones, el siguiente intervalo se reproducirá sólo cuando se presione una tecla válida.
    NOTA: Una vez iniciada la secuencia de reconocimiento de intervalos, no debe interrumpirse para que el curso de acción sea lo más claro posible para todos los participantes.
    1. Haga que los participantes se sienten delante de un ordenador portátilY usar los auriculares proporcionados. Utilice auriculares de buena calidad sobre el oído. Ajuste el nivel de sonido a un nivel cómodo para cada sujeto.
    2. Si utiliza el software de investigación de comportamiento descrito aquí, abra las tareas creadas en el paso 1.2.5 con E-Run. En la ventana que aparece, ingrese la sesión y el número de asunto y haga clic en "Aceptar". Utilice el número de sesión para distinguir entre ejecuciones para cada participante.
      NOTA: Las instrucciones para la tarea en cuestión aparecerán en la pantalla, seguido por el inicio de la tarea en sí.
      1. Primero, en una tarea de 2 alternativas de elección forzada, simplemente haga que los participantes identifiquen si los intervalos que escuchan son consonantes o disonantes. Haga que el participante presione "C" en el teclado del ordenador para consonante y "D" para disonante.
        NOTA: Dado que se espera que todos los participantes tengan formación musical en un nivel de conservatorio, se espera que todos sean capaces de distinguir entre patentemente consonante y patentemente dis.Intervalos sonoros. La primera tarea sirve, en cierto sentido, como confirmación de que este es realmente el caso.
      2. En segundo lugar, en una tarea de 4 alternativas de elección forzada, los participantes deben identificar los intervalos mismos. Pida a los participantes que presionen los números "4", "5", "7" y "8" en el teclado de la computadora para identificar los intervalos de una cuarta, quinta, quinta, séptima y octava respectivamente.
    3. Al final de cada tarea, presione "Aceptar" para guardar automáticamente los resultados de cada participante en un archivo individual de E-DataAid 2.0 etiquetado con el asunto y los números de sesión y con la extensión .edat2.
    4. Utilizar software de análisis estadístico ( por ejemplo, Matlab, SPSS Statistics o una alternativa de código abierto) para calcular las tasas de éxito de cada tarea ( es decir, el porcentaje de respuestas exitosas al identificar si los intervalos eran consonantes o disonantes y también cuando se identificaba el intErvales), tanto individualmente como en grupo 32 .

2. Experimento fMRI

  1. Preparación para la sesión de fMRI.
    1. Generar secuencias de los mismos intervalos que en el paso 1.2.3, nuevamente compuestas de dos tonos puros consecutivos con una duración de 1 s cada uno.
      NOTA: Ahora se debe tener en cuenta el rango vocal de los participantes y todas las notas deben caer cómodamente dentro del rango de canto de cada participante.
      1. Utilice un generador de secuencia aleatoria para crear una secuencia aleatoria de 30 intervalos para los ensayos sólo de escucha [ 30] . Para los ensayos de canto, cree una secuencia pseudo-aleatoria de 120 intervalos para que los participantes escuchen un intervalo específico y luego hagan coincidir este intervalo objetivo con sus voces cantoras. Para la secuencia seudorandomizada, utilice el mismo método que se describe en el paso 1.2.4, con los 4 intervalos como argumentos una vez más, pero nRepitiendo este proceso 30 veces.
      2. Siguiendo el mismo procedimiento que en el paso 1.2.5, utilice el software de investigación conductual para generar tres series distintas, cada una consistente inicialmente en 10 ensayos de línea de base silenciosos, seguidos por 10 ensayos consecutivos de escucha y finalmente en 40 ensayos consecutivos de canto.
        NOTA: Durante los ensayos de línea de base, los cuatro intervalos aparecen en orden aleatorio, mientras que durante los ensayos de canto, los cuatro intervalos aparecen en orden pseudo-ordenado, de tal manera que cada intervalo se presenta 10 veces. La duración de cada ensayo es de 10 s, por lo que una carrera completa dura 10 min. Dado que cada sujeto pasa por 3 pruebas experimentales, la duración total del experimento es de 30 min. Sin embargo, permitiendo a los participantes entrar y salir del escáner, tiempo para configurar y probar el micrófono, tiempo para obtener la exploración anatómica y tiempo entre funcionales, se asignará aproximadamente 1 hora de escáner a cada participante .
    2. Explique a los participantes las secuencias de los ensayos que se presentarán, como se describe en el paso 2.1.1.2, y responda a las dudas que pudieran tener. Instruya a los participantes a tararear las notas sin abrir la boca durante los ensayos de canto, manteniendo los labios quietos mientras producen un sonido "m".
    3. Conecte un auricular no magnético compatible con MR a un ordenador portátil. Ajuste el nivel de sonido a un nivel cómodo para cada sujeto.
    4. Conecte un pequeño micrófono de condensador a una interfaz de audio que a su vez esté conectada al ordenador portátil mediante un cable triplete trenzado apantallado.
      NOTA: La fuente de alimentación del micrófono, la interfaz de audio y la computadora portátil deben ubicarse fuera de la habitación que aloja el escáner.
    5. Compruebe la respuesta de frecuencia del micrófono.
      NOTA: El propósito de esta prueba es confirmar que el micrófono se comporta como se espera en el interior del escáner.
      1. Inicie un nuevo proyecto en el software de edición de sonido y seleccione el condensadorComo dispositivo de entrada.
      2. Genere un tono de prueba de 440 Hz con una duración de 10 s, tal como se describe en la sección 1.2.1, con los valores apropiados de frecuencia y duración.
      3. Utilizando el software de reproducción de sonido por defecto en el portátil, presione "Play" para enviar el tono de prueba a través de los auriculares en los lugares situados dentro (en la parte superior del reposacabezas) y fuera (en la sala de control) Del auricular en cada caso.
      4. Pulse "Grabar" en el software de edición de sonido para grabar aproximadamente 1 s del tono de prueba en cada ubicación.
      5. Seleccione "Plot Spectrum" en el menú "Analyze" para cada caso y compare la respuesta del micrófono al tono de prueba, tanto dentro como fuera del escáner, comprobando que la frecuencia fundamental de la señal recibida en cada ubicación es de 440 Hz.
    6. Tape el micrófono del condensador en el cuello del participante, justo debajo dellaringe.
    7. Haga que el participante use el auricular. Coloque al participante en un escáner de resonancia magnética (MR).
  2. Sesión de fMRI.
    1. Al comienzo de la sesión, abra el paquete de software de la interfaz de usuario de resonancia magnética (MRUI). Utilice el MRUI para programar el paradigma de adquisición.
      NOTA: Se puede esperar una variación en la interfaz entre diferentes modelos.
      1. Seleccione la opción "Paciente" en el menú en pantalla. Escriba el nombre, la edad y el peso del participante.
      2. Haga clic en el botón "Exam". En primer lugar, elija "Head" y luego "Brain" de las opciones disponibles.
      3. Seleccione "3D" y luego "T1 isométrico", con los siguientes valores para los parámetros relevantes: Tiempo de repetición (TR) = 10,2 ms, tiempo de eco (TE) = 4,2 ms, ángulo de vuelco = 90 ° y tamaño de voz = 1 x 1 x 1 mm 3 .
        NOTA: Para cada participante, un volumen anatómico ponderado T1 será bE adquirido utilizando una secuencia de pulso de eco de gradiente para referencia anatómica.
      4. Haga clic en "Programa" y seleccione EchoPlanaImage_diff_perf_bold (T2 *), con los valores de los parámetros relevantes como sigue: TE = 40 ms, TR = 10 s, Tiempo de adquisición (TA) = 3 s, Retardo TR = 7 s, Ángulo = 90 °, Campo de visión (FOV) = 256 mm2 y dimensiones de la matriz = 64 x 64. Utilice la opción "Dummy" para adquirir 5 volúmenes al introducir un valor de "55" para el número total de volúmenes.
        NOTA: Estos valores permiten la adquisición de gammagrafías de cabezas totales ponderadas T2 * funcionales de acuerdo con el paradigma de muestreo escaso ilustrado en la Figura 1 , en el que se adquiere y se descarta una exploración "simulada" de imagen de ecoplanar (EPI) para permitir la saturación de T1 Efectos. Obsérvese que en algunos MRUIs, el valor de TR debe ser 3 s, ya que se toma como el tiempo total durante el cual tiene lugar la adquisición.
      5. Haga clic en "Copiar" para hacer una copia de este archivo.La Coloque el cursor en la parte inferior de la lista de secuencias y luego haga clic en "Pegar" dos veces para configurar tres secuencias de muestreo dispersas consecutivas.
      6. Haga clic en "Inicio" para comenzar la adquisición de volumen anatómico ponderado T1.
      7. Presente tres carreras al participante, con las tiradas como se describe en el paso 2.1.1.2. Sincronice el inicio de las ejecuciones con la adquisición por el escáner utilizando la caja de disparo del escáner.
        1. Siga el mismo procedimiento que se describe en la sección 1.3.2 para comenzar cada una de las tres ejecuciones, diferenciando entre las ejecuciones usando el número de sesión. Guarde los resultados de tres ejecuciones completas utilizando el mismo procedimiento descrito en el paso 1.3.3.
          NOTA: La sincronización de las presentaciones del ensayo se agita sistemáticamente en ± 500 ms.

figure-protocol-13698
Figura 1: SParse-sampling Diseño. ( A ) Cronología de los eventos dentro de un ensayo que implica sólo escuchar un intervalo de dos tonos (2 s), sin posterior reproducción abierta. ( B ) Cronología de los eventos dentro de un ensayo que incluye tareas de escucha y canto. Haga clic aquí para ver una versión más grande de esta figura.

3. Análisis de datos

  1. Preprocesar los datos funcionales mediante el software diseñado para el análisis de las secuencias de datos de imágenes cerebrales siguiendo procedimientos estándar [ 33] .
    NOTA: Todo el procesamiento de datos se realiza utilizando el mismo software.
    1. Utilice la opción de menú proporcionada para realinear las imágenes al primer volumen, re-muestreadas y espacialmente normalizadas (tamaño final del voxel: 2 x 2 x 2 mm 3 ) al espacio estereotáctico estándar 34 del Instituto Neurológico de Montreal (MNI).
    2. Utilice la opción de menú proporcionada para suavizar la imagen utilizando un núcleo gaussiano isotrópico de 8 mm de ancho total a medio máximo (FWHM).
    3. Para modelar la respuesta BOLD, seleccione una respuesta de impulso finito (FIR) de una sola bandeja como función de base (orden 1) o función de carrocería, que abarca el tiempo de adquisición de volumen (3 s) 28 .
      NOTA: Los protocolos de muestreo disperso, como éste, generalmente no requieren que la FIR se convolucione con la función de respuesta hemodinámica, como es comúnmente el caso para la RMF relacionada con el evento.
    4. Aplique un filtro de paso alto a la respuesta BOLD para cada evento (1.000 s para la "red de canto" y 360 s en otro lugar).
      NOTA: El modelado de todas las tareas de canto en conjunto asciende a un bloque de 400 s 35 .

Access restricted. Please log in or start a trial to view this content.

Resultados

Los 11 participantes en nuestro experimento fueron estudiantes vocales femeninas en el nivel de conservatorio, y se desempeñaron lo suficientemente bien en las tareas de reconocimiento de intervalo para ser seleccionado para el escaneo. La tasa de éxito de la tarea de identificación de intervalos fue de 65,72 ± 21,67%, lo que es, como se esperaba, menor que la tasa de éxito al identificar intervalos disonantes y consonantes, que fue 74,82 ± 14,15%.

Access restricted. Please log in or start a trial to view this content.

Discusión

Este trabajo describe un protocolo en el que el canto se utiliza como un medio de estudiar la actividad cerebral durante la producción de los intervalos de consonante y disonante. A pesar de que el canto proporciona lo que es posiblemente el método más sencillo para la producción de intervalos musicales 22 , no permite la producción de acordes. Sin embargo, aunque la mayoría de las caracterizaciones físicas de la noción de consonancia dependen en cierta medida de la superposición de nota...

Access restricted. Please log in or start a trial to view this content.

Divulgaciones

Los autores declaran no tener conflictos de intereses.

Agradecimientos

Los autores reconocen el apoyo financiero a esta investigación de la Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) y DGAPA UNAM (PAPIIT IN109214).

Access restricted. Please log in or start a trial to view this content.

Materiales

NameCompanyCatalog NumberComments
Achieva 1.5-T magnetic resonance scannerPhilipsRelease 6.4
AudacityOpen source2.0.5
Audio interfaceTascamUS-144MKII
AudiometerBrüel & KjaerType 1800
E-Prime ProfessionalPsychology Software Tools, Inc.2.0.0.74
MatlabMathworksR2014A
MRI-Compatible Insert EarphonesSensimetricsS14
PraatOpen source5.4.12
Pro-audio condenser microphoneShureSM93
SPSS StatisticsIBM20
Statistical Parametric MappingWellcome Trust Centre for Neuroimaging8

Referencias

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061(1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237(2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Access restricted. Please log in or start a trial to view this content.

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

ComportamientoN mero 123Consonancia y disonanciacorrelatos neuronales de la m sicaidentificaci n de intervalos musicalescantoresonancia magn tica funcional IRMfintegraci n audio vocal

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados