JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Os correlatos neurais de ouvir intervalos consonantais e dissonantes têm sido amplamente estudados, mas os mecanismos neurais associados à produção de intervalos consonantes e dissonantes são menos conhecidos. Neste artigo, testes comportamentais e fMRI são combinados com a identificação de intervalos e tarefas de canto para descrever esses mecanismos.

Resumo

Os correlatos neurais da percepção de consonância e dissonância têm sido amplamente estudados, mas não os correlatos neurais da consonância e da produção de dissonância. A maneira mais direta de produção musical é cantar, mas, do ponto de vista da imagem, ela ainda apresenta mais desafios do que ouvir porque envolve atividade motora. O canto exato de intervalos musicais requer integração entre o processamento de feedback auditivo e o controle de motor vocal para produzir corretamente cada nota. Este protocolo apresenta um método que permite o monitoramento de ativações neurais associadas à produção vocal de intervalos consoante e dissonante. Quatro intervalos musicais, dois consonantes e dois dissonantes, são usados ​​como estímulos, tanto para um teste de discriminação auditiva quanto para uma tarefa que envolve primeiro ouvir e depois reproduzir intervalos dados. Os participantes, todos os alunos vocais femininos no nível de conservatório, foram estudados usando funcional Magnetic Res(FMRI) durante o desempenho da tarefa de canto, com a tarefa de escuta servindo como uma condição de controle. Desta maneira, observou - se a atividade dos sistemas motor e auditivo e também obteve - se uma medida de precisão vocal durante a tarefa de canto. Assim, o protocolo também pode ser usado para controlar as ativações associadas ao canto de diferentes tipos de intervalos ou ao cantar as notas requeridas com mais precisão. Os resultados indicam que os intervalos dissonantes de canto requerem maior participação dos mecanismos neurais responsáveis ​​pela integração do feedback externo dos sistemas auditivo e sensório-motor do que os intervalos de consonância de canto.

Introdução

Certas combinações de sons musicais são geralmente reconhecidas como consoantes, e são tipicamente associadas a uma sensação agradável. Outras combinações são geralmente referidas como dissonantes e estão associadas a um sentimento desagradável ou não resolvido 1 . Embora pareça sensato supor que a enculturação e o treinamento desempenham algum papel na percepção da consonância 2 , tem sido recentemente demonstrado que as diferenças na percepção de intervalos e acordes consonantais e dissonantes provavelmente dependem menos da cultura musical do que se pensava anteriormente 3 e podem Derivam mesmo de bases biológicas simples 4 , 5 , 6 . Para evitar uma compreensão ambígua do termo consonância, Terhardt 7 introduziu a noção de consonância sensorial, ao contrário da consonância em um contexto musical, Onde a harmonia, por exemplo, pode muito bem influenciar a resposta a um dado acorde ou intervalo. No presente protocolo, apenas os intervalos isolados de duas notas foram utilizados precisamente para ativações únicas unicamente relacionadas à consonância sensorial, sem interferência do processamento dependente do contexto 8 .

As tentativas de caracterizar a consonância por meios puramente físicos começaram com Helmholtz 9 , que atribuiu a rugosidade percebida associada aos acordes dissonantes à batida entre componentes de freqüência adjacentes. Mais recentemente, no entanto, foi demonstrado que a consonância sensorial não está associada apenas à ausência de rugosidade, mas também à harmonicidade, ou seja, ao alinhamento das parciais de um dado tom ou corda com as de um tom inaudito de um Menor frequência 10 , 11 . Estudos comportamentais confirmam que a consonância subjetiva é realmente afetada por puDependem de parâmetros físicos, como a distância de freqüência 12 , 13 , mas uma gama mais ampla de estudos têm demonstrado conclusivamente que os fenômenos físicos não podem explicar apenas as diferenças entre consonância percebida e dissonância 14 , 15 , 16 , 17 . Todos estes estudos, no entanto, relatam essas diferenças ao ouvir uma variedade de intervalos ou acordes. Diversos estudos com Tomografia por Emissão de Pósitrons (PET) e Ressonância Magnética Funcional (IRMf) revelaram diferenças significativas nas regiões corticais que se tornam ativas quando se escutam intervalos consoantes ou dissonantes e acordes 8 , 18 , 19 , 20 . O objetivo do presente estudo é explorar as diferenças entreNa atividade cerebral ao produzir, ao invés de ouvir, intervalos consonantais e dissonantes.

O estudo do controle sensório-motor durante a produção musical envolve tipicamente o uso de instrumentos musicais e muitas vezes exige a fabricação de instrumentos modificados especificamente para seu uso durante a neuroimagem 21 . O canto, no entanto, parece fornecer desde o início um mecanismo adequado para a análise dos processos sensório-motor durante a produção musical, pois o instrumento é a própria voz humana eo aparelho vocal não requer qualquer modificação para ser adequado durante a Imagem 22 . Embora os mecanismos neurais associados aos aspectos do canto, como o controle de passo 23 , a imitação vocal 24 , as mudanças adaptativas induzidas pelo treinamento 25 ea integração do feedback externo 25 , , 27 , 28 , 29 , têm sido objeto de uma série de estudos ao longo das últimas duas décadas, os correlatos neurais de cantar consoante e dissonante intervalos foram apenas recentemente descrito [ 30] . Para tanto, o presente artigo descreve um teste comportamental destinado a estabelecer o adequado reconhecimento dos intervalos consoante e dissonante pelos participantes. Isto é seguido por um estudo fMRI dos participantes cantando uma variedade de intervalos consonantais e dissonantes. O protocolo fMRI é relativamente simples, mas, como em todas as pesquisas de ressonância magnética, grande cuidado deve ser tomado para configurar corretamente os experimentos. Neste caso, é particularmente importante minimizar o movimento da cabeça, boca e lábio durante as tarefas de canto, tornando a identificação de efeitos não diretamente relacionados ao ato físico de cantar mais direto. Esta metodologia pode ser utilizada paraVestigam os mecanismos neurais associados a uma variedade de atividades envolvendo produção musical por canto.

Access restricted. Please log in or start a trial to view this content.

Protocolo

Este protocolo foi aprovado pelo Comitê de Pesquisa, Ética e Segurança do Hospital Infantil do México "Federico Gómez".

1. Pre-teste comportamental

  1. Realize um teste audiométrico padronizado de tons puros para confirmar que todos os participantes em potencial possuem audição normal (nível de audição de 20 dB em frequências de oitava de -8.000 Hz). Use o Edinburgh Handedness Inventory 31 para garantir que todos os participantes sejam destro.
  2. Geração de seqüências de intervalo.
    1. Produza sons puros que abrangem duas oitavas, G4-G6, usando um programa de edição de som.
      NOTA: Aqui, o software de edição de som open-source gratuito, Audacity, é descrito. Outros pacotes podem ser usados ​​para este fim.
      1. Para cada tom, abra um novo projeto no software de edição de som.
      2. No menu "Gerar", selecione "Tom". Na janela que aparece, sEleger uma forma de onda senoidal, uma amplitude de 0,8 e uma duração de 1 s. Introduza o valor da frequência que corresponde à nota desejada ( por exemplo, 440 Hz para A4). Clique no botão "OK".
      3. No menu "Arquivo", selecione "Exportar Áudio". Na janela que se abre, digite o nome desejado para o arquivo de áudio e escolha WAV como o tipo de arquivo desejado. Clique em "Salvar".
    2. Selecione dois intervalos consoante e dois dissonantes, de acordo com a Tabela 1 , de tal forma que cada intervalo consoante esteja próximo de um intervalo dissonante.
      NOTA: Como exemplo, considere os intervalos consoantes de um quinto perfeito e uma oitava e os intervalos dissonantes de um quarto aumentado (tritônio) e um sétimo maior. Estes são os intervalos escolhidos para o estudo realizado pelos autores.
    3. Gere todas as combinações possíveis de notas correspondentes a estes quatro intervalos no intervalo entre G4 e G6.
      1. Para eacH, abra um novo projeto no software de edição de som e use "Importar Áudio" no menu "Arquivo" para importar os dois arquivos WAV a serem concatenados.
      2. Coloque o cursor em qualquer ponto sobre o segundo tom e clique para selecionar. Clique em "Selecionar tudo" no menu "Editar". No mesmo menu, clique em "Copiar".
      3. Coloque o cursor em qualquer ponto sobre o primeiro tom e clique. No menu "Editar", clique em "Mover Cursor para Fim da Faixa" e clique em "Colar" no mesmo menu. Exporte o áudio conforme descrito na etapa 1.2.1.3.
    4. Use um gerador de seqüência aleatória para produzir seqüências consistindo em 100 intervalos gerados pseudo-aleatoriamente de tal forma que cada um dos quatro intervalos diferentes ocorre exatamente 25 vezes 30 . Para fazer isso, use a função de permutação aleatória no software de análise estatística (consulte a Tabela de Materiais ). Introduza os quatro intervComo argumentos e criar um loop que repete esse processo 25 vezes.
    5. Use software de pesquisa comportamental para gerar duas execuções distintas. Carregar uma seqüência de 100 intervalos no formato WAV para cada execução e associar a identificação de cada intervalo com um único julgamento [ 30] .
      NOTA: Aqui, o software de pesquisa comportamental E-Prime é usado. Outro software de pesquisa comportamental equivalente pode ser usado.
  3. Explique aos participantes que irão ouvir duas seqüências de 100 intervalos cada, onde cada seqüência está associada a uma tarefa diferente e com seu próprio conjunto de instruções. Diga aos participantes que, em ambas as corridas, o próximo intervalo será jogado somente quando uma tecla válida for pressionada.
    NOTA: Uma vez iniciada a seqüência de reconhecimento de intervalos, ela não deve ser interrompida para que o curso de ação seja o mais claro possível para todos os participantes.
    1. Peça aos participantes que se sentem na frente de um computador portátilE usar os fones de ouvido fornecidos. Use fones de ouvido de boa qualidade sobre a orelha. Ajuste o nível de som para um nível confortável para cada assunto.
    2. Se estiver usando o software de pesquisa comportamental descrito aqui, abra as tarefas criadas na etapa 1.2.5 com E-Run. Na janela que aparece, digite a sessão eo número do assunto e clique em "OK". Use o número de sessão para distinguir entre execuções para cada participante.
      NOTA: As instruções para a tarefa em mãos aparecerão na tela, seguido pelo início da tarefa em si.
      1. Primeiro, em uma tarefa de escolha forçada de 2 alternativas, basta que os participantes identifiquem se os intervalos ouvidos são consoantes ou dissonantes. Peça ao participante que pressione "C" no teclado do computador para consoante e "D" para dissonante.
        NOTA: Uma vez que todos os participantes são esperados para ter formação musical em um nível de conservatório, todos eles são esperados para ser capaz de distinguir entre patentemente consoante e manifestamente disIntervalos sonoros. A primeira tarefa serve, em certo sentido, como confirmação de que esse é realmente o caso.
      2. Em segundo lugar, em uma tarefa de 4 alternativas de escolha forçada, os participantes devem identificar os intervalos. Peça aos participantes que apertem os números "4", "5", "7" e "8" no teclado do computador para identificar os intervalos de um quinto aumentado, quinto perfeito, sétimo maior e oitava, respectivamente.
    3. Ao final de cada tarefa, pressione "OK" para salvar automaticamente os resultados de cada participante em um arquivo individual do E-DataAid 2.0 rotulado com o assunto e números de sessão e com a extensão .edat2.
    4. Utilize um software de análise estatística ( por exemplo, Matlab, SPSS Statistics ou uma alternativa de fonte aberta) para calcular as taxas de sucesso de cada tarefa ( ou seja, a percentagem de respostas bem-sucedidas ao identificar se os intervalos eram consonantes ou dissonantes e também quando se identificava o intErvais), tanto individualmente quanto como grupo 32 .

2. Experiência fMRI

  1. Preparação para a sessão fMRI.
    1. Gerar sequências dos mesmos intervalos que no passo 1.2.3, novamente composto de dois tons puros consecutivos com uma duração de 1 s cada.
      NOTA: A faixa vocal dos participantes deve agora ser levada em conta, e todas as notas devem cair confortavelmente dentro da faixa de canto de cada participante.
      1. Use um gerador de seqüência aleatória para criar uma seqüência aleatória de 30 intervalos para os ensaios apenas de escuta 30 . Para os ensaios de canto, crie uma seqüência pseudo-aleatória de 120 intervalos para que os participantes possam ouvir um intervalo específico e então combinar esse intervalo de destino com suas vozes de canto. Para a seqüência pseudo-randomizada, use o mesmo método descrito no passo 1.2.4, com os 4 intervalos como argumentos mais uma vez, mas nOw repetir este processo 30 vezes.
      2. Seguindo o mesmo procedimento descrito na etapa 1.2.5, use o software de pesquisa comportamental para gerar três corridas distintas, cada uma consistindo inicialmente de 10 testes de linha de base silenciosos, seguidos por 10 testes de escuta consecutivos e, finalmente, por 40 testes de canto consecutivos.
        NOTA: Durante os ensaios de linha de base, os quatro intervalos aparecem em ordem aleatória, enquanto que durante os ensaios de canto, os quatro intervalos aparecem em ordem pseudo-ordenada, de tal forma que cada intervalo é eventualmente apresentado exatamente 10 vezes. A duração de cada ensaio é de 10 s, pelo que uma duração total dura 10 min. Uma vez que cada sujeito passa por 3 experiências, a duração total da experiência é de 30 min. No entanto, permitindo que os participantes entrem e saem do scanner, tempo para configurar e testar o microfone, tempo para obter a varredura anatômica e tempo entre funcionais, aproximadamente 1 h de tempo do scanner deve ser atribuído a cada participante .
    2. Explique aos participantes as sequências de ensaios a serem apresentados, conforme descrito no passo 2.1.1.2, e responda a quaisquer dúvidas que possam ter. Instrua os participantes a zumbir as notas sem abrir a boca durante as provas de canto, mantendo os lábios ainda produzindo um som "m".
    3. Conecte um fone de ouvido não magnético compatível com MR a um laptop. Ajuste o nível de som para um nível confortável para cada assunto.
    4. Conecte um pequeno microfone condensador a uma interface de áudio que, por sua vez, é conectada ao laptop usando um cabo triplo blindado.
      NOTA: A fonte de alimentação do microfone, a interface de áudio e o laptop devem estar localizados fora da sala que abriga o scanner.
    5. Verifique a resposta de freqüência do microfone.
      NOTA: A finalidade deste teste é confirmar se o microfone se comporta como esperado dentro do scanner.
      1. Inicie um novo projeto no software de edição de som e selecione o condensadorMicrofone como o dispositivo de entrada.
      2. Gerar um tom de teste de 440 Hz com uma duração de 10 s, conforme descrito na secção 1.2.1, com os valores adequados para a frequência e duração.
      3. Utilizando o software de reprodução de som predefinido no portátil, prima "Play" para enviar o tom de teste através dos auscultadores nos locais internos (no topo do encosto de cabeça) e no exterior (na sala de controlo) com o microfone colocado entre os lados Do fone de ouvido em cada caso.
      4. Pressione "Gravar" no software de edição de som para gravar aproximadamente 1 s do tom de teste em cada local.
      5. Selecione "Plot Spectrum" no menu "Analyze" para cada caso e compare a resposta do microfone ao tom de teste, tanto dentro quanto fora do scanner, verificando se a freqüência fundamental do sinal recebido em cada local é de 440 Hz.
    6. Tape o microfone do condensador no pescoço do participante, logo abaixo dolaringe.
    7. Peça ao participante que use o fone de ouvido. Coloque o participante num scanner de ressonância magnética (RM).
  2. Sessão fMRI.
    1. No início da sessão, abra o pacote de software da interface de usuário de ressonância magnética (MRUI). Use o MRUI para programar o paradigma de aquisição.
      NOTA: Alguma variação na interface é esperada entre diferentes modelos.
      1. Selecione a opção "Paciente" no menu na tela. Digite o nome do participante, idade e peso.
      2. Clique no botão "Exame". Primeiro, escolha "Cabeça" e depois "Cérebro" a partir das opções disponíveis.
      3. Selecione "3D" e depois "T1 isométrico", com os seguintes valores para os parâmetros relevantes: Tempo de repetição (TR) = 10,2 ms, tempo de eco (TE) = 4,2 ms, ângulo de inclinação = 90 ° e tamanho do voxel = 1 x 1 x 1 mm 3 .
        NOTA: Para cada participante, um volume anatômico ponderado em T1 será bE adquirida utilizando uma sequência de pulso de eco de gradiente para referência anatômica.
      4. Clique em "Programa" e selecione EchoPlanaImage_diff_perf_bold (T2 *), com os valores dos parâmetros relevantes como segue: TE = 40 ms, TR = 10 s, Tempo de Aquisição (TA) = 3 s, Atraso em TR = 7 s, Flip Ângulo = 90 °, campo de visão (FOV) = 256 mm 2 e dimensões da matriz = 64 x 64. Use a opção "Manequim" para adquirir 5 volumes ao inserir um valor de "55" para o número total de volumes.
        NOTA: Estes valores permitem a aquisição de varreduras de cabeças inteiras ponderadas T2 * funcionais de acordo com o paradigma de amostragem esparsa ilustrado na Figura 1 , onde uma varredura "simulada" de imagem de ecoplanar (EPI) é adquirida e descartada para permitir a saturação de T1 Efeitos. Observe que em alguns MRUIs, o valor de TR deve ser 3 s, pois é considerado como o tempo total durante o qual a aquisição ocorre.
      5. Clique em "Copiar" para fazer uma cópia desta sequCação. Coloque o cursor na parte inferior da lista de sequências e clique em "Colar" duas vezes para configurar três sequências de amostragem esparsas consecutivas.
      6. Clique em "Iniciar" para iniciar a aquisição do volume anatômico ponderado em T1.
      7. Apresentar três corridas para o participante, com as execuções como descrito no passo 2.1.1.2. Sincronize o início das execuções com a aquisição pelo scanner usando a caixa de disparo do scanner.
        1. Siga o mesmo procedimento descrito na seção 1.3.2 para iniciar cada uma das três execuções, diferenciando entre execuções usando o número de sessão. Salve os resultados de três execuções completas usando o mesmo procedimento descrito na etapa 1.3.3.
          NOTA: O tempo das apresentações do ensaio é sistematicamente agitado por ± 500 ms.

figure-protocol-13051
Figura 1: SParse-sampling Design. ( A ) Cronograma de eventos dentro de um julgamento envolvendo apenas ouvir um intervalo de dois tons (2 s), sem reprodução aberta subsequente. ( B ) Cronologia dos eventos dentro de um julgamento envolvendo tarefas de escuta e canto. Clique aqui para ver uma versão maior desta figura.

3. Análise de dados

  1. Pré-processar os dados funcionais usando um software projetado para a análise de seqüências de dados de imagem cerebral seguindo procedimentos padrão 33 .
    NOTA: Todo o processamento de dados é feito usando o mesmo software.
    1. Use a opção de menu fornecida para realinhar as imagens para o primeiro volume, reamostas e espacialmente normalizadas (tamanho do voxel final: 2 x 2 x 2 mm 3 ) ao espaço estereotáxico padrão do Instituto Neurológico de Montreal (MNI) 34 .
    2. Utilize a opção de menu fornecida para suavizar a imagem usando um kernel gaussiano de 8 mm, largura total a meio máximo (FWHM) isotrópico.
    3. Para modelar a resposta BOLD, selecione uma Resposta de Impulso Finito de uma única caixa (FIR) como uma função de base (ordem 1) ou função de vagão de caixa, cobrindo o tempo de aquisição de volume (3 s) 28 .
      NOTA: Os protocolos de amostragem esparsa, como este, geralmente não exigem que a FIR seja convolvida com a função de resposta hemodinâmica, como é comumente o caso da fMRI relacionada ao evento.
    4. Aplique um filtro passa-alto para a resposta BOLD para cada evento (1.000 s para a "rede de canto" e 360 ​​s em outro lugar).
      OBSERVAÇÃO: Modelar todas as tarefas de canto em conjunto equivalerá a um bloco de 400 s 35 .

Access restricted. Please log in or start a trial to view this content.

Resultados

Todos os 11 participantes do nosso experimento foram estudantes vocais femininas no nível do conservatório, e eles realizaram bem o suficiente nas tarefas de reconhecimento de intervalo a serem selecionados para varredura. A taxa de sucesso para a tarefa de identificação do intervalo foi de 65,72 ± 21,67%, o que é, como esperado, menor que a taxa de sucesso na identificação dos intervalos dissonante e consoante, que foi de 74,82 ± 14,15%.

Access restricted. Please log in or start a trial to view this content.

Discussão

Este trabalho descreve um protocolo em que o canto é usado como um meio de estudar a atividade cerebral durante a produção de intervalos consonantais e dissonantes. Embora o canto forneça o que é possivelmente o método mais simples para a produção de intervalos musicais 22 , não permite a produção de acordes. No entanto, embora a maioria das caracterizações físicas da noção de consonância dependem, em certa medida, da superposição de notas simultâneas, vários estudos têm mos...

Access restricted. Please log in or start a trial to view this content.

Divulgações

Os autores declaram não haver conflitos de interesse.

Agradecimentos

Os autores reconhecem o apoio financeiro para esta pesquisa do Ministério da Saúde (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) e DGAPA UNAM (PAPIIT IN109214).

Access restricted. Please log in or start a trial to view this content.

Materiais

NameCompanyCatalog NumberComments
Achieva 1.5-T magnetic resonance scannerPhilipsRelease 6.4
AudacityOpen source2.0.5
Audio interfaceTascamUS-144MKII
AudiometerBrüel & KjaerType 1800
E-Prime ProfessionalPsychology Software Tools, Inc.2.0.0.74
MatlabMathworksR2014A
MRI-Compatible Insert EarphonesSensimetricsS14
PraatOpen source5.4.12
Pro-audio condenser microphoneShureSM93
SPSS StatisticsIBM20
Statistical Parametric MappingWellcome Trust Centre for Neuroimaging8

Referências

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061(1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237(2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Access restricted. Please log in or start a trial to view this content.

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

ComportamentoEdi o 123Conson ncia e disson nciacorrela o neural da m sicaidentifica o do intervalo musicalcantoresson ncia magn tica funcional fMRIintegra o udio vocal

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados