JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Die neuronalen Korrelate des Hörens von konsonanten und dissonanten Intervallen wurden weitgehend untersucht, aber die neuronalen Mechanismen, die mit der Produktion von konsonanten und dissonanten Intervallen verbunden sind, sind weniger bekannt. In diesem Artikel werden Verhaltenstests und fMRI mit Intervallidentifikations- und Gesangsaufgaben kombiniert, um diese Mechanismen zu beschreiben.

Zusammenfassung

Die neuronalen Korrelate der Konsonanz und der Dissonanzwahrnehmung wurden weitgehend untersucht, aber nicht die neuronalen Korrelate der Konsonanz und der Dissonanzproduktion. Die einfachste Art der musikalischen Produktion singt, aber aus einer bildgebenden Perspektive stellt sie noch mehr Herausforderungen als das Zuhören, weil es motorische Aktivität beinhaltet. Das genaue Singen von musikalischen Intervallen erfordert die Integration zwischen auditiver Rückkopplungsverarbeitung und Gesangsmotorsteuerung, um jede Note korrekt zu produzieren. Dieses Protokoll stellt eine Methode vor, die die Überwachung von neuronalen Aktivierungen erlaubt, die mit der stimmlichen Produktion von konsonanten und dissonanten Intervallen verbunden sind. Es werden vier musikalische Intervalle, zwei Konsonanten und zwei Dissonanten, als Reize verwendet, sowohl für einen auditiven Diskriminierungstest als auch für eine Aufgabe, die das erste Hören und dann die Wiedergabe von Intervallen beinhaltet. Die Teilnehmer, alle weiblichen Gesangsstudenten auf der Konservatoriumsebene, wurden mit dem funktionalen Magnetischen ResOnance Imaging (fMRI) während der Durchführung der singenden Aufgabe, wobei die Höraufgabe als Kontrollbedingung dient. Auf diese Weise wurde die Aktivität sowohl des motorischen als auch des auditorischen Systems beobachtet, und es wurde auch ein Maß der Gesangsgenauigkeit während der Gesangsaufgabe erhalten. So kann das Protokoll auch verwendet werden, um Aktivierungen zu verfolgen, die mit dem Singen von verschiedenen Arten von Intervallen oder mit dem Singen der erforderlichen Noten genauer verbunden sind. Die Ergebnisse deuten darauf hin, dass das Singen von dissonanten Intervallen eine stärkere Beteiligung der neuronalen Mechanismen erfordert, die für die Integration von externer Rückkopplung von den auditorischen und sensomotorischen Systemen verantwortlich sind, als die Konsumintervalle singen.

Einleitung

Bestimmte Kombinationen von musikalischen Tonhöhen sind allgemein anerkannt, um konsonant zu sein, und sie sind typischerweise mit einer angenehmen Empfindung verbunden. Andere Kombinationen werden im Allgemeinen als dissonant bezeichnet und sind mit einem unangenehmen oder ungelösten Gefühl verbunden 1 . Obwohl es sinnvoll erscheint, anzunehmen, dass Enkulturation und Training in der Wahrnehmung der Konsonanz 2 eine Rolle spielen, wurde kürzlich gezeigt, dass die Unterschiede in der Wahrnehmung von Konsonanten und dissonanten Intervallen und Akkorden vermutlich weniger von der musikalischen Kultur abhängen, als es früher gedacht war und kann Sogar aus einfachen biologischen Grundlagen 4 , 5 , 6 ableiten. Um ein zweideutiges Verständnis des Begriffs Konsonanz zu verhindern, führte Terhardt 7 den Begriff der sensorischen Konsonanz ein, im Gegensatz zur Konsonanz im musikalischen Kontext, Wo die Harmonie zum Beispiel die Antwort auf einen gegebenen Akkord oder ein Intervall beeinflussen kann. In dem vorliegenden Protokoll wurden nur isolierte, zweipunktige Intervalle präzise verwendet, um Aktivierungen auszuschließen, die ausschließlich mit sensorischer Konsonanz zusammenhängen, ohne Interferenz von kontextabhängiger Verarbeitung 8 .

Versuche, die Konsonanz durch rein physikalische Mittel zu charakterisieren, begannen mit Helmholtz 9 , der die wahrgenommene Rauheit mit dissonanten Akkorden dem Schlagen zwischen benachbarten Frequenzkomponenten zugeschrieben hat. In jüngster Zeit hat sich jedoch gezeigt, daß die sensorische Konsonanz nicht nur mit der Abwesenheit von Rauheit verbunden ist, sondern auch mit der Harmonizität, dh der Ausrichtung der Partien eines gegebenen Tons oder Akkords mit denen eines unerhörten Tons eines Untere Frequenz 10 , 11 . Verhaltensstudien bestätigen, dass die subjektive Konsonanz tatsächlich von Pu betroffen istVerlasse physikalische Parameter wie Frequenzabstand 12 , 13 , aber ein breiteres Spektrum von Studien hat schlüssig gezeigt, dass physikalische Phänomene nicht nur die Unterschiede zwischen wahrgenommener Konsonanz und Dissonanz 14 , 15 , 16 , 17 berücksichtigen können. Alle diese Studien berichten jedoch über diese Unterschiede beim Hören einer Vielzahl von Intervallen oder Akkorden. Eine Vielzahl von Studien mit Positronenemissionstomographie (PET) und funktionellem Magnetresonanztomographie (fMRI) zeigten signifikante Unterschiede in den kortikalen Regionen, die aktiv werden, wenn sie entweder konsonante oder dissonante Intervalle und Akkorde 8 , 18 , 19 , 20 hören. Der Zweck der vorliegenden Studie ist es, die Unterschiede zu erforschenIn Gehirnaktivität beim Produzieren, anstatt zuzuhören, konsonante und dissonante Intervalle.

Das Studium der sensorisch-motorischen Kontrolle während der musikalischen Produktion beinhaltet typischerweise den Einsatz von Musikinstrumenten, und oft erfordert es dann die Herstellung von Instrumenten, die speziell für ihre Verwendung während der Neuroimaging modifiziert wurden 21 . Singen aber scheinen von Anfang an einen geeigneten Mechanismus für die Analyse von sensorisch-motorischen Prozessen während der Musikproduktion zu liefern, da das Instrument die menschliche Stimme selbst ist und der Vokalapparat keine Modifikation erfordert, um während des Spiels geeignet zu sein Bildgebung 22 Obwohl die neuronalen Mechanismen, die mit Aspekten des Sings verbunden sind, wie die Tonhöhensteuerung 23 , die vokale Nachahmung 24 , die trainingsinduzierten adaptiven Änderungen 25 und die Integration der externen Rückkopplung 25 ,

Access restricted. Please log in or start a trial to view this content.

Protokoll

Dieses Protokoll wurde vom Forschungs-, Ethik- und Sicherheitskomitee des Krankenhauses Infantil de México "Federico Gómez" genehmigt.

1. Behavioral Pretest

  1. Führen Sie einen standardmäßigen, audiometrischen Test durch, um zu bestätigen, dass alle potenziellen Teilnehmer ein normales Gehör (20-dB Hearing Level (HL) über Oktavfrequenzen von -8.000 Hz besitzen). Benutze das Edinburgh Handedness Inventory 31 , um sicherzustellen, dass alle Teilnehmer rechtshändig sind.
  2. Erzeugung von Intervallsequenzen.
    1. Produzieren Sie reine Töne, die zwei Oktaven überspannen, G4-G6, mit einem Ton-Editing-Programm.
      HINWEIS: Hier wird die kostenlose Open-Source-Soundbearbeitungssoftware Audacity beschrieben. Andere Pakete können zu diesem Zweck verwendet werden.
      1. Für jeden Ton öffnen Sie ein neues Projekt in der Sound-Editing-Software.
      2. Wählen Sie im Menü "Generieren" die Option "Ton". In dem Fenster, das erscheint, sEine Sinuswellenform, eine Amplitude von 0,8 und eine Dauer von 1 s wählen. Geben Sie den Wert der Frequenz ein, die der gewünschten Note entspricht ( zB 440 Hz für A4). Klicken Sie auf die Schaltfläche "OK".
      3. Wählen Sie im Menü "Datei" die Option "Audio exportieren". Geben Sie im folgenden Fenster den gewünschten Namen für die Audiodatei ein und wählen Sie WAV als gewünschten Dateityp. Klicken Sie auf "Speichern".
    2. Wähle zwei Konsonanten und zwei Dissonanzintervalle gemäß Tabelle 1 so, dass jedes Konsonantenintervall in der Nähe eines dissonanten Intervalls liegt.
      HINWEIS: Als Beispiel betrachten wir die konsonanten Intervalle einer perfekten fünften und einer Oktave und der dissonanten Intervalle eines erweiterten vierten (Tritons) und eines großen siebten. Dies sind die Intervalle, die für die von den Autoren durchgeführte Studie gewählt wurden.
    3. Erzeugen Sie alle möglichen Kombinationen von Noten, die diesen vier Intervallen entsprechen, im Bereich zwischen G4 und G6.
      1. Für eacH Intervall, öffnen Sie ein neues Projekt in der Sound-Editing-Software und verwenden Sie "Import Audio" im Menü "Datei", um die beiden zu verkettenden WAV-Dateien zu importieren.
      2. Setzen Sie den Cursor an einen beliebigen Punkt über den zweiten Ton und klicken Sie, um auszuwählen. Klicken Sie im Menü "Bearbeiten" auf "Alles markieren". Klicken Sie im selben Menü auf "Kopieren".
      3. Setzen Sie den Cursor an einen beliebigen Punkt über den ersten Ton und klicken Sie auf. Klicken Sie im Menü "Bearbeiten" auf "Cursor zum Track-Ende verschieben" und klicken Sie dann unter demselben Menü auf "Einfügen". Exportieren Sie den Ton wie in Schritt 1.2.1.3 beschrieben.
    4. Verwenden Sie einen zufälligen Sequenzgenerator, um Sequenzen zu erzeugen, die aus 100 Intervallen bestehen, die pseudozufällig so erzeugt werden, dass jedes der vier verschiedenen Intervalle genau 25 mal 30 auftritt. Verwenden Sie dazu die zufällige Permutationsfunktion in der statistischen Analyse-Software (siehe Tabelle der Materialien ). Geben Sie die vier IntervAls als Argumente und erstellen Sie eine Schleife, die diesen Prozess 25 mal wiederholt.
    5. Verwenden Sie Verhaltensforschung Software, um zwei verschiedene Läufe zu generieren. Laden Sie eine Sequenz von 100 Intervallen im WAV-Format für jeden Lauf und verknüpfen Sie die Identifizierung jedes Intervalls mit einer einzigen Testversion 30 .
      HINWEIS: Hier wird E-Prime Verhaltensforschungssoftware verwendet. Andere äquivalente Verhaltensforschungssoftware kann verwendet werden.
  3. Erklären Sie den Teilnehmern, dass sie zwei Sequenzen von jeweils 100 Intervallen hören werden, wobei jede Sequenz mit einer anderen Aufgabe und mit einem eigenen Satz von Anweisungen verknüpft ist. Sagen Sie den Teilnehmern, dass in beiden Läufen das nächste Intervall nur dann gespielt wird, wenn eine gültige Taste gedrückt wird.
    HINWEIS: Sobald die Intervallerkennungsreihenfolge beginnt, sollte es nicht unterbrochen werden, damit die Vorgehensweise allen Teilnehmern so klar wie möglich sein sollte.
    1. Haben sich die Teilnehmer vor einem Laptop-Computer hinsetzenUnd den mitgelieferten Kopfhörer tragen. Verwenden Sie gutwertige Over-the-Ear-Kopfhörer. Stellen Sie den Schallpegel auf ein angenehmes Niveau für jedes Motiv ein.
    2. Wenn Sie die hier beschriebene Verhaltensforschungssoftware verwenden, öffnen Sie die in Schritt 1.2.5 erstellten Aufgaben mit E-Run. Geben Sie im daraufhin angezeigten Fenster die Sitzungs- und Betreffnummer ein und klicken Sie auf "OK". Verwenden Sie die Sitzungsnummer, um zwischen den Läufen für jeden Teilnehmer zu unterscheiden.
      HINWEIS: Die Anweisungen für die jeweilige Aufgabe erscheinen auf dem Bildschirm, gefolgt von dem Beginn der Aufgabe selbst.
      1. Zuerst in einer 2-alternativen Zwangswahl-Aufgabe, einfach die Teilnehmer identifizieren, ob die Intervalle, die sie hören, konsonant oder dissonant sind. Haben Sie den Teilnehmer auf "C" auf der Computertastatur für Konsonanten und "D" für Dissonant.
        ANMERKUNG: Da es allen Teilnehmern erwartet wird, musikalisches Training auf einer Konservatoriumsebene zu haben, werden sie alle erwartet, dass sie in der Lage sind, zwischen dem Patonanten und dem Patenten zu unterscheidenSonantintervalle Die erste Aufgabe dient in gewissem Sinne als Bestätigung dafür, dass dies tatsächlich der Fall ist.
      2. Zweitens, in einer 4-alternativen Zwangswahl-Aufgabe, haben die Teilnehmer die Intervalle selbst zu identifizieren. Lassen Sie die Teilnehmer die Ziffern "4", "5", "7" und "8" auf der Computertastatur drücken, um die Intervalle einer erweiterten vierten, perfekten fünften, sechsten und Oktave zu identifizieren.
    3. Am Ende jeder Aufgabe drücken Sie "OK", um die Ergebnisse für jeden Teilnehmer automatisch in einer einzelnen E-DataAid 2.0-Datei zu speichern, die mit dem Betreff und der Sitzungsnummer und mit der Erweiterung .edat2 gekennzeichnet ist.
    4. Verwenden Sie eine statistische Analyse-Software ( z. B. Matlab, SPSS Statistics oder eine Open-Source-Alternative), um die Erfolgsquoten für jede Aufgabe zu berechnen ( dh der Prozentsatz der erfolgreichen Antworten bei der Identifizierung, ob die Intervalle konsonant oder dissonant waren, und auch bei der Identifizierung der intErvals selbst), sowohl einzeln als auch als Gruppe 32 .

2. fMRI Experiment

  1. Vorbereitung auf die fMRI-Sitzung.
    1. Generieren Sie Sequenzen der gleichen Intervalle wie in Schritt 1.2.3, die wiederum aus zwei aufeinanderfolgenden reinen Tönen mit einer Dauer von jeweils 1 s zusammengesetzt sind.
      HINWEIS: Die Stimmlage der Teilnehmer muss nun berücksichtigt werden, und alle Noten müssen bequem in den Singbereich jedes Teilnehmers fallen.
      1. Verwenden Sie einen zufälligen Sequenzgenerator, um eine randomisierte Sequenz von 30 Intervallen für die Nur-Lese-Versuche zu erstellen 30 . Für die Gesangsversuche erstellen Sie eine pseudorandomisierte Sequenz von 120 Intervallen für die Teilnehmer, um ein bestimmtes Intervall zu hören und dann dieses Zielintervall mit ihren Singstimmen zu vergleichen. Für die pseudorandomisierte Sequenz verwenden Sie die gleiche Methode wie in Schritt 1.2.4 beschrieben, mit den 4 Intervallen als Argumente noch einmal, aber nWiederholen Sie diesen Vorgang 30 mal.
      2. Nach dem gleichen Verfahren wie in Schritt 1.2.5 verwenden Sie die Verhaltensforschungssoftware, um drei verschiedene Läufe zu erzeugen, die jeweils aus 10 stillen Grundlinienversuchen bestehen, gefolgt von 10 aufeinanderfolgenden Hörversuchen und schließlich von 40 aufeinanderfolgenden Gesangsversuchen.
        HINWEIS: Während der Baseline-Versuche erscheinen die vier Intervalle in zufälliger Reihenfolge, während während der Gesangsversuche die vier Intervalle in pseudozufriedener Reihenfolge erscheinen, so dass jedes Intervall schließlich genau 10 mal dargestellt wird. Die Dauer jedes Versuches beträgt 10 s, so dass ein ganzer Lauf 10 min dauert. Da jedes Fach 3 Versuchsläufe durchläuft, beträgt die Gesamtdauer des Experiments 30 min. Jedoch ermöglicht es den Teilnehmern, den Scanner einzugeben und zu verlassen, für die Zeit zum Einrichten und Testen des Mikrofons, für die Zeit, um den anatomischen Scan zu erhalten, und für die Zeit zwischen den funktionalen Läufen sollten etwa 1 h Scannerzeit jedem Teilnehmer zugeteilt werden .
    2. Erklären Sie den Teilnehmern die Sequenzen der zu präsentierenden Versuche, wie in Schritt 2.1.1.2 beschrieben, und antworten Sie auf alle Zweifel, die sie haben könnten. Weisen Sie die Teilnehmer an, die Notizen zu summen, ohne den Mund während der Gesangsversuche zu öffnen, die Lippen immer noch zu halten, während sie einen "m" Klang erzeugen.
    3. Verbinden Sie ein nichtmagnetisches, MR-kompatibles Headset mit einem Laptop. Stellen Sie den Schallpegel auf ein angenehmes Niveau für jedes Motiv ein.
    4. Verbinden Sie ein kleines Kondensatormikrofon mit einer Audio-Schnittstelle, die wiederum mit dem Laptop verbunden ist, mit einem abgeschirmten Twisted-Triplet-Kabel.
      HINWEIS: Das Mikrofon-Netzteil, das Audio-Interface und der Laptop sollten sich alle außerhalb des Raumes befinden, der den Scanner aufnimmt.
    5. Überprüfen Sie den Mikrofon-Frequenzgang.
      HINWEIS: Der Zweck dieses Tests ist es zu bestätigen, dass sich das Mikrofon wie erwartet im Scanner verhält.
      1. Starten Sie ein neues Projekt in der Sound-Editing-Software und wählen Sie den Kondensator ausMikrofon als Eingabegerät.
      2. Erzeugen Sie einen 440 Hz-Testton mit einer Dauer von 10 s, wie in Abschnitt 1.2.1 beschrieben, mit den entsprechenden Werten für Frequenz und Dauer.
      3. Verwenden Sie die Standard-Klangwiedergabesoftware auf dem Laptop, und drücken Sie "Play", um den Testton über die Kopfhörer an den Orten im Inneren (oben auf der Kopfstütze) und außerhalb (im Kontrollraum) des Scanners zu senden, wobei das Mikrofon zwischen den Seiten platziert ist Des Headsets in jedem Fall.
      4. Drücken Sie "Record" in der Sound-Editing-Software, um etwa 1 s des Testtons an jedem Ort aufzuzeichnen.
      5. Wählen Sie "Plot Spectrum" aus dem Menü "Analysieren" für jeden Fall und vergleichen Sie die Reaktion des Mikrofons auf den Testton sowohl innerhalb als auch außerhalb des Scanners, indem Sie überprüfen, ob die Grundfrequenz des an jedem Ort empfangenen Signals 440 Hz beträgt.
    6. Tondiere das Kondensatormikrofon an den Hals des Teilnehmers, knapp unter demLarynx.
    7. Haben die Teilnehmer das Headset tragen. Stellen Sie den Teilnehmer in einen Magnetresonanzscanner (MR).
  2. FMRI-Sitzung.
    1. Zu Beginn der Sitzung öffnen Sie das Softwarepaket der Magnetresonanz-Benutzeroberfläche (MRUI). Verwenden Sie die MRUI, um das Erfassungsparadigma zu programmieren.
      HINWEIS: Manche Abweichungen in der Schnittstelle sind zwischen verschiedenen Modellen zu erwarten.
      1. Wählen Sie die Option "Patient" aus dem Bildschirmmenü aus. Geben Sie den Namen des Teilnehmers, Alter und Gewicht ein.
      2. Klicken Sie auf die Schaltfläche "Prüfung". Zuerst wählen Sie "Kopf" und dann "Gehirn" aus den verfügbaren Optionen.
      3. Wählen Sie "3D" und dann "T1 isometrisch" mit den folgenden Werten für die relevanten Parameter: Wiederholzeit (TR) = 10,2 ms, Echozeit (TE) = 4,2 ms, Flipwinkel = 90 ° und Voxelgröße = 1 x 1 x 1 mm 3 .
        HINWEIS: Für jeden Teilnehmer wird ein T1-gewichtetes anatomisches Volumen bE unter Verwendung einer Gradient-Echo-Pulssequenz für anatomische Referenz erworben.
      4. Klicken Sie auf "Programm" und wählen Sie EchoPlanaImage_diff_perf_bold (T2 *) mit den Werten der relevanten Parameter wie folgt: TE = 40 ms, TR = 10 s, Erfassungszeit (TA) = 3 s, Verzögerung in TR = 7 s, Flip Winkel = 90 °, Sichtfeld (FOV) = 256 mm 2 und Matrix Dimensionen = 64 x 64. Verwenden Sie die Option "Dummy", um 5 Volumes zu erwerben, während Sie einen Wert von "55" für die Gesamtzahl der Volumes eingeben.
        HINWEIS: Diese Werte erlauben die Erfassung von funktionalen T2 * -gewichteten Ganzkopf-Scans nach dem in Abbildung 1 dargestellten Sparse-Sampling-Paradigma, wo ein echo-planarer Imaging (EPI) "Dummy" Scan erfasst und verworfen wird, um eine T1-Sättigung zu ermöglichen Auswirkungen. Beachten Sie, dass bei einigen MRUIs der Wert von TR 3 s sein sollte, da es sich um die Gesamtzeit handelt, während der die Akquisition stattfindet.
      5. Klicken Sie auf "Kopieren", um eine Kopie dieser Sequenz zu erstellenEnce Setzen Sie den Cursor an die Unterseite der Sequenzliste und klicken Sie dann zweimal auf "Einfügen", um drei aufeinanderfolgende Stichprobensequenzen einzurichten.
      6. Klicken Sie auf "Start", um die T1-gewichtete anatomische Volumenerfassung zu starten.
      7. Gegenwärtig drei Läufe an den Teilnehmer, mit den Läufen wie in Schritt 2.1.1.2 beschrieben. Synchronisieren Sie den Start der Läufe mit der Erfassung durch den Scanner mit der Scanner-Triggerbox.
        1. Befolgen Sie die gleiche Vorgehensweise wie in Abschnitt 1.3.2 beschrieben, um jeden der drei Läufe zu beginnen, wobei zwischen den Läufen unter Verwendung der Sitzungsnummer differenziert wird. Speichern Sie die Ergebnisse von drei vollständigen Läufen mit demselben Verfahren wie in Schritt 1.3.3 beschrieben.
          HINWEIS: Das Timing der Testvorstellungen wird systematisch um ± 500 ms gesammelt.

figure-protocol-13969
Abbildung 1: SParse-Sampling Design. ( A ) Timeline von Ereignissen innerhalb eines Versuches, bei dem nur ein zweifarbiges Intervall (2 s) ohne nachfolgende Wiederverwertung aufgenommen wird. ( B ) Zeitplan der Ereignisse innerhalb eines Prozesses mit Hör- und Gesangsaufgaben. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

3. Datenanalyse

  1. Vorbereiten der Funktionsdaten mit Software zur Analyse von Gehirnabbildungsdatenfolgen nach Standardverfahren 33 .
    HINWEIS: Die gesamte Datenverarbeitung erfolgt mit der gleichen Software.
    1. Verwenden Sie die mitgelieferte Menüoption, um die Bilder auf die erste Lautstärke, die neu abgetastete und räumlich normalisierte (endgültige Voxelgröße: 2 x 2 x 2 mm 3 ) an den standardmäßigen stererotischen Raum des Montreal Neurological Institute (MNI) auszurichten 34 .
    2. Verwenden Sie die mitgelieferte Menüoption, um das Bild mit einem isotropen, 8 mm, voller Breite bei halbmaximalem (FWHM) Gaußschen Kernel zu glätten.
    3. Um die BOLD-Antwort zu modellieren, wähle eine Single-Bin Finite Impulse Response (FIR) als Basisfunktion (Order 1) oder Boxcar-Funktion, die die Zeit der Volumenerfassung (3 s) 28 überspannt.
      HINWEIS: Sparse-Sampling-Protokolle, wie diese, erfordern im Allgemeinen nicht, dass die FIR mit der hämodynamischen Antwortfunktion gefaltet wird, wie dies üblicherweise bei eventbezogenen fMRI der Fall ist.
    4. Wenden Sie für jede Veranstaltung einen Hochpassfilter an die BOLD-Antwort an (1.000 s für das "singing network" und 360 s woanders).
      HINWEIS: Das Modellieren aller Gesangsaufgaben wird zusammen einen Block von 400 s sein. 35 .

Access restricted. Please log in or start a trial to view this content.

Ergebnisse

Alle 11 Teilnehmer in unserem Experiment waren weibliche Vokalstudenten auf der Konservatoriumsebene, und sie machten sich gut genug in den Intervallerkennungsaufgaben, die für das Scannen ausgewählt wurden. Die Erfolgsquote für die Intervall-Identifikationsaufgabe betrug 65,72 ± 21,67%, was erwartungsgemäß niedriger ist als die Erfolgsquote bei der Identifizierung von dissonanten und konsonanten Intervallen, was 74,82 ± 14,15% betrug.

Access restricted. Please log in or start a trial to view this content.

Diskussion

Diese Arbeit beschreibt ein Protokoll, in dem Gesang als Mittel zum Studium der Hirnaktivität während der Herstellung von Konsonanten und dissonanten Intervallen verwendet wird. Auch wenn das Singen bietet, was vielleicht die einfachste Methode für die Produktion von musikalischen Intervallen 22 ist , erlaubt es nicht die Produktion von Akkorden. Obwohl die meisten physikalischen Charakterisierungen des Begriffs der Konsonanz bis zu einem gewissen Grad auf die Überlagerung von gleichzeitigen ...

Access restricted. Please log in or start a trial to view this content.

Offenlegungen

Die Autoren erklären keine Interessenkonflikte.

Danksagungen

Die Autoren bestätigen die finanzielle Unterstützung für diese Forschung von Secretaría de Salud de México (HIM / 2011/058 SSA 1009), CONACYT (SALUD-2012-01-182160) und DGAPA UNAM (PAPIIT IN109214).

Access restricted. Please log in or start a trial to view this content.

Materialien

NameCompanyCatalog NumberComments
Achieva 1.5-T magnetic resonance scannerPhilipsRelease 6.4
AudacityOpen source2.0.5
Audio interfaceTascamUS-144MKII
AudiometerBrüel & KjaerType 1800
E-Prime ProfessionalPsychology Software Tools, Inc.2.0.0.74
MatlabMathworksR2014A
MRI-Compatible Insert EarphonesSensimetricsS14
PraatOpen source5.4.12
Pro-audio condenser microphoneShureSM93
SPSS StatisticsIBM20
Statistical Parametric MappingWellcome Trust Centre for Neuroimaging8

Referenzen

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061(1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237(2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Access restricted. Please log in or start a trial to view this content.

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenAusgabe 123Konsonanz und Dissonanzneuronale Korrelate von Musikmusikalische IntervallidentifikationGesangfunktionelle Magnetresonanztomographie fMRIaudio vokale Integration

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten