3.2K Views
•
11:12 min
•
November 4th, 2021
DOI :
November 4th, 2021
•Transkript
Chanten und Beten gehören zu den beliebtesten religiösen Praktiken. Dieses Protokoll könnte Wissenschaftlern helfen, die neurophysiologische Reaktion von sich wiederholendem religiösem Gesang unter Verwendung ereignisbezogener Potenziale zu untersuchen. Die ERP-Technik kann zwischen der neuronalen Informationsverarbeitung im Früh- und Spätstadium unterscheiden und den ersten und zweiten Gedanken der Gedanken der Geistesverarbeitung analogisieren, wie sie in den buddhistischen Lehren erklärt werden.
Nach diesem Protokoll können Forscher die Wirkung von religiösem Gesang oder anderen traditionellen Praktiken untersuchen, um sichtbare Wege zu finden, um Menschen zu helfen, ihr emotionales Leiden zu lindern. Um diese Studie zu beginnen, rekrutieren Sie Teilnehmer mit mindestens einem Jahr Erfahrung im Chanten des Namens von Amitabha Buddha. Zeichnen Sie während des Experiments die EEG-Daten mit einem 128-Kanal-EEG-System auf, das aus Verstärker, Kopfkasten, EEG-Kappe und zwei Desktop-Computern besteht, und zeichnen Sie die EKG-Daten mit einem physiologischen Datenaufzeichnungssystem auf.
Für die Anzeige von neutralen und negativen Bildern aus dem International Effective Picture System oder IAPS. Verwenden Sie die Stimulus-Präsentationssoftware auf einem Desktop-Computer. Präsentieren Sie die Bilder auf einem Monitor in 75 Zentimetern Entfernung von den Augen des Teilnehmers, mit Sichtwinkeln von 15 Grad vertikal und 21 Grad horizontal.
Verwenden Sie ein Blockdesign für das Experiment, da es emotionsbezogene Komponenten effektiver hervorrufen kann. Bieten Sie einen kurzen Übungslauf an, damit sich die Teilnehmer mit jeder Bedingung vertraut machen können, und verwenden Sie einen Videomonitor, um sicherzustellen, dass die Teilnehmer nicht einschlafen. Beginnen Sie das Experiment mit der Bedingung des religiösen Gesangs.
Bitten Sie die Teilnehmer, 40 Sekunden lang vier Zeichen des Namens von Amitabha Buddha zu chanten, während Sie sich vorstellen, wie der Amitabha dem Skript in der Schule des Reinen Landes folgt. Zeigen Sie den Teilnehmern während der ersten 20 Sekunden das Bild von Amitabha-Amitabha, Amitabha. Und zeigen Sie ihnen für die nächsten 20 Sekunden die IAPS-Bilder.
Bitten Sie die Teilnehmer, die Bilder sorgfältig zu beobachten. Zeigen Sie jedes Bild für ungefähr 1,8 bis 2,2 Sekunden mit einem Interstimulusintervall von 0,4 bis 0,6 Sekunden. Gönnen Sie sich nach jeder Sitzung eine Ruhezeit von 20 Sekunden, um den möglichen Resteffekten des Chantens oder der Bildbetrachtung auf die nächste Sitzung entgegenzuwirken.
Bitten Sie die Teilnehmer für die bedingung des nichtreligiösen Chantens, 40 Sekunden lang vier Zeichen des Namens des Weihnachtsmanns zu singen, während sie sich den Weihnachtsmann vorstellen. Zeigen Sie den Teilnehmern während der ersten 20 Sekunden das Bild des Weihnachtsmanns und für die nächsten 20 Sekunden die IAPS-Bilder. Bitten Sie die Teilnehmer für die Kontrollbedingung, 40 Sekunden lang zu schweigen.
Zeigen Sie den Teilnehmern während der ersten 20 Sekunden ein leeres Bild und für die nächsten 20 Sekunden die IAPS-Bilder. Um die EEG-Daten zu verarbeiten und zu analysieren, verwenden Sie die Open-Source-Software EEGLAB. Um eine angemessene Größe der Datendatei beizubehalten, verwenden Sie die EEGLAB-Funktion pop_resample.
Klicken Sie auf Extras, gefolgt von Abtastrate ändern, um die Daten von 1000 Hertz auf 250 Hertz neu zu berechnen. Als nächstes filtern Sie die Daten mit der EEGLAB-Funktion pop_eegfiltnew. Klicken Sie auf Extras, gefolgt von Daten filtern, und wählen Sie dann Basic FIR filter new, default, um die Daten mit einem finiten Impulsantwortfilter mit einem Passband von 0,1 bis 100 Hertz zu filtern.
Um das Rauschen des Wechselstroms zu reduzieren, klicken Sie auf Extras, gefolgt von Daten filtern, und wählen Sie Notch filtern die Daten anstelle von Passband. Filtern Sie dann die Daten mit einem nichtlinearen Impulsantwortfilter mit einem Stoppband von 47 bis 53 Hertz. Klicken Sie anschließend auf Plot und dann auf Kanaldaten scrollen, um die Daten visuell zu untersuchen und starke Artefakte zu entfernen, die durch Augen- und Muskelbewegungen erzeugt werden.
Klicken Sie dann auf Werkzeuge, Elektroden interpolieren und wählen Sie aus den Datenkanälen aus, um die fehlerhaften Kanäle mithilfe der sphärischen Interpolation zu rekonstruieren. Klicken Sie anschließend auf Tools und Run ICA, um eine unabhängige Komponentenanalyse mit dem Open-Source-Algorithmus runica durchzuführen. Klicken Sie dann erneut auf Werkzeuge, gefolgt von Daten mithilfe von ICA ablehnen und Komponenten per Karte ablehnen, um die unabhängigen Komponenten zu entfernen, die Augenbewegungen, Blinzeln, Muskelbewegungen und Linienrauschen entsprechen.
Um die Daten anhand der verbleibenden unabhängigen Komponenten zu rekonstruieren, klicken Sie auf Extras und dann auf Komponenten entfernen. Klicken Sie anschließend auf Extras, gefolgt von Daten filtern, und wählen Sie Einfacher FIR-Filter neu, Standard, um die Daten mit einem 30-Hertz-Tiefpassfilter zu filtern. Klicken Sie dann auf Tools, gefolgt von Epochen extrahieren, um ERP-Daten zu erhalten, indem Sie zeitgebundene Epochen für jede Bedingung mit einem Zeitfenster von negativen 200 bis null Millisekunden als Baseline und null bis 800 Millisekunden als ERP extrahieren und mittelen.
Klicken Sie anschließend auf Tools, gefolgt von Re-reference, um die ERP-Daten mit dem Durchschnitt der linken und rechten Mastoidkanäle erneut zu referenzieren. Nachdem Sie die obigen Schritte für die Datensätze aller Teilnehmer wiederholt haben, definieren Sie Zeitfenster für N1 und das späte positive Potential oder LPP, basierend auf etablierten Theorien und den aktuellen Daten. Finden Sie dann mit einem gepaarten T-Test die neutrale versus negative Bilddifferenz an der N1-Komponente und die LPP-Komponente unter den drei Bedingungen.
Führen Sie als Nächstes eine Region-of-Interest-Analyse für die N1- und LPP-Komponenten durch, indem Sie relevante Kanäle zur Darstellung einer Region mittelen. Vergleichen Sie dann die Differenz bei N1 und LPP separat mit wiederholten Messungen, ANOVA und Post-hoc-Statistiken in statistischer Analysesoftware. Verwenden Sie die SPM Open Source Software, um die ERP-Quellanalyse durchzuführen.
Verknüpfen Sie das Koordinatensystem des EEG-Kappensensors mit dem eines standardmäßigen strukturellen MRT-Bildes durch landmarkenbasierte Co-Registrierung. Klicken Sie in SPM auf Batch, dann auf SPM, M/EEG, Quellenrekonstruktion und Kopfmodellspezifikation. Führen Sie als Nächstes eine Vorwärtsberechnung durch, um den Effekt jedes Dipols auf das kortikale Netz zu berechnen, das den EEG-Sensoren auferlegt wird.
Klicken Sie im selben Batch-Editor auf SPM, dann auf M/EEG, Quellrekonstruktion und Quellinversion. Um die inverse Rekonstruktion durchzuführen, verwenden Sie im dritten Schritt den auf gieriger Suche basierenden Algorithmus für mehrere sparse priors. Wählen Sie MSP/GS als Inversionstyp im Fenster Quellinversion aus.
Bestimmen Sie die Differenz zwischen den Bedingungen mithilfe der allgemeinen linearen Modellierung in SPM. Nachdem Sie das Signifikanzniveau auf P 0,05 gesetzt haben, klicken Sie unter Batch Editor auf SPM, dann auf Stats and Factorial design specification. Um die EKG-Daten zu verarbeiten und zu analysieren, verwenden Sie physiologische und Datenverarbeitungssoftware.
Um die Mittleren Werte für jede Bedingung in EEGLAB zu berechnen, klicken Sie auf Tools gefolgt von FMRIB Tools und Detect QRS events. Für die Analyse der Verhaltensbewertung bitten Sie die Teilnehmer, ihren Glauben an die Wirksamkeit des Chantens des Namens des Subjekts auf einer Skala von eins bis neun zu bewerten, wobei einer als der schwächste und neun als der stärkste gilt. Die Ergebnisse für den Glauben der Teilnehmer an das Chanten ergaben eine durchschnittliche Punktzahl von 8,16 für Amitabha Buddha, 3,26 für den Weihnachtsmann und 1,95 für die leere Kontrollbedingung.
Der repräsentative Kanal des Parietallappens zeigte, dass die Chanting-Bedingungen unterschiedliche Auswirkungen auf die frühe und späte Verarbeitung von neutralen und negativen Bildern hatten und das Zeitfenster von N1 bzw. LPP zeigten. Die ERP-Ergebnisse zeigten ein erhöhtes N1 beim Betrachten der ängstlichen Bilder in den drei Chanting-Bedingungen. Die negativen Bilder induzierten stärkere zentrale Gehirnaktivitäten als neutrale Bilder, und die Zunahmen sind unter den drei Bedingungen vergleichbar.
Das ERP zeigte auch einen erhöhten LPP im nichtreligiösen Gesang und keine Chanting-Bedingungen. Das durch ängstliche Bilder induzierte LPP ist jedoch kaum sichtbar, wenn die Teilnehmer den Namen Amitabha Buddhas singen. Eine Region-of-Interest-Analyse ergab, dass die Unterschiede in der N1-Komponente unter den drei Bedingungen ähnlich waren.
Der Unterschied in der LPP-Komponente ist jedoch in der religiösen Gesangsbedingung viel geringer als in der nicht-religiösen Chanting-Bedingung und der stillen Betrachtungsbedingung. Die Quellenanalyse ergab, dass negative Bilder im Vergleich zu neutralen Bildern eine parietalere Aktivierung im nicht-religiösen Gesangszustand und ohne Gesangszustand induzierten. Im Gegensatz dazu verschwindet diese negative Bild-induzierte Aktivierung weitgehend in der religiösen Gesangsbedingung.
Eine signifikante Veränderung der Herzfrequenz wurde zwischen den ängstlichen und neutralen Bildern in den nicht-religiösen und keinen Gesangsbedingungen festgestellt. Ein solcher Unterschied wurde jedoch nicht in der religiösen Gesangsbedingung gefunden. Dasselbe Protokoll kann auch in funktionellen Neuroimaging-Studien verwendet werden, um genauer die Gehirnregionen aufzudecken, die am religiösen Chanten beteiligt sind.
Diese Studie zeigt eine Methode, um zu untersuchen, wie repetitives religiöses Chanten und andere ähnliche Praktiken die neurophysiologische Reaktion beeinflussen und das durch negative Reize induzierte Leiden reduzieren können.
Die vorliegende ERP-Studie (Event-Related Potential) bietet ein einzigartiges Protokoll für die Untersuchung, wie religiöses Chanten negative Emotionen modulieren kann. Die Ergebnisse zeigen, dass das späte positive Potential (LPP) eine robuste neurophysiologische Reaktion auf negative emotionale Reize ist und durch wiederholtes religiöses Chanten effektiv moduliert werden kann.
Weitere Videos entdecken
Kapitel in diesem Video
0:05
Introduction
1:00
Affective Modulation Experiment
3:32
EEG Data Analysis
6:45
ERP Source Analysis
8:01
ECG Data and Behavioral Assessment Analysis
8:35
Results: Effective Modulation of Late Positive Potential (LPP) by Repetitive Religious Chanting
10:30
Conclusion
Ähnliche Videos
Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten