Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Wir präsentieren Ihnen ein Protokoll, um die Verwendung von morphologischen Hinweise während der Echtzeit-Satz Verständnis von Kindern mit Autismus untersuchen.

Zusammenfassung

Satz Verständnis beruht auf der Fähigkeit, unterschiedliche Arten von sprachlichen und nichtsprachlichen Informationen schnell zu integrieren. Allerdings gibt es derzeit ein Mangel an Forschung erforschen wie Vorschulkinder mit Autismus Sätze mit verschiedenen Arten von Cues zu verstehen. Die Mechanismen Satz Verständnis bleibt weitgehend unklar. Die vorliegende Studie zeigt ein Protokoll, um den Satz Verständnis Fähigkeiten der Kinder im Vorschulalter mit Autismus untersuchen. Genauer gesagt, wird eine visuelle Welt Paradigma Eye-Tracking verwendet, um das Moment zum Satz Verständnis bei den Kindern zu erkunden. Das Paradigma hat mehrere Vorteile. Zuerst, es reagiert empfindlich auf den zeitlichen Verlauf des Satzes Verständnis und somit bieten reichhaltige Information über wie Satz Verständnis im Laufe der Zeit entfaltet. Zweitens bedarf es geringe Aufgabe und Kommunikation Anforderungen, so ist es ideal für Kinder mit Autismus zu testen. Um die rechnerische Belastung der Kinder weiter zu minimieren, Augenbewegungen der vorliegenden Studie Maßnahmen, die entstehen als automatische Reaktionen auf sprachlichen Input, anstatt Messung der Augenbewegungen, die bewusste Antworten auf gesprochene Anweisungen zu begleiten.

Einleitung

Satz Verständnis beruht auf der Fähigkeit, schnell zu integrieren, verschiedene Arten von sprachlichen und nichtsprachlichen Informationen1,2,3,4,5,6 , 7 , 8 , 9 , 10 , 11. vorherige Forschung hat festgestellt, dass Jugendliche in der Regel entwickeln inkrementell (TD) Kinder zu berechnen, die Bedeutung eines Satzes mit sprachlichen und nichtsprachlichen Hinweise12,13,14, 15,16,17,18,19. Allerdings gibt es derzeit ein Mangel an Forschung erforschen wie Vorschulkinder mit Autismus verstehen ein Satzes mit verschiedenen Arten von Cues. Die Mechanismen, die ihr Verständnis der Satz bleibt weitgehend unklar.

Es ist allgemein anerkannt, dass es enorme Variabilität in der sprachlichen Fähigkeiten von Kindern mit Autismus, vor allem in ihrer expressiven Sprache; zum Beispiel, einige Kinder mit Autismus haben relativ gute strukturelle Sprache, einige Weisen Defizite bei der lexikalischen und grammatischen Domänen, einige zeigen beeinträchtigt Grammatik und nie erlangen einige funktionelle gesprochene Sprache20,21 ,22,23,24,25. Darüber hinaus scheint die frühere Forschung darauf hin, dass ihre rezeptive Sprache relativ mehr beeinträchtigt als ihre expressive Sprache26,27,28,29. Die meisten Untersuchungen, die Satz-Verständnis-Fähigkeiten von Kindern mit Autismus bewertet hat offline Aufgaben (z. B. standardisierte Tests, Betreuer Berichte) verwendet haben, und die Ergebnisse deuten darauf hin, dass ihr Satz Verständnis können möglicherweise besonders beeinträchtigt30,31,32,33,34,35,36,37. Jedoch hat es hingewiesen, dass schlechte Verständnis Fähigkeiten dieser Kinder Mangel an sozialen Reaktionsfähigkeit als auf Sprachverarbeitung Defizite38,39wahrscheinlicher Zusammenhang stehen. Beachten Sie, dass diese offline Aufgaben in der bisherigen Forschung häufig erfordern hohe Resonanz Forderungen oder Interaktionen mit den Experimentatoren, die besondere Schwierigkeiten für Kinder mit Autismus, darstellen könnte, da sie oft verschiedene herausfordernde Verhaltensweisen zeigen oder Symptome. Infolgedessen können interagieren mit den hohen Anforderungen der Aufgabe und Kommunikation und maskieren ihre Fähigkeiten Verständnis [finden Sie einen Überblick über Methoden zur Bewertung der rezeptiven Sprachentwicklung bei Kindern mit Autismus, Kasari Et Al. (2013)27 und Plesa-Skwerer Et Al. () 2016)29]. So sind experimentelle Paradigmen, die diese Störfaktoren eine bessere Kontrolle erforderlich, um weiter zu verstehen, die Art der Strafe-Mechanismen bei Autismus.

In der aktuellen Studie präsentieren wir eine Eyetracking-Paradigma, die direkt und effektiv Satz Verständnis Fähigkeiten von Kindern mit Autismus einschätzen kann. Im Vergleich zu offline Aufgaben, Eyetracking-testet ein empfindlicher Paradigma, Kinder Verständnis Fähigkeiten unter Beweis. Es ist empfindlich gegenüber den zeitlichen Verlauf des Prozesses verstehen und erfordert keine explizite Motor oder Sprache Antworten der Teilnehmer, so dass es eine vielversprechende Methode, jüngere Kinder und minimal verbalen Kinder mit Autismus zu studieren. Darüber hinaus erfassen wir Augenbewegungen als automatische Reaktionen auf sprachlichen Input statt Messung der Augenbewegungen, die bewusste Antworten auf sprachlichen Input zu begleiten.

Protokoll

Diese Studie wurde von der Ethikkommission der medizinischen Fakultät an der Tsinghua Universität genehmigt. Informierte Einwilligung eingeholt wurde von allen einzelnen Teilnehmern, die in die Studie eingeschlossen.

1. Teilnehmer Screening und Studienvorbereitung

  1. Mandarin-sprachigen Kinder im Vorschulalter mit Autismus zu rekrutieren.
    Hinweis: Sollte ihre Diagnosen von pädiatrischen Neurologen in Krankenhäusern mit DSM-IV-TR40 oder DSM-541 bestätigt werden und im Idealfall die Teilnehmerzahl sollte nicht weniger als 15. Die vorliegende Studie rekrutiert 25 Teilnehmer mit bestätigten Diagnosen.
  2. Jeder Teilnehmer selbständig mit Goldstandard diagnostische Instrumente wie Autismus diagnostische Beobachtung Zeitplan42zu bewerten.
  3. Maßnahme die verbale IQ der Teilnehmer mit dem Wechsler Preschool und primären Maßstab der Intelligenz-IV (CN), eine standardisierte IQ-Test für Mandarin-sprechende Kinder im Alter von 2 bis 6 und 6-1143konzipiert.
    Hinweis: Die verbale IQ-Werte von Kindern mit Autismus in der vorliegenden Studie wurden alle über 80. Sie waren alle High-Funktionieren Kinder mit Autismus.
  4. Berechnen Sie jeder Teilnehmer mittleren Länge der Äußerung (MLU) durch Division der Gesamtzahl der Wörter durch die Anzahl der Äußerungen in jeder Rede Probe. Notieren Sie 100 Äußerungen für jeden Teilnehmer entweder aus ihren Interaktionen mit Eltern oder Lehrern. Dann berechnen Sie die MLU indem die Gesamtzahl der Wörter in jeder Teilnehmer Äußerungen durch 100 dividiert.
    : Hinweis MLU des Teilnehmers Satz Komplexitätsstufen.
  5. TD-Kinder zu rekrutieren. Idealerweise passen die TD-Kinder, die Kinder mit Autismus für Alter (TD-Gruppe 1), MLU (TD-Gruppe 2) und verbale IQ (TD-Gruppe 3).
    Hinweis: Die vorliegende Studie rekrutierten 50 TD Kinder (25 jungen und 25 Mädchen) von lokalen Kindergärten. 25 abgestimmt auf die Kinder mit Autismus für Alter und 25 MLU und verbale IQ auf die Kinder mit Autismus abgestimmt.

(2) Warm-up-Session

  1. Laden Sie die Teilnehmer für eine Warm-up-Session vor dem eigentlichen Test. Vorstellen des Teilnehmers der Forschungslandschaft und interagieren mit ihm oder ihr einen guten Draht zu etablieren.
    Hinweis: Dies kann werden am gleichen Tag wie die Test-Session oder an einem anderen Tag organisiert. Im Warm-up engagieren sich in der Regel zwei Experimentatoren und Interaktion mit dem Teilnehmer mit Spielzeug und Requisiten.

3. Bedingungen und experimentelles Design

  1. Konstruieren Sie die Test-Reize. 12 Zielelemente, jeweils bestehend aus einem visuellen Reiz und zwei gesprochene Sätze, die morphologische Marker BA und BEI, bzw. zu erstellen. Die gesprochene Sätze, die mit der gleichen Struktur zu konstruieren: morphologische Marker, Nominalphrase (NP), Adverb + Verb phrase (VP) (siehe Beispiele 1a und 1 b unten).
    Hinweis: Die Markierung BA gibt an, dass die folgende NP der Empfänger der Holding-Ereignis ist (siehe 2a), und BEI weist darauf hin, dass die folgende NP der Initiator der Veranstaltung ist (siehe 2 b). Thema NP eines Satzes in Mandarin kann oft verzichtet werden, wenn der Referent der NP kontextuell verfügbar ist.

    Beispiel:
    (1) a. BA Shizi Qingqingdi Bao-le Qilai.
             BA -Löwen halten sanft
    Bedeutung: Jemand hält sanft die Löwen.
    B. BEI Shizi Qingqingdi Bao-le Qilai.
             BEI Löwen halten sanft
    Bedeutung: Jemand wird sanft von den Löwen gehalten.
    (2) a. BA + [NP]Empfänger
    b. BEI + [NP]Initiator
    1. Verwenden Sie Pixelmator (oder einem anderen Bildbearbeitungsprogramm) um Bilder zu erstellen. Pixelmator zu öffnen. Klicken Sie auf das Symbol, Pixelmator. Erstellen Sie ein visuelles Bild aus einer Vorlage. Klicken Sie auf Details anzeigen im Template Chooser. Doppelklicken Sie auf die Vorlage, um sie zu öffnen. Passen Sie die Breite, Höhe, Auflösung und Farbtiefe aus den Popup-Menüs. Geben Sie die relevanten Parameter. Klicken Sie auf "OK".
    2. Verwenden Sie Praat (oder einem anderen Audio-Editor), um gesprochene Sätze zu konstruieren. Richten Sie das Mikrofon. Praat zu öffnen. Klicken Sie auf das Praat-Symbol. Wählen Sie Datensatz Mono sound aus dem Menü " New ". Legen Sie die Aufnahmebedingungen durch Klicken auf die Option "Sample Rate" von 44100. Klicken Sie auf die Schaltfläche " Record ".
    3. Aufzeichnen der gesprochenen Sätzen mit der Frage eines Beijing Mandarin-Muttersprachler, die Sätze in gewissem Sinne unter der Regie von Kind zu produzieren. Speichern Sie die Aufnahmen durch Klicken auf Speichern.
      Hinweis: In der Regel sind 12 bis 16 Zielobjekte für Satz Verständnis Studien mit Kindern gebaut. Teststimuli können mit anderen Bild- und audio-Editoren für eine visuelle Welt Studie erstellt werden.
  2. Erstellen Sie visuelle Bilder, jeweils zwei Bilder. Die beiden Bilder zeigen das gleiche Ereignis mit den gleichen Zeichen. Kehren Sie die Event-Rollen (Initiator oder Empfänger) der beiden Charaktere in den beiden Bildern. Machen Sie ein Bild mit dem Bau mit BA (BA-Ziel-Event) und einer mit dem Bau mit at (at-Zielereignis) kompatibel. Ein Beispiel ist in Abbildung 1angegeben.
    Hinweis: Diese Zahl hat mit freundlicher Genehmigung von Zhou und Ma (2018)19abgedruckt worden.
  3. Gegengewicht und Randomisierung: Teilen Sie die Ziel-Prüfungen in zwei experimentelle Listen mit einem Teilnehmer jedes visuelle Reize zu sehen, aber hören nur eines die aufgenommenen Sätze für den Reiz. Gegengewicht zu die gesprochenen Sätzen mit BA und BEI über die beiden experimentellen Listen mit 6 Konstruktionen mit BA und 6 mit BEI. Jede experimentelle Liste 12 Füller Elemente hinzufügen und die Ziel- und Füllstoff Versuche in einer zufälligen Reihenfolge anordnen. Nach dem Zufallsprinzip weisen Sie die Teilnehmer der beiden Listen.

4. Versuchsdurchführung

  1. Eyetracking-Verfahren.
    1. Laden Sie die Teilnehmer bequem vor dem Monitor von der remote Eyetracker sitzen. Legen Sie den Abstand zwischen den Teilnehmern Augen und dem Monitor ca. 60 cm. Perform Kalibrierung und Validierung Standardverfahren mit der Frage der Teilnehmer auf einem Raster von fünf Fixierung Ziele in zufälliger Folge zu fixieren.
    2. Präsentieren Sie die Teilnehmer mit einem gesprochenen Satz während sie ein visuelles Bild zu sehen sind wie in den standard Bildwelt Paradigma10,44. Die Option monokularen Eye Tracking durch die Verfolgung des Auges, das auf der gleichen Seite wie der Beleuchtung des Eye-Trackers ist. Aufzeichnen des Teilnehmers Augenbewegungen mit dem Eyetracker.
      Hinweis: In der vorliegenden Studie verwendete Eye-Tracker ermöglicht remote Eye Tracking mit einer Sampling-Rate von 500 Hz.
  2. Test- und Messgeräte.
    1. Testen Sie die Teilnehmer einzeln. Teilen Sie einfach die Teilnehmer mit den gesprochenen Sätzen zu hören, während sie die Bilder anzeigen. Fragen Sie ein Experimentator, den Teilnehmer auf dem Computer zu überwachen und zu stehen hinter des Teilnehmers und Ruhe sanft ihre Hände auf die Teilnehmer Schultern, plötzliche Bewegungen des Teilnehmers zu minimieren.
    2. Messen des Teilnehmers Augenbewegungen, die als automatische Reaktionen auf den sprachlichen Input mit dem Eyetracker entstehen.
      Hinweis: Die Aufgabe fragt nicht Teilnehmer zu bewussten Entscheidungen über die gesprochenen Sätze um ihre rechnerische Belastung zu minimieren. Der Eye-Tracker speichert automatisch die Augenbewegungen.
    3. Überwachung während des Tests: Verwenden Sie den live Viewer-Modus auf dem Computerbildschirm, ausgestellt von der Eye-Tracker während des Tests, um der Teilnehmer sieht Verhalten zu beobachten. Fragen des Experimentators, der Erhebung von Daten über die live Viewer-Modus der Experimentator signalisieren, wer hinter der Teilnehmer steht, den Teilnehmer neu auszurichten, wenn seine oder ihre Augen Blick aus dem Computerbildschirm wandert überwacht.

5. Datenverarbeitung und-Analyse

  1. Code der TeilnehmerInnen Fixierungen in zwei Interessengebiete. Daten-Viewer verwenden, um die zwei Interessengebiete zeichnen: BA-Ziel-Event-Bereich und BEI den Zielgruppen-Event-Bereich (siehe Abbildung 1). Open Data Viewer. Wählen Sie eines der Interesse Bereich Form Symbole auf der Symbolleiste. Verwenden Sie die Maus auf ein Feld rund um die Region zu ziehen als ein Interessengebiet definieren möchten. Sicherungsbereich Interesse im Ordner "Interesse Bereich festlegen". Zinsbereich auf andere Bilder anwenden.
    Hinweis: Die abgebildete Ereignis im oberen Bereich der Abbildung 1 entspricht des BA-Bau, damit die BA-Ziel-Ereignis und das Ereignis dargestellt im unteren Panel Spiele Abbildung 1b, daher das BEI Zielereignis. Die Software zur Kodierung verwendet ist Daten-Viewer, die mit der Eye-Tracker in der Studie verwendeten kommt. Andere Daten-Analyse-Software ist auch verfügbar.
  2. Analysieren Sie die Auge Blickmustern mit Daten-Viewer.
    1. Open Data Viewer. Wählen Sie die Probe Bericht Funktion aus dem Menü, das Zeitfenster für die Analyse (z. B. alle 200 ms für das Zeitfenster in der vorliegenden Studie) festlegen. Verwenden Sie die gleiche Funktion, Zeitschloss die Fixierung Proportionen im Bereich Interesse auf den Ausbruch des Markers für jeden Versuch. Exportieren Sie die raw-Daten in eine Excel-Datei mit der Exportfunktion aus dem Menü.
    2. Verwenden Sie die Excel-Funktionen, um die Fixierung Proportionen nach Ausbruch der Marker für jeden Bereich im Durchschnitt. Verwenden Sie die Excel-Funktionen, um die Fixierung Proportionen in jedem Zeitfenster von 200 ms über einen Zeitraum von 5200 ms (die mittlere Länge des Ziels Sätze + 200 ms) zu berechnen aus dem Beginn der Marker für die beiden Bereiche. Das Auge-Bewegungsdaten, Vertreter Ergebnisse unten detailliert zuweisen Sie lineare gemischt-Effekte Modelle.
      Hinweis: Die Verwendung von 200 ms als ein Zeitfenster basiert auf dem Standardverfahren für Kind Auge Blick Datenanalyse in der Literatur12,13,18,19,45, 46,47, und es wird allgemein angenommen, dass es ca. 200 ms braucht, um die Auswirkungen von linguistischen Markierungen am Auge Bewegungen48beobachten.

Ergebnisse

Die vorliegende Studie nutzt Minimalpaare wie Beispiele 1a und 1 b um zu untersuchen, ob und wie schnell können Kinder mit Autismus Ereignisinformationen in zwei morphologische Marker während Echtzeit-Satz Verständnis kodiert. Es wurde vorausgesagt, dass wenn sie schnell und effektiv Ereignisinformationen in beiden Marker während Echtzeit-Satz Verständnis verwenden können, dann sie mehr bei der BA-Ziel-Veranstaltung beim BA hören als wenn Anhörung BEI aussehen sollte. Auch sollten...

Diskussion

In der aktuellen Studie präsentieren wir eine Eyetracking-Paradigma, die direkt und effektiv die Satz-Verständnis-Fähigkeiten von Kindern mit Autismus einschätzen kann. Wir fanden, dass 5-jährige Kinder mit Autismus, wie ihre Altersgenossen Alter abgestimmt TD Auge Blickmustern ausgestellt, die effektive und schnelle Nutzung der sprachlichen Signale in Echtzeit-Satz Verständnis widerspiegeln.

Die Ergebnisse belegen, dass Eye-Tracking (insbesondere die visuelle Welt-Paradigma) ein sensibl...

Offenlegungen

Die Autoren haben nichts preisgeben.

Danksagungen

Diese Arbeit wurde von der National Social Science Foundation of China [16BYY076], Peng Zhou und der Wissenschaft Stiftung der Beijing Language and Cultural University unter die grundlegenden Forschungsmittel für die zentralen Universitäten [15YJ050003] finanziert. Die Autoren sind dankbar für die Kinder, Eltern und Lehrer an der Enqi Autismus Plattform und Taolifangyuan Kindergarten in Peking, China, für ihre Unterstützung bei der Durchführung der Studiums.

Materialien

NameCompanyCatalog NumberComments
EyeLink 1000 plus eye tracker SR Research Ltd. The EyeLink 1000 plus allows remote eye tracking, without a head support. The eye tracker provides information about the participant’s point of gaze at a sampling rate of 500 Hz, and it has accuracy of 0.5 degrees of visual angle. 

Referenzen

  1. Altmann, G. T., Kamide, Y. Incremental interpretation at verbs: Restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  2. Altmann, G. T., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  3. DeLong, K. A., Urbach, T. P., Kutas, M. Probabilistic word pre-activation during language comprehension inferred from electrical brain activity. Nature neuroscience. 8 (8), 1117-1121 (2005).
  4. Kamide, Y., Altmann, G. T., Haywood, S. L. The time-course of prediction in incremental sentence processing: Evidence from anticipatory eye movements. Journal of Memory and Language. 49 (1), 133-156 (2003).
  5. Knoeferle, P., Crocker, M. W., Scheepers, C., Pickering, M. J. The influence of the immediate visual context on incremental thematic role-assignment: Evidence from eye-movements in depicted events. Cognition. 95 (1), 95-127 (2005).
  6. Knoeferle, P., Kreysa, H. Can speaker gaze modulate syntactic structuring and thematic role assignment during spoken sentence comprehension. Frontiers in Psychology. 3, 538 (2012).
  7. Knoeferle, P., Urbach, T. P., Kutas, M. Comprehending how visual context influences incremental sentence processing: Insights from ERPs and picture-sentence verification. Psychophysiology. 48 (4), 495-506 (2011).
  8. Pickering, M. J., Traxler, M. J., Crocker, M. W. Ambiguity resolution in sentence processing: Evidence against frequency-based accounts. Journal of Memory and Language. 43 (3), 447-475 (2000).
  9. Staub, A., Clifton, C. Syntactic prediction in language comprehension: Evidence from either... or. Journal of Experimental Psychology: Learning, Memory, and Cognition. 32 (2), 425-436 (2006).
  10. Tanenhaus, M., Spivey-Knowlton, M., Eberhard, K., Sedivy, J. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  11. Van Berkum, J. J., Brown, C. M., Zwitserlood, P., Kooijman, V., Hagoort, P. Anticipating upcoming words in discourse: Evidence from ERPs and reading times. Journal of Experimental Psychology: Learning, Memory, and Cognition. 31 (3), 443-467 (2005).
  12. Choi, Y., Trueswell, J. C. Children's (in) ability to recover from garden paths in a verb-final language: Evidence for developing control in sentence processing. Journal of Experimental Child Psychology. 106 (1), 41-61 (2010).
  13. Huang, Y., Zheng, X., Meng, X., Snedeker, J. Children's assignment of grammatical roles in the online processing of Mandarin passive sentences. Journal of Memory and Language. 69 (4), 589-606 (2013).
  14. Lew-Williams, C., Fernald, A. Young children learning Spanish make rapid use of grammatical gender in spoken word recognition. Psychological Science. 18 (3), 193-198 (2007).
  15. Sekerina, I. A., Trueswell, J. C. Interactive processing of contrastive expressions by Russian children. First Language. 32 (1-2), 63-87 (2012).
  16. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: Studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  17. Van Heugten, M., Shi, R. French-learning toddlers use gender information on determiners during word recognition. Developmental Science. 12 (3), 419-425 (2009).
  18. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children's online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  19. Zhou, P., Ma, W. Children's use of morphological cues in real-time event representation. Journal of Psycholinguistic Research. 47 (1), 241-260 (2018).
  20. Eigsti, I. M., Bennetto, L., Dadlani, M. B. Beyond pragmatics: Morphosyntactic development in autism. Journal of Autism and Developmental Disorders. 37 (6), 1007-1023 (2007).
  21. Kjelgaard, M. M., Tager-Flusberg, H. An investigation of language impairment in autism: Implications for genetic subgroups. Language and Cognitive Processes. 16 (2-3), 287-308 (2001).
  22. Tager-Flusberg, H. Risk factors associated with language in autism spectrum disorder: clues to underlying mechanisms. Journal of Speech, Language, and Hearing Research. 59 (1), 143-154 (2016).
  23. Tager-Flusberg, H., Kasari, C. Minimally verbal school-aged children with autism spectrum disorder: the neglected end of the spectrum. Autism Research. 6 (6), 468-478 (2013).
  24. Tek, S., Mesite, L., Fein, D., Naigles, L. Longitudinal analyses of expressive language development reveal two distinct language profiles among young children with autism spectrum disorders. Journal of Autism and Developmental Disorders. 44 (1), 75-89 (2014).
  25. Wittke, K., Mastergeorge, A. M., Ozonoff, S., Rogers, S. J., Naigles, L. R. Grammatical language impairment in autism spectrum disorder: Exploring language phenotypes beyond standardized testing. Frontiers in Psychology. 8, 532 (2017).
  26. Hudry, K., Leadbitter, K., Temple, K., Slonims, V., McConachie, H., Aldred, C., et al. Preschoolers with autism show greater impairment in receptive compared with expressive language abilities. International Journal of Language & Communication Disorders. 45 (6), 681-690 (2010).
  27. Kasari, C., Brady, N., Lord, C., Tager-Flusberg, H. Assessing the minimally verbal school-aged child with autism spectrum disorder. Autism Research. 6 (6), 479-493 (2013).
  28. Luyster, R. J., Kadlec, M. B., Carter, A., Tager-Flusberg, H. Language assessment and development in toddlers with autism spectrum disorders. Journal of Autism and Developmental Disorders. 38 (8), 1426-1438 (2008).
  29. Plesa-Skwerer, D., Jordan, S. E., Brukilacchio, B. H., Tager-Flusberg, H. Comparing methods for assessing receptive language skills in minimally verbal children and adolescents with Autism Spectrum Disorders. Autism. 20 (5), 591-604 (2016).
  30. Boucher, J. Research review: Structural language in autism spectrum disorder-characteristics and causes. Journal of Child Psychology and Psychiatry. 53 (3), 219-233 (2012).
  31. Eigsti, I. M., de Marchena, A. B., Schuh, J. M., Kelley, E. Language acquisition in autism spectrum disorders: A developmental review. Research in Autism Spectrum Disorders. 5 (2), 681-691 (2011).
  32. Howlin, P. Outcome in high-functioning adults with autism with and without early language delays: Implications for the differentiation between autism and Asperger syndrome. Journal of Autism and Developmental Disorders. 33 (1), 3-13 (2003).
  33. Koning, C., Magill-Evans, J. Social and language skills in adolescent boys with Asperger syndrome. Autism: The International Journal of Research and Practice. 5 (1), 23-36 (2001).
  34. Kover, S. T., Haebig, E., Oakes, A., McDuffie, A., Hagerman, R. J., Abbeduto, L. Sentence comprehension in boys with autism spectrum disorder. American Journal of Speech-Language Pathology. 23 (3), 385-394 (2004).
  35. Perovic, A., Modyanova, N., Wexler, K. Comprehension of reflexive and personal pronouns in children with autism: A syntactic or pragmatic deficit. Applied Psycholinguistics. 34 (4), 813-835 (2013).
  36. Rapin, I., Dunn, M. Update on the language disorders of individuals on the autistic spectrum. Brain Development. 25 (3), 166-172 (2003).
  37. Tager-Flusberg, H. Sentence comprehension in autistic children. Applied Psycholinguistics. 2 (1), 5-24 (1981).
  38. Rutter, M., Maywood, L., Howlin, P., Fletcher, P., Hall, D. Language delay and social development. Specific speech and language disorders in children: Correlates, characteristics, and outcomes. , (1992).
  39. Tager-Flusberg, H., Menn, L., Ratner, N. B. The challenge of studying language development in autism. Methods for studying language production. , (2000).
  40. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 4th edition, text revision (DSM-IV-TR). American Psychiatric Association. , (2000).
  41. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 5th edition (DSM-5). American Psychiatric Association. , (2013).
  42. Lord, C., Rutter, M., DiLavore, P. C., Risi, S. Autism diagnostic observation schedule. Western Psychological Services. , (1999).
  43. Li, Y., Zhu, J. Wechsler Preschool and Primary Scale of Intelligence™-IV CN) [WPPSI-IV (CN)]. Zhuhai King-may Psychological Measurement Technology Development Co., Ltd. , (2014).
  44. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  45. Huang, Y., Snedeker, J. Semantic meaning and pragmatic interpretation in five-year olds: Evidence from real time spoken language comprehension. Developmental Psychology. 45 (6), 1723-1739 (2009).
  46. Snedeker, J., Yuan, S. Effects of prosodic and lexical constraints on parsing in young children (and adults). Journal of Memory and Language. 58 (2), 574-608 (2008).
  47. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children's on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  48. Matin, E., Shao, K. C., Boff, K. R. Saccadic overhead: Information-processing time with and without saccades. Perception & Psychophysics. 53 (4), 372-380 (1993).
  49. Barr, D. J. Analyzing 'visual world' eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  50. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenAusgabe 140Eye Trackingvisuelle Welt Paradigmasprachliche Hinweisemorphologische MarkerKinderspracheEchtzeit Satz Verst ndnis

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten