JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Vi presentiamo un protocollo per esaminare l'uso delle indicazioni morfologiche durante la comprensione di frase in tempo reale da parte dei bambini con autismo.

Abstract

Comprensione di frase si basa sulla capacità di integrare rapidamente diversi tipi di informazioni linguistiche e non linguistica. Tuttavia, ci è attualmente una scarsità di ricerca esplorando come prescolare i bambini con autismo comprendono frasi utilizzando diversi tipi di segnali. I meccanismi alla base di frase comprensione rimane in gran parte poco chiari. Il presente studio presenta un protocollo per esaminare le abilità di comprensione di frase di bambini in età prescolare con autismo. Più specificamente, un paradigma del mondo visivo di eye tracking è utilizzato per esplorare la comprensione ad ogni istante frase nei bambini. Il paradigma ha molteplici vantaggi. In primo luogo, è sensibile per il corso di tempo di comprensione della frase e così possono fornire molte informazioni su come comprensione di frase si svolge nel corso del tempo. In secondo luogo, richiede minime richieste di attività e comunicazione, quindi è ideale per testare i bambini con autismo. Per ridurre ulteriormente l'onere computazionale dei bambini, le presenti misure di studio occhio movimenti che nascono come risposte automatiche a input linguistico piuttosto che misura i movimenti di occhio che accompagnano cosciente risposte per le istruzioni vocali.

Introduzione

Comprensione di frase si basa sulla capacità di integrare rapidamente diversi tipi di informazioni linguistiche e non linguistica1,2,3,4,5,6 , 7 , 8 , 9 , 10 , 11. ricerca preliminare ha trovato che il giovane (TD) bambini con sviluppo tipico in modo incrementale calcolare il significato di una frase utilizzando sia linguistico che non linguistici stecche12,13,14, 15,16,17,18,19. Tuttavia, ci è attualmente una scarsità di ricerca esplorando come prescolare i bambini con autismo capiscono una frase utilizzando diversi tipi di segnali. I meccanismi che sottendono la loro comprensione della frase rimane in gran parte poco chiaro.

È generalmente riconosciuto che c'è una enorme variabilità nelle competenze linguistiche dei bambini con autismo, soprattutto nel loro linguaggio espressivo; ad esempio, alcuni bambini con autismo hanno lingua strutturale relativamente buono, alcuni presentano deficit nei domini lessicali e grammaticali, alcuni dimostrano grammatica alterata e alcuni mai acquisire la lingua parlata funzionale20,21 ,22,23,24,25. Inoltre, previa ricerca sembra suggerire che il loro linguaggio ricettivo è relativamente più compromessa oltre loro linguaggio espressivo26,27,28,29. Maggior parte della ricerca che ha valutato le abilità di comprensione di frase di bambini con autismo hanno utilizzato le attività offline (ad es., standardizzato prove, rapporti badante), e i risultati suggeriscono che la loro capacità di comprensione della frase potrebbe essere particolarmente alterata30,31,32,33,34,35,36,37. Tuttavia, è stato sottolineato che le capacità di comprensione difficile più probabilmente sono legate alla mancanza generale di questi bambini di risposta sociale rispetto al deficit38,39di elaborazione del linguaggio. Nota che queste attività non in linea utilizzate nella precedente ricerca spesso richiedono elevata risposta richieste o interazioni con gli sperimentatori, che potrebbero comportare particolari difficoltà per i bambini con autismo, perché spesso mostrano vari comportamenti difficili o sintomi. Di conseguenza, questo può interagire con le elevate esigenze di comunicazione e attività e mascherare le loro abilità di comprensione [per una panoramica dei metodi per la valutazione del linguaggio ricettivo in bambini con autismo, vedere Kasari et al (2013)27 e Plesa-Skwerer et al. ( 2016)29]. Così, paradigmi sperimentali che possono controllare meglio questi fattori di confusione sono necessari per capire meglio la natura dei meccanismi di elaborazione di frase nell'autismo.

In questo studio, presentiamo un paradigma di eye tracking che può direttamente ed efficacemente valutare le abilità di comprensione di frase di bambini con autismo. Rispetto alle attività non in linea, eye tracking è un più sensibile test paradigma per dimostrare le capacità di comprensione dei bambini. È sensibile per il corso di tempo del processo di comprensione e non richiede alcuna esplicita motore o risposte di lingua dal partecipante, che lo rende un metodo promettente per lo studio i bambini più piccoli e minimamente verbali bambini con autismo. Inoltre, registriamo movimenti oculari come le risposte automatiche per input linguistico invece di misurare i movimenti di occhio che accompagnano cosciente risposte a input linguistico.

Protocollo

Questo studio è stato approvato dal comitato etico della scuola di medicina all'Università di Tsinghua. Consenso informato è stato ottenuto da tutti i singoli partecipanti inclusi nello studio.

1. partecipante Screening e preparazione di studio

  1. Reclutare bambini in età prescolare lingua mandarina con autismo.
    Nota: Le loro diagnosi dovrebbero essere confermate dai neurologi pediatrici presso gli ospedali utilizzando il DSM-IV-TR40 o DSM-541 e, idealmente, il numero dei partecipanti dovrebbe essere non meno di 15. Il presente studio ha reclutato 25 partecipanti con diagnosi confermate.
  2. Valutare ogni partecipante in modo indipendente utilizzando oro-standard strumenti diagnostici come il Autism Diagnostic Observation Schedule42.
  3. Misura il quoziente d'intelligenza verbale dei partecipanti usando il prescolare Wechsler e scala primaria di intelligenza-IV (CN), una prova standardizzata di IQ ideata per lingua Mandarina i bambini fra le età di 2-6 e 6-1143.
    Nota: I punteggi QI verbali dei bambini con autismo nello studio presente erano tutti sopra 80. Erano tutti ad alto funzionamento i bambini con autismo.
  4. Calcolare la lunghezza media di ogni partecipante dell'enunciato (MLU) dividendo il numero totale di parole per il numero delle espressioni in ogni campione di discorso. Registrare 100 espressioni per ogni partecipante sia da loro interazioni con i genitori o insegnanti. Quindi, è possibile calcolare il MLU dividendo il numero totale di parole in enunciati di ciascun partecipante per 100.
    Nota: MLU indica livelli di complessità di frase del partecipante.
  5. Reclutare i bambini TD. Idealmente corrispondere i bambini TD per i bambini con autismo per età (TD group 1), MLU (TD group 2) e quoziente d'intelligenza verbale (TD group 3).
    Nota: Il presente studio ha reclutato 50 bambini di TD (25 ragazzi e 25 ragazze) da asili locali. 25 abbinati ai bambini con autismo per età e 25 abbinati ai bambini con autismo per entrambi MLU e quoziente d'intelligenza verbale.

2. warm-up

  1. Invitare i partecipanti per una sessione di warm-up prima del test effettivo. Introdurre il partecipante per l'ambiente della ricerca e interagire con lui o lei a stabilire un buon rapporto.
    Nota: Questo può essere fatto nello stesso giorno come la sessione di test o organizzato in un giorno diverso. Nella sessione di warm-up, due sperimentatori sono in genere coinvolti e interagiscono con il partecipante utilizzando giocattoli e oggetti di scena.

3. condizioni e disegno sperimentale

  1. Costruire gli stimoli di prova. Creare 12 elementi di destinazione, ciascuna composta da uno stimolo visivo e due frasi parlate contenenti gli indicatori morfologici BA e BEI, rispettivamente. Costruire le frasi pronunciate con la stessa struttura: marcatore morfologico, sintagma nominale (NP) + avverbio + verbo frase (VP) (Vedi esempi 1a e 1b qui sotto).
    Nota: L'indicatore BA indica che il seguente NP è il destinatario dell'evento holding (Vedi 2a), e BEI indica che il seguente NP è l'iniziatore dell'evento (Vedi 2b). Il NP soggetto di una frase in cinese mandarino spesso può essere omesso quando il referente della NP è contestualmente disponibile.

    Esempio:
    (1) r. BA shizi qingqingdi bao-le qilai.
             Leone di BA premere delicatamente
    Significato: Qualcuno tiene delicatamente il leone.
    b. BEI shizi qingqingdi bao-le qilai.
             BEI Leone premere delicatamente
    Significato: Qualcuno è tenuto delicatamente dal Leone.
    (2) a. BA + [NP]destinatario
    b. BEI + [NP]iniziatore
    1. Utilizzare Pixelmator (o un altro editor di immagini) per creare immagini visive. Aprire Pixelmator. Fare clic sull'icona di Pixelmator. Creare un'immagine visiva da un modello. Fare clic su Visualizza dettagli nella finestra scelta modello. Doppio clic sul modello per aprirlo. Regolare la larghezza, altezza, risoluzione e profondità di colore dal menu a comparsa. Immettere i parametri pertinenti. Fare clic su OK.
    2. Utilizzare Praat (o un altro editor audio) per costruire frasi parlate. Impostare il microfono. Aprire Praat. Fare clic sull'icona Praat. Selezionare Record Mono audio dal menu nuovo . Impostare le condizioni di registrazione facendo clic sull'opzione di tasso di campione di 44100. Fare clic sul pulsante Record .
    3. Registrare le frasi pronunciate chiedendo un Beijing Mandarin-madrelingua per produrre le frasi in maniera diretta al bambino. Salvare le registrazioni facendo clic su Salva.
      Nota: In genere, 12 a 16 elementi di destinazione sono costruiti per gli studi di comprensione di frase con i bambini. Stimoli di prova possono essere creati utilizzando altri editor audio e immagine per uno studio del mondo visivo.
  2. Costruire immagini visive, ciascuno contenente due immagini. Le due immagini rappresentano lo stesso evento che coinvolge gli stessi caratteri. Invertire i ruoli di evento (iniziatore o destinatario) dei due personaggi nelle due immagini. Rendere un'immagine compatibile con la costruzione contenente BA (evento BA-target) e uno con la costruzione contenente BEI (evento BEI-target). Un esempio è fornito nella Figura 1.
    Nota: Questa figura è stata ristampata con il permesso di Zhou e Ma (2018)19.
  3. Randomizzazione e contrappeso: dividere le prove di destinazione in due elenchi sperimentale, con un partecipante vedendo ogni stimolo visivo ma ascolto a una sola delle frasi registrate per lo stimolo. Controbilanciare le frasi pronunciate contenente BA e BEI tra le due liste sperimentale, con 6 costruzioni contenenti BA e 6 contenenti BEI. Aggiungere elementi di riempimento 12 a ciascuna lista sperimentale e organizzare le prove di destinazione e filler in ordine casuale. Assegnare casualmente i partecipanti a due elenchi.

4. procedura sperimentale

  1. Procedura di eye tracking.
    1. Invitare i partecipanti a sedersi comodamente davanti al monitor di visualizzazione dell'inseguitore dell'occhio remoto. Impostare la distanza tra gli occhi dei partecipanti e il monitor circa 60 cm. eseguire le procedure standard di calibrazione e validazione chiedendo ai partecipanti di fissarsi su una griglia di cinque obiettivi di fissazione in successione casuale.
    2. Presentare i partecipanti con una frase pronunciata mentre stanno vedendo un'immagine visiva, come fatto nel mondo visivo standard paradigma10,44. Utilizzare l'opzione di eye tracking monoculare tenendo traccia dell'occhio che è sullo stesso lato come l'illuminatore dell'inseguitore dell'occhio. Registrare i movimenti di occhio del partecipante con il tracker di occhio.
      Nota: Il tracker di occhio utilizzato nello studio presente permette remoto eye tracking con una frequenza di campionamento di 500 Hz.
  2. Test e misura.
    1. Testare i partecipanti individualmente. Semplicemente dire ai partecipanti di ascoltare le frasi pronunciate, mentre si stanno visualizzando le immagini. Chiedi uno sperimentatore per monitorare il partecipante sul computer e uno dietro il partecipante e riposare dolcemente le sue mani sulle spalle del partecipante per ridurre al minimo i movimenti improvvisi del partecipante.
    2. Misurare i movimenti di occhio del partecipante che nascono come le risposte automatiche per l'input linguistico con il tracker di occhio.
      Nota: L'attività non chiede ai partecipanti di fare qualunque giudizio consapevole circa le frasi pronunciate per ridurre al minimo l'onere computazionale. Il tracker di occhio registra automaticamente i movimenti dell'occhio.
    3. Monitoraggio durante il test: utilizzare la modalità visualizzatore dal vivo sullo schermo del computer, ha esibito dal tracker occhio durante la prova, per osservare il partecipante osservanti del comportamento. Chiedi lo sperimentatore che controlla la raccolta dei dati tramite la modalità dal vivo spettatori per segnalare allo sperimentatore che sta dietro al partecipante di riorientare il partecipante se suo sguardo fisso dell'occhio vaga fuori dallo schermo del computer.

5. analisi e trattamento dati

  1. Codice fissazioni dei partecipanti nelle due aree di interesse. Utilizzare il Visualizzatore dati per tracciare le aree di due interesse: area evento BA-target e area evento BEI-bersaglio (Vedi Figura 1). Visualizzatore di dati aperti. Selezionare una delle icone di forma dell'area di interesse sulla barra degli strumenti. Utilizzare il mouse per trascinare una casella intorno alla regione che si desidera definire come un'area di interesse. Salva l'area di interesse nella cartella interesse zona impostata. Applicare sulla zona di interesse per altre immagini visive.
    Nota: L'evento raffigurato nel pannello superiore della Figura 1 corrisponde la BA-costruzione, quindi l'evento di BA-destinazione e l'evento raffigurato nella inferiore pannello partite Figura 1b, quindi l'evento di BEI-destinazione. Il software utilizzato per la codifica dei dati è Visualizzatore dati, che viene fornito con il tracker di occhio utilizzato nello studio. È disponibile anche altri software di analisi dati.
  2. Analizzare i modelli di sguardo occhio utilizzando Visualizzatore dati.
    1. Visualizzatore di dati aperti. Scegliere la funzione di report di esempio dal menu per impostare le finestre di tempo per l'analisi (ad esempio, ogni 200 ms per l'intervallo di tempo nel presente studio). Utilizzare la stessa funzione a tempo blocco la fissazione di proporzioni nelle aree di interesse per l'inizio del marcatore per ogni prova. Esportare i dati grezzi in un file di excel utilizzando la funzione di esportazione dal menu.
    2. Utilizza le funzioni di excel per la media le proporzioni di fissazione che seguono l'inizio del marcatore per ogni zona. Utilizzare le funzioni di excel per calcolare le proporzioni di fissazione in ogni finestra di tempo di 200 ms per un periodo di ms 5200 (la lunghezza media delle frasi di destinazione + 200 ms) fin dall'inizio del marcatore per le due aree. Applicare modelli di misto-effetti lineare per i dati di movimento di occhio, dettagliati nel rappresentante risultati riportati di seguito.
      Nota: L'uso di 200 ms come una finestra di tempo si basa la procedura standard per l'analisi dei dati di figlio occhio lo sguardo nella letteratura12,13,18,19,45, 46,47e si presume generalmente che ci vogliono circa 200 ms per osservare gli effetti di marcatori linguistici su occhio movimenti48.

Risultati

Lo studio presente utilizza coppie minime come esempi 1a e 1b per indagare se e quanto velocemente i bambini con autismo possono utilizzare informazioni sugli eventi codificati in due indicatori morfologici durante la comprensione di frase in tempo reale. E ' stato previsto che se essi sono in grado di usare rapidamente ed efficacemente informazioni sugli eventi in due marcatori durante la comprensione di frase in tempo reale, allora si dovrebbe guardano più all'evento BA-destinazione se...

Discussione

In questo studio, presentiamo un paradigma di eye tracking che può direttamente ed efficacemente valutare le abilità di comprensione di frase di bambini con autismo. Abbiamo trovato che 5-anno-vecchi bambini con autismo, come i loro coetanei di TD di pari età, hanno esibito i modelli di sguardo degli occhi che riflettono il rapido ed efficace uso di spunti linguistici durante la comprensione di frase in tempo reale.

I risultati forniscono la prova che l'eye tracking (in particolare, il para...

Divulgazioni

Gli autori non hanno nulla a rivelare.

Riconoscimenti

Questo lavoro è stato finanziato dal National Social Science Foundation of China [16BYY076] di Peng Zhou e la scienza Foundation di Beijing Language and Cultural University nell'ambito dei fondi di ricerca fondamentali per le Università centrale [15YJ050003]. Gli autori sono grati per i bambini, genitori e insegnanti presso la piattaforma di autismo Enqi e asilo Taolifangyuan a Pechino, Cina, per il loro supporto in esecuzione dello studio.

Materiali

NameCompanyCatalog NumberComments
EyeLink 1000 plus eye tracker SR Research Ltd. The EyeLink 1000 plus allows remote eye tracking, without a head support. The eye tracker provides information about the participant’s point of gaze at a sampling rate of 500 Hz, and it has accuracy of 0.5 degrees of visual angle. 

Riferimenti

  1. Altmann, G. T., Kamide, Y. Incremental interpretation at verbs: Restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  2. Altmann, G. T., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  3. DeLong, K. A., Urbach, T. P., Kutas, M. Probabilistic word pre-activation during language comprehension inferred from electrical brain activity. Nature neuroscience. 8 (8), 1117-1121 (2005).
  4. Kamide, Y., Altmann, G. T., Haywood, S. L. The time-course of prediction in incremental sentence processing: Evidence from anticipatory eye movements. Journal of Memory and Language. 49 (1), 133-156 (2003).
  5. Knoeferle, P., Crocker, M. W., Scheepers, C., Pickering, M. J. The influence of the immediate visual context on incremental thematic role-assignment: Evidence from eye-movements in depicted events. Cognition. 95 (1), 95-127 (2005).
  6. Knoeferle, P., Kreysa, H. Can speaker gaze modulate syntactic structuring and thematic role assignment during spoken sentence comprehension. Frontiers in Psychology. 3, 538 (2012).
  7. Knoeferle, P., Urbach, T. P., Kutas, M. Comprehending how visual context influences incremental sentence processing: Insights from ERPs and picture-sentence verification. Psychophysiology. 48 (4), 495-506 (2011).
  8. Pickering, M. J., Traxler, M. J., Crocker, M. W. Ambiguity resolution in sentence processing: Evidence against frequency-based accounts. Journal of Memory and Language. 43 (3), 447-475 (2000).
  9. Staub, A., Clifton, C. Syntactic prediction in language comprehension: Evidence from either... or. Journal of Experimental Psychology: Learning, Memory, and Cognition. 32 (2), 425-436 (2006).
  10. Tanenhaus, M., Spivey-Knowlton, M., Eberhard, K., Sedivy, J. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  11. Van Berkum, J. J., Brown, C. M., Zwitserlood, P., Kooijman, V., Hagoort, P. Anticipating upcoming words in discourse: Evidence from ERPs and reading times. Journal of Experimental Psychology: Learning, Memory, and Cognition. 31 (3), 443-467 (2005).
  12. Choi, Y., Trueswell, J. C. Children's (in) ability to recover from garden paths in a verb-final language: Evidence for developing control in sentence processing. Journal of Experimental Child Psychology. 106 (1), 41-61 (2010).
  13. Huang, Y., Zheng, X., Meng, X., Snedeker, J. Children's assignment of grammatical roles in the online processing of Mandarin passive sentences. Journal of Memory and Language. 69 (4), 589-606 (2013).
  14. Lew-Williams, C., Fernald, A. Young children learning Spanish make rapid use of grammatical gender in spoken word recognition. Psychological Science. 18 (3), 193-198 (2007).
  15. Sekerina, I. A., Trueswell, J. C. Interactive processing of contrastive expressions by Russian children. First Language. 32 (1-2), 63-87 (2012).
  16. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: Studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  17. Van Heugten, M., Shi, R. French-learning toddlers use gender information on determiners during word recognition. Developmental Science. 12 (3), 419-425 (2009).
  18. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children's online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  19. Zhou, P., Ma, W. Children's use of morphological cues in real-time event representation. Journal of Psycholinguistic Research. 47 (1), 241-260 (2018).
  20. Eigsti, I. M., Bennetto, L., Dadlani, M. B. Beyond pragmatics: Morphosyntactic development in autism. Journal of Autism and Developmental Disorders. 37 (6), 1007-1023 (2007).
  21. Kjelgaard, M. M., Tager-Flusberg, H. An investigation of language impairment in autism: Implications for genetic subgroups. Language and Cognitive Processes. 16 (2-3), 287-308 (2001).
  22. Tager-Flusberg, H. Risk factors associated with language in autism spectrum disorder: clues to underlying mechanisms. Journal of Speech, Language, and Hearing Research. 59 (1), 143-154 (2016).
  23. Tager-Flusberg, H., Kasari, C. Minimally verbal school-aged children with autism spectrum disorder: the neglected end of the spectrum. Autism Research. 6 (6), 468-478 (2013).
  24. Tek, S., Mesite, L., Fein, D., Naigles, L. Longitudinal analyses of expressive language development reveal two distinct language profiles among young children with autism spectrum disorders. Journal of Autism and Developmental Disorders. 44 (1), 75-89 (2014).
  25. Wittke, K., Mastergeorge, A. M., Ozonoff, S., Rogers, S. J., Naigles, L. R. Grammatical language impairment in autism spectrum disorder: Exploring language phenotypes beyond standardized testing. Frontiers in Psychology. 8, 532 (2017).
  26. Hudry, K., Leadbitter, K., Temple, K., Slonims, V., McConachie, H., Aldred, C., et al. Preschoolers with autism show greater impairment in receptive compared with expressive language abilities. International Journal of Language & Communication Disorders. 45 (6), 681-690 (2010).
  27. Kasari, C., Brady, N., Lord, C., Tager-Flusberg, H. Assessing the minimally verbal school-aged child with autism spectrum disorder. Autism Research. 6 (6), 479-493 (2013).
  28. Luyster, R. J., Kadlec, M. B., Carter, A., Tager-Flusberg, H. Language assessment and development in toddlers with autism spectrum disorders. Journal of Autism and Developmental Disorders. 38 (8), 1426-1438 (2008).
  29. Plesa-Skwerer, D., Jordan, S. E., Brukilacchio, B. H., Tager-Flusberg, H. Comparing methods for assessing receptive language skills in minimally verbal children and adolescents with Autism Spectrum Disorders. Autism. 20 (5), 591-604 (2016).
  30. Boucher, J. Research review: Structural language in autism spectrum disorder-characteristics and causes. Journal of Child Psychology and Psychiatry. 53 (3), 219-233 (2012).
  31. Eigsti, I. M., de Marchena, A. B., Schuh, J. M., Kelley, E. Language acquisition in autism spectrum disorders: A developmental review. Research in Autism Spectrum Disorders. 5 (2), 681-691 (2011).
  32. Howlin, P. Outcome in high-functioning adults with autism with and without early language delays: Implications for the differentiation between autism and Asperger syndrome. Journal of Autism and Developmental Disorders. 33 (1), 3-13 (2003).
  33. Koning, C., Magill-Evans, J. Social and language skills in adolescent boys with Asperger syndrome. Autism: The International Journal of Research and Practice. 5 (1), 23-36 (2001).
  34. Kover, S. T., Haebig, E., Oakes, A., McDuffie, A., Hagerman, R. J., Abbeduto, L. Sentence comprehension in boys with autism spectrum disorder. American Journal of Speech-Language Pathology. 23 (3), 385-394 (2004).
  35. Perovic, A., Modyanova, N., Wexler, K. Comprehension of reflexive and personal pronouns in children with autism: A syntactic or pragmatic deficit. Applied Psycholinguistics. 34 (4), 813-835 (2013).
  36. Rapin, I., Dunn, M. Update on the language disorders of individuals on the autistic spectrum. Brain Development. 25 (3), 166-172 (2003).
  37. Tager-Flusberg, H. Sentence comprehension in autistic children. Applied Psycholinguistics. 2 (1), 5-24 (1981).
  38. Rutter, M., Maywood, L., Howlin, P., Fletcher, P., Hall, D. Language delay and social development. Specific speech and language disorders in children: Correlates, characteristics, and outcomes. , (1992).
  39. Tager-Flusberg, H., Menn, L., Ratner, N. B. The challenge of studying language development in autism. Methods for studying language production. , (2000).
  40. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 4th edition, text revision (DSM-IV-TR). American Psychiatric Association. , (2000).
  41. American Psychiatric Association. Diagnostic and statistical manual of mental disorders, 5th edition (DSM-5). American Psychiatric Association. , (2013).
  42. Lord, C., Rutter, M., DiLavore, P. C., Risi, S. Autism diagnostic observation schedule. Western Psychological Services. , (1999).
  43. Li, Y., Zhu, J. Wechsler Preschool and Primary Scale of Intelligence™-IV CN) [WPPSI-IV (CN)]. Zhuhai King-may Psychological Measurement Technology Development Co., Ltd. , (2014).
  44. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  45. Huang, Y., Snedeker, J. Semantic meaning and pragmatic interpretation in five-year olds: Evidence from real time spoken language comprehension. Developmental Psychology. 45 (6), 1723-1739 (2009).
  46. Snedeker, J., Yuan, S. Effects of prosodic and lexical constraints on parsing in young children (and adults). Journal of Memory and Language. 58 (2), 574-608 (2008).
  47. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children's on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  48. Matin, E., Shao, K. C., Boff, K. R. Saccadic overhead: Information-processing time with and without saccades. Perception & Psychophysics. 53 (4), 372-380 (1993).
  49. Barr, D. J. Analyzing 'visual world' eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  50. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

Comportamentoproblema 140paradigma di Eye trackingvisual mondospunti linguisticiindicatori morfologicilinguaggio infantilecomprensione di frase in tempo reale

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati