S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

We describe how to implement a battery of behavioral tasks to examine the processing and integration of sensory stimuli in children with ASD. The goal is to characterize individual differences in temporal processing of simple auditory and visual stimuli and relate these to higher order perceptual skills like speech perception.

Résumé

En plus de déficiences dans la communication sociale et la présence d'intérêts restreints et comportements répétitifs, des déficits dans le traitement sensoriel sont maintenant reconnus comme un symptôme de base dans les troubles du spectre autistique (TSA). Notre capacité à percevoir et d'interagir avec le monde extérieur est enracinée dans le traitement sensoriel. Par exemple, écoute d'une conversation consiste à traiter les signaux auditifs provenant du haut-parleur (contenu de la parole, la prosodie, syntaxe) ainsi que les informations associées visuelle (expressions faciales, les gestes). Collectivement, l '«intégration» de ces multisensorielles (c.-à-audiovisuel combinée) des morceaux de résultats d'information dans une meilleure compréhension. Une telle intégration multisensorielle a été montré pour être fortement dépendante de la relation dans le temps des stimuli appariés. Ainsi, les stimuli qui se produisent à proximité temporelle étroite sont très susceptibles d'entraîner des changements de comportement et de perception - gains croyais être le reflet de lale jugement de la probabilité que ces deux stimuli proviennent de la même source système perceptuel. Modifications apportées à cette intégration temporelle devraient modifier fortement les processus perceptifs, et sont susceptibles de diminuer la capacité de percevoir et d'interagir avec notre monde précision. Ici, une batterie de tâches conçues pour caractériser divers aspects de traitement temporel sensorielle et multisensorielle chez les enfants atteints de TSA est décrite. En plus de son utilité dans l'autisme, cette batterie a un grand potentiel pour la caractérisation des modifications de la fonction sensorielle dans d'autres populations cliniques, ainsi que d'être utilisé pour examiner les changements dans ces processus à travers la durée de vie.

Introduction

La recherche traditionnelle en neurosciences a souvent approché comprendre la perception sensorielle en se concentrant sur les modalités sensorielles individuelles. Cependant, l'environnement se compose d'un large éventail d'entrées sensorielles qui sont intégrés dans une vue unifiée de perception du monde d'une manière apparemment facile. Le fait que nous existons dans un tel environnement multisensorielle riche exige que nous comprenons mieux la façon dont le cerveau combine les informations entre les différents systèmes sensoriels. La nécessité de cette compréhension est encore amplifié par le fait que la présence de plusieurs éléments d'information sensorielle se traduit souvent par des améliorations substantielles de perception et comportement 3.1. Par exemple, il ya une grande amélioration (jusqu'à 15 dB dans le rapport signal-sur-bruit) dans la capacité à comprendre la parole dans un environnement bruyant si l'observateur peut également voir les mouvements des lèvres de l'orateur 4-7.

L'un des principaux facteurs quiaffecte la façon dont les différentes entrées sensorielles sont combinés et intégrés est leur proximité temporelle relative. Si deux signaux sensoriels se produisent rapprochés dans le temps, une structure temporelle qui suggère une origine commune, ils sont très susceptibles d'être intégrées comme en témoignent les changements de comportement et la perception 8-12. Un des outils expérimentaux les plus puissants pour examiner l'impact de la structure temporelle multisensorielle sur les réponses comportementales et de perception est le jugement de simultanéité (SJ) des tâches 13-16. Dans une telle tâche, multisensorielle (par exemple, visuel et auditif) stimuli sont jumelés à divers asynchronies relance de déclenchement (OSS) allant de objectivement simultanée (ie., Un décalage de 0 ms temporelle) à hautement asynchrone (par exemple, 400 ms). Les participants sont invités à juger les stimuli que simultanée ou non par l'intermédiaire d'une simple pression de bouton. Dans une telle tâche, même lorsque les stimuli visuels et auditifs sont présentés à la SOAS de 100 ms ou plus, sujets rapportent que la paireétait simultanée sur une grande partie des essais. La fenêtre de temps dans laquelle deux entrées peuvent se produire et avoir une forte probabilité d'être perçue comme se produisant simultanément est connu comme la fenêtre de liaison temporelle (TBW) 17-19.

Le TBW est une construction très éthologique, en ce qu'il représente les régularités statistiques du monde autour de nous 19. La «fenêtre» offre une flexibilité pour la spécification des événements d'origine commune; une qui permet de stimuli qui se produisent à des distances différentes avec différents temps de propagation (à la fois physiques et neuronaux) d'être encore "lié" à une autre. Cependant, bien que la TBW est une construction probabiliste, les changements qui élargissent (ou contrats) la taille de cette fenêtre sont susceptibles d'avoir des effets en cascade et potentiellement néfastes sur la perception 20,21.

troubles du spectre autistique (TSA) est un trouble neurologique qui a été diagnostiqué classique oSur la base des déficits dans la communication sociale et la présence d'intérêts restreints et comportements répétitifs 22. En outre, et comme l'a récemment codifié dans le DSM-5, les enfants atteints de TSA présentent souvent des modifications dans leurs réponses aux stimuli sensoriels. Plutôt que de se limiter à un seul sens, ces déficits englobent souvent plusieurs sens dont ouïe, le toucher, l'équilibre, le goût et la vision. Avec une telle présentation "multisensorielle", les individus atteints de TSA présentent souvent des déficits dans le domaine temporel. Collectivement, ces observations suggèrent que la fonction temporelle multisensorielle peut être modifié de manière préférentielle dans l'autisme 17,23-25. Bien que concorde avec le point de vue de la fonction sensorielle altérée dans les TSA, modifications de la fonction temporelle multisensorielle peuvent également être un facteur important pour les déficits dans la communication sociale dans les TSA, compte tenu de l'importance de la liaison rapide et précise des stimuli multisensoriels pour les fonctions sociales et de communication. Prenez comme unn exemple l'échange de discours décrit ci-dessus dans laquelle l'information importante est contenue à la fois dans l'auditoire et les modalités visuels. En effet, ces tâches ont été utilisées pour démontrer des différences importantes dans la largeur de la multisensorielle TBW élevées chez les enfants autistes de fonctionnement 26-28.

En raison de son importance pour le fonctionnement normal de la perception, ses implications potentielles pour les processus d'ordre supérieur tels que la communication sociale (et d'autres capacités cognitives), et sa pertinence clinique, une batterie de tâches visant à évaluer la fonction temporelle multisensorielle chez les enfants atteints de TSA est décrite.

Protocole

Déclaration éthique: Tous les sujets doivent fournir un consentement éclairé avant l'expérience. La recherche décrite ici a été approuvé par l'Institutional Review Board de la Vanderbilt University Medical Center.

1. Expérience Set Up

  1. Demandez aux participants de remplir les tâches dans une pièce sonore contrôlé faiblement éclairée.
    REMARQUE: Pensez à mettre en œuvre un horaire visuel 29,30 dans le cadre de la conception de l'étude. Bien que chaque tâche dans cette batterie est relativement courte, effectuer plusieurs tâches dans une rangée peut causer de la fatigue chez certains enfants, à la fois avec le développement typique (TD) et atteints de TSA. Un horaire visuel devrait inclure toutes les activités prévues (les deux tâches et audience / examen de la vue), ainsi que de courtes pauses entre les tâches. Cette structure permettra de contribuer à une expérience de recherche globalement positive pour le participant, et a même été montré pour obtenir des réponses plus précises dans certains tâches 31.
  2. Apposer une mentonnière à la table où le participant va se asseoir tout en complétant la tâche, avec l'écran d'ordinateur placé 60 cm du participant. Il se agit de se assurer que les stimuli sont la même intensité pour chaque participant. Utilisez un casque ou des enceintes anti-bruit pour la livraison de stimulus auditif.
  3. En raison de différences dans les plates-formes expérimentales individuelles (carte son, carte graphique, système d'exploitation, etc.), vérifier la durée de relance et de stimulus asynchronies apparition (SOA) avec un oscilloscope, cellule photovoltaïque, et un microphone sur chaque ordinateur pour l'expérience.
    REMARQUE: Selon la plate-forme individuelle (par exemple, une carte son lent), faire des ajustements au code de l'expérience de sorte que le moment de la présentation du stimulus est exacte.

2. stimuli

  1. Générer deux .wav ou .mp4 fichiers d'une durée de 16 ms (dont un 2-3 msec jusqu'à rampe et la rampe de descente) à 500 Hz et 1000 Hz. Pour ce faire,spécifiant une onde sinusoïdale de la fréquence souhaitée avec une rampe progressive jusqu'à la pleine amplitude, suivie d'une rampe de descente à la fin de la tonalité. Enregistrer l'onde sinusoïdale en tant que fichier auditif. Testez le volume de chaque ton avec un compteur de niveau de pression acoustique pour vérifier qu'il est joué à 60 dB. Si les enceintes sont utilisées pour présenter des stimuli auditifs, le son doit être testé à 60 cm de distance de l'écran (où le participant va se asseoir). Si un casque seront utilisés, mesurer le volume directement à côté de chaque casque.
    NOTE: Il est plus facile de garder l'ordinateur à un volume standard et ajuster le volume de la tonalité en ajustant en conséquence le code utilisé pour générer le stimulus ou un programme d'édition audio.
  2. Créer stimuli visuels par soit précisant la taille et l'emplacement du flash dans le code de l'expérience, ou en générant une image JPEG ou bitmap avec un fond noir et un anneau blanc centré autour d'un réticule fixation et l'affichage au moment opportun. Réglez la duréedu flash visuel pour 16 ms dans le code de l'expérience.
  3. Enregistrez stimuli de la parole par un locuteur natif dans une pièce calme contre un fond blanc uni des épaules avec le haut-parleur dans le centre de l'image. Enregistrez les stimuli vidéo avec la plus haute caméra vidéo haute résolution disponible. Alternativement, accessibles au public des vidéos de relance peuvent être utilisés si désiré.
    REMARQUE: vidéo et audio du haut-parleur disant les syllabes "ba" et "ga" sont nécessaires pour cette expérience.
    1. L'utilisation d'un programme de montage vidéo, exporter la composante auditive de chaque piste et enregistrer dans un fichier .wav séparée. Pour ce faire, aller dans la fenêtre des paramètres d'exportation et sélectionnez "fichier audio wav" dans le menu déroulant "Format". Cochez la case "Exporter Audio" puis cliquez sur "Exporter" pour le bas de la fenêtre Paramètres d'exportation.
    2. Ensuite, exporter la composante visuelle (ce est à dire, vidéo muette) de chaque une pisteD enregistrer dans un fichier .avi séparée. Pour ce faire, aller dans la fenêtre des paramètres d'exportation et sélectionnez "non compressé AVI" dans le menu déroulant "Format". Cochez la case "Exporter la vidéo», puis cliquez sur "Exporter" au bas de la fenêtre Paramètres d'exportation.
    3. Enfin, retirer la composante auditive de la "ga" piste et la remplacer par la composante auditive de la piste "ba" de faire le stimulus McGurk. Pour ce faire, sélectionnez l'option ".avi" fichier à partir du bureau dans la comme source vidéo en sélectionnant «Source», dans ce cas "ga_VOnly.avi". De même sélectionner l'autre vidéo "ba_Aonly.avi". Dans le menu de séquence de programme, veiller à ce que la vidéo (V1) Source "Vidéo 1" est "ga_VOnly.avi" et l'audio (A1) de la source «Audio 1» est «ba_Aonly.avi". Vérifiez que le début de la stimulus visuel "ga" est temporellement aligné avec les sti auditifsmulus «ba».
      NOTE: Il est important que les stimuli auditifs sont le même enregistrement exacte à la fois de l'audiovisuel et auditive seul stimulus (et pas seulement la même syllabe), de sorte que la seule différence entre un «ba» de l'audiovisuel et le stimulus McGurk est le composant vidéo. Cela permettra d'assurer que l'on peut faire une comparaison appropriée pour examiner l'influence du stimulus visuel sur la syllabe auditive perçue.

3. Groupe de Batterie

Remarque: Cette tâche nécessite que tous les participants sont en mesure de comprendre et de se conformer aux instructions verbales de l'expérimentateur.

  1. Veiller à ce que tous les participants ont une vision normale en effectuant une simple dépistage avant le test. Utiliser un tableau de Snellen à 20 pieds et de demander au participant de lire chaque ligne avec les deux yeux ouverts (participants sera visualisation stimuli avec les deux yeux ouverts). Notez la ligne la plus basse de la partieicipants rapportent fidèlement les stimuli visuels. Les participants doivent avoir une vision de 20/40 ou mieux.
  2. Veiller à ce que tous les participants ont une audition normale en testant les seuils auditifs à 500, 1000, 2000 et 4000 Hz dans chaque oreille. Test de l'audition devrait être achevé dans une chambre contrôlée de son avec un audiomètre.
    1. Pour trouver le seuil d'un participant, demander au participant de lever la main chaque fois qu'ils détectent un ton. Faites une tonalité pulsée 500 Hz acheminé à l'oreille droite à partir de 35 dB et de diminuer le volume de 5 dB. Une fois un participant ne détecte plus un ton, augmenter le volume de 5 dB de vérifier le volume le plus faible perceptible. Répétez cette procédure avec chaque fréquence, puis répéter toutes les fréquences de tonalité dans l'oreille gauche. Les participants doivent avoir des seuils de 20 dB ou plus faibles.
  3. Veiller à ce que les participants sont en mesure de comprendre et de se conformer aux instructions verbales en mesurant la fois QI et compétences linguistiques réceptives avec standardisémesures neuropsychologiques avant le test. Les participants doivent avoir un QI mesuré de 70 ou plus. Si on le souhaite, des tests neuropsychologiques supplémentaire peut être effectuée à ce moment.

4. simultanéité Jugement (SJ)

REMARQUE: La tâche de SJ est un deux alternatives choix forcé tâche (2-AFC) et se compose d'un anneau visuelle et 1000 Hz ton auditive présentée à divers OSS (négatif = auditive précédant visuelle, positif = visuelle procédure auditif) présenté dans un ordre aléatoire .

  1. Veillez à inclure assez grand OSS (au moins -400 à 400 msec) pour obtenir une mesure précise de la pleine largeur de la TBW (typique du jeu de relance: -400, -300, -200, -150, -100, - 50, 0, 50, 100, 150, 200, 300, 400 msec SOA). Utilisez le même ensemble de SOA pour chaque participant, ce qui permet de faciliter la comparaison des performances de la tâche tous les participants. Présenter un minimum de 20 essais par SOA pour une estimation précise. La tâche prend environ 15-20 min à remplir. Fournir une courte pause toutes les 100 essais pour réduire la fatigue des participants.
  2. Demandez au participant d'observer un flash et un bip et expliquer que leur tâche est de décider si le flash et le signal sonore se sont produites en même temps ou à des moments différents. Demandez au participant d'appuyer sur "1" sur le pavé numérique, si les stimuli sont produites en même temps, ou "2", si les stimuli sont survenues à un moment différent.
    REMARQUE: si une zone de réponse est disponible, il peut également être utilisé pour la collecte des réponses. Inclure ces mêmes instructions à l'écran de réponse après chaque essai.
  3. Comme une alternative substitut le flash et le signal sonore avec un discours symbolique visuelle et auditive (portés à la bouche «ba» et exprimé «ba») et présente en même OSS avec la même instruction de tâche ("même temps ou à temps différent?"). De cette manière, comparer la TBW pour les stimuli de complexité variable et le contenu social au sein de sujets individuels27.

5. temporelle ordre Jugement (FCE)

REMARQUE: La tâche auditive de FCE est une tâche 2-AFC utilisée pour examiner l'acuité temporelle de traitement auditif. La tâche visuelle FCE est une tâche 2-AFC utilisée pour examiner l'acuité temporelle de traitement visuel. La tâche multisensorielle FCE est une tâche 2-AFC utilisée pour examiner l'acuité temporelle dans l'ensemble audition et la vision. Chaque tâche prend environ 10 à 15 min pour terminer.

  1. Dans la tâche auditive de FCE, demander au participant d'écouter les deux bips présentés (500 Hz et 1000 Hz) à divers retards et demander au participant d'appuyer sur "1" si le ton plus haut est d'abord joué ou appuyez sur "2" si le ton plus bas est joué en premier. Présent 20 essais pour chaque SOA dans un ordre aléatoire.
    REMARQUE: Par rapport à la tâche de SJ, il existe une gamme dynamique bien plus faible des OSS sur lesquels la perception auditive des unisensory et les changements d'ordre visuels temporelles, à cet effete utiliser un ensemble de relance où les petits OSS sont plus fortement représentés (typique jeu de relance: -250, -200, -150, -75, -50, -35, -20, -10, 10, 20, 35, 50, 75 , 150, 200, 250 msec SOA, où négative = ton plus haut précédant ton plus bas, positif = ton plus bas procéder ton plus haut) pour les tâches de TOJ unisensory.
  2. Dans la tâche visuelle FCE, charger le participant d'observer deux cercles (ci-dessus et ci-dessous une fixation réticule central) à divers retards et demander au participant d'appuyer sur "1" si le cercle principal apparaît en premier ou appuyez sur "2" si le cercle du bas affiche premier. Présent 20 essais pour chaque SOA dans un ordre aléatoire.
    NOTE: Dans cette tâche, les OSS négatives indiquent que le cercle du haut a été présenté premiers OSS et positifs indiquent que le cercle du bas a été présenté en premier.
  3. Dans la tâche de TOJ audiovisuel, charger le participant d'observer un petit flash centrale et écouter une tonalité unique (1000 Hz) à divers retards et demander au participant t o appuyez sur "1", si le signal sonore a été présenté pour la première ou appuyez sur "2" si le flash a été présenté en premier. Présent 20 essais pour chaque SOA dans un ordre aléatoire.
    REMARQUE: Précision dans la TOJ audiovisuel est généralement bien pire par rapport à la FCE auditif unisensory et les tâches de TOJ visuels. Cela nécessite une plus large gamme des OSS par rapport aux tâches unisensory de PFCE (typique jeu de relance: -300, -250, -200, -150, -100, -80, -50, -20, 0, 20, 50, 80, 100, 150, 200, 250, 300). Dans cette tâche, les OSS négatives indiquent que l'auditoire a été présenté d'abord et OSS positif indiqué que le visuel a été présenté en premier.
    Remarque: Comme pour la tâche SJ, la tâche FCE peut être adapté pour examiner traitement temporel sur plusieurs types de stimuli. Voici la tâche FCE a été complété par des stimuli simples (bips sonores et visuels clignote), mais cela peut être étendu à regarder les autres paires de relance comme la parole et le mouvement biologique 24.
TLE "> 6 McGurk Groupe.

NOTE: L'illusion McGurk se compose d'une vidéo de la syllabe visuelle "ga" jumelé avec un enregistrement sonore de la syllabe "ba". De nombreux sujets seront effectivement fusionner les syllabes visuelles et auditives et de percevoir cette paire que la syllabe "da" ou "tha" 32.

  1. Demandez au participant d'observer différentes syllabes et demander au participant de signaler la syllabe qu'ils percevaient. Dans un bloc présents 20 essais chacune des syllabes unisensory (auditives seules syllabes (A- "ba", A- "GA") et seulement syllabes visuels (V- "ba", V- "ga") dans un ordre aléatoire. En un second bloc, présents 20 essais chacune des syllabes audiovisuels (AV «ba», AV "ga", et le "ba" A- / V- "ga" McGurk relance) dans un ordre aléatoire. Demandez au participant d'appuyer sur la lettre sur le clavier correspondant à lasyllabe perçue ("appuyez sur b pour ba, appuyez sur g pour ga, appuyez sur d pour da, appuyez sur t pour tha"). Cette tâche prend environ 5 à 10 min au total pour terminer.
  2. Une estimation plus prudente consiste en un format de réponse ouverte 33 dans laquelle le participant annonce à haute voix la syllabe perçue et la réponse est enregistrée par l'expérimentateur.

Résultats

Cette tâche batterie est avérée très fructueuse dans la mesure des différences individuelles dans le traitement temporel chez les personnes avec et sans TSA 17,18,23,27. Pour la tâche SJ, tracer les données résultant de chaque sujet individuel en calculant d'abord la proportion de réponses à chaque sujet SOA qui a répondu "synchrone" et ensuite le montage de la courbe de réponse obtenue avec une courbe de Gauss. Comme illustré sur la figure 1A, il existe une fenêtr...

Discussion

Le manuscrit décrit les éléments d'une batterie de tâches psychophysique qui sont utilisés pour évaluer le traitement et l'acuité temporelle dans la recherche sensorielle et systèmes multisensorielles. La batterie a une large applicabilité pour un certain nombre de populations et a été utilisé par notre laboratoire afin de caractériser la performance temporelle audiovisuel chez les adultes, les enfants typiques 18 10,39, et chez les enfants et adultes atteints d'autisme 17,23.

Déclarations de divulgation

The authors declare that they have no competing financial interests.

Remerciements

This research was supported by NIH R21CA183492, the Simons Foundation, the Wallace Research Foundation, and by CTSA award UL1TR000445 from the National Center for Advancing Translational Sciences.

matériels

NameCompanyCatalog NumberComments
Oscilloscope
Photovoltaic cell
Microphone
Noise-cancelling headphones
Chin rest
Audiometer

Références

  1. Calvert, G. A., Spence, C., Stein, B. E. . Handbook of Multisensory Processes. , (2004).
  2. Stein, B. E., Meredith, M. A. . The Merging of the Senses. , 224 (1993).
  3. King, A. J., Calvert, G. A. Multisensory integration: perceptual grouping by eye and ear. Curr Biol. 11 (8), R322-R325 (2001).
  4. Stevenson, R. A., James, T. W. Audiovisual integration in human superior temporal sulcus: Inverse effectiveness and the neural processing of speech and object recognition. NeuroImage. 44 (3), 1210-1223 (2009).
  5. MacLeod, A., Summerfield, A. Q. A procedure for measuring auditory and audio-visual speech-reception thresholds for sentences in noise: rationale, evaluation, and recommendations for use. Br J Audiol. 24 (1), 29-43 (1990).
  6. Sumby, W. H., Pollack, I. Visual Contribution to Speech Intelligibility in Noise. J. Acoust. Soc. Am. 26, 212-215 (1954).
  7. Bishop, C. W., Miller, L. M. A multisensory cortical network for understanding speech in noise. J Cogn Neurosci. 21 (9), 1790-1805 (2009).
  8. Stevenson, R. a., Wallace, M. T. Multisensory temporal integration: task and stimulus dependencies. Exp Brain Res. 227 (2), 249-261 (2013).
  9. Colonius, H., Diederich, A., Steenken, R. Time-window-of-integration (TWIN) model for saccadic reaction time: effect of auditory masker level on visual-auditory spatial interaction in elevation. Brain Topogr. 21 (3-4), 177-184 (2009).
  10. Hillock, A. R., Powers, A. R., Wallace, M. T. Binding of sights and sounds: age-related changes in multisensory temporal processing. Neuropsychologia. 49, 461-467 (2011).
  11. Wallace, M. T. Unifying multisensory signals across time and space. Exp Brain Res. 158 (2), 252-258 (2004).
  12. Alais, D., Newell, F. N., Mamassian, P. Multisensory processing in review: from physiology to behaviour. Seeing Perceiving. 23 (1), 3-38 (2010).
  13. Conrey, B., Pisoni, D. B. Auditory-visual speech perception and synchrony detection for speech and nonspeech signals. J Acoust Soc Am. 119 (6), 4065-4073 (2006).
  14. Stevenson, R. A., Fister, J. K., Barnett, Z. P., Nidiffer, A. R., Wallace, M. T. Interactions between the spatial and temporal stimulus factors that influence multisensory integration in human performance. Exp Brain Res. 219 (1), 121-137 (2012).
  15. Wassenhove, V., Grant, K. W., Poeppel, D. Temporal window of integration in auditory-visual speech perception. Neuropsychologia. 45 (3), 598-607 (2007).
  16. Eijk, R. L. J., Kohlrauch, A., Juola, J. F., Van De Par, S. Audiovisual synchrony and temporal order judgments: Effects of exerpimental method and stimulus type. Percept Psychophys. 70 (6), 955-968 (2008).
  17. Foss-Feig, J. H. An extended multisensory temporal binding window in autism spectrum disorders. Exp Brain Res. 203 (2), 381-389 (2010).
  18. Stevenson, R. A., Zemtsov, R. K., Wallace, M. T. Individual differences in the multisensory temporal binding window predict susceptibility to audiovisual illusions. J Exp Psychol Hum Percept Perform. 38 (6), 1517-1529 (2012).
  19. Wallace, M. T., Stevenson, R. A. The construct of the multisensory temporal binding window and its dysregulation in developmental disabilities. Neuropsychologia. 64C, 105-123 (2014).
  20. Hairston, W. D., Burdette, J. H., Flowers, D. L., Wood, F. B., Wallace, M. T. Altered temporal profile of visual-auditory multisensory interactions in dyslexia. Exp Brain Res. 166 (3-4), 474-480 (2005).
  21. Carroll, C. A., Boggs, J., O'Donnell, B. F., Shekhar, A., Hetrick, W. P. Temporal processing dysfunction in schizophrenia. Brain Cogn. 67 (2), 150-161 (2008).
  22. Kanner, L. Autistic Disturbances of Affective Contact. Nervous Child. 2, 217-250 (1943).
  23. Kwakye, L. D., Foss-Feig, J. H., Cascio, C. J., Stone, W. L., Wallace, M. T. Altered auditory and multisensory temporal processing in autism spectrum disorders. Front Integr Neurosci. 4, 129 (2011).
  24. Boer-Schellekens, L., Eussen, M., Vroomen, J. Diminished sensitivity of audiovisual temporal order in autism spectrum disorder. Front Integr Neurosci. 7, 8 (2013).
  25. Bebko, J. M., Weiss, J. A., Demark, J. L., Gomez, P. Discrimination of temporal synchrony in intermodal events by children with autism and children with developmental disabilities without autism. J Child Psychol Psychiatry. 47 (1), 88-98 (2006).
  26. Stevenson, R. A. Brief Report: Arrested Development of Audiovisual Speech Perception in Autism Spectrum Disorders. J Autism Dev Disord. 44 (6), 1470-1477 (2013).
  27. Stevenson, R. A. Multisensory temporal integration in autism spectrum disorders. J Neurosci. 34 (3), 691-697 (2014).
  28. Stevenson, R. A. Evidence for Diminished Multisensory Integration in Autism Spectrum Disorders. J Autism Dev Disord. 44 (12), 3161-3167 (2014).
  29. Hodgdon, L. Q., Quill, Q. A. . Teaching children with autism: Strategies to enhance communication and socialization. , 265-286 (1995).
  30. Bryan, L. C., Gast, D. L. Teaching on-task and on-schedule behaviors to high-functioning children with autism via picture activity schedules. J Autism Dev Disord. 30 (6), 553-567 (2000).
  31. Liu, T., Breslin, C. M. The effect of a picture activity schedule on performance of the MABC-2 for children with autism spectrum disorder. Res Q Exerc Sport. 84 (2), 206-212 (2013).
  32. McGurk, H., MacDonald, J. Hearing lips and seeing voices. Nature. 264, 746-748 (1976).
  33. Colin, C., Radeau, M., Deltenre, P. Top-down and bottom-up modulation of audiovisual integration in speech. European Journal of Cognitive Psychology. 17 (4), 541-560 (2005).
  34. Boer-Schellekens, L., Eussen, M., Vroomen, J. Diminished sensitivity of audiovisual temporal order in autism spectrum disorder. Front Integr Neurosci. 7 (8), (2013).
  35. Lenroot, R. K., Yeung, P. K. Heterogeneity within Autism Spectrum Disorders: What have We Learned from Neuroimaging Studies. Front Hum Neurosci. 7, 733 (2013).
  36. Irwin, J. R., Tornatore, L. A., Brancazio, L., Whalen, D. H. Can children with autism spectrum disorders 'hear' a speaking face. Child Dev. 82 (5), 1397-1403 (2011).
  37. Woynaroski, T. G. Multisensory Speech Perception in Children with Autism Spectrum Disorders. J Autism Dev Disord. 43 (12), 2891-2902 (2013).
  38. Magnotti, J. F., Beauchamp, M. S. The Noisy Encoding of Disparity Model of the McGurk Effect. Psychonomic Bulletin & Review. , (2014).
  39. Hillock-Dunn, A., Wallace, M. T. Developmental changes in the multisensory temporal binding window persist into adolescence. Dev Sci. 15 (5), 688-696 (2012).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

ComportementNum ro 98traitement temporelint gration multisensoriellepsychophysiquevaluations sur ordinateurd ficits sensorielstroubles du spectre de l autisme

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.