Comment le cerveau traite-t-il l’information visuelle associée aux sons de la parole ?

28 February 2022 par Claudia Pichon-Starke
La revue Brain and Language vient de publier un nouvel article coécrit par Chotiga Pattamadilok et Marc Sato..

Nous avons le plaisir de vous annoncer la publication du dernier article de Chotiga Pattamadilok et Marc Sato, chercheur.e.s CNRS au LPL, intitulé « How are visemes and graphemes integrated with speech sounds during spoken word recognition? ERP evidence for supra-additive responses during audiovisual compared to auditory speech processing » dans la revue Brain and Language.

Référence :
Chotiga Pattamadilok, Marc Sato. How are visemes and graphemes integrated with speech sounds during spoken word recognition? ERP evidence for supra-additive responses during audiovisual compared to auditory speech processing. Brain and Language, Elsevier, 2022, 225, ⟨10.1016/j.bandl.2021.105058⟩⟨hal-03472191v2⟩

Document en texte intégral sur HAL : https://hal.archives-ouvertes.fr/hal-03472191v2

Résumé :
Les gestes articulatoires et l’orthographe sont les deux principales informations visuelles qui sont étroitement liées à la parole. Il existe cependant peu d’études qui cherchent à savoir si les associations entre les sons de parole et chacune de ces informations visuelles s’appuient sur le même, ou sur différents, processus cognitifs. Notre étude en EEG examine cette question en identifiant les stades de traitement de la parole pendant lesquels ces deux formes d'association audio-visuelle ont lieu.

Contact : chotiga.pattamadilok@lpl-aix.fr