Pourquoi percevons-nous les mêmes sons de la même manière ?

Noël Nguyen, Leonardo Lancia et Lena Huttner du LPL viennent de publier en collaboration avec des chercheurs du GIPSA-Lab et LPNC le premier Registered Report paru dans Glossa Psycholinguistics, une revue Fair Open Access en ligne :

Nguyen, N., Lancia, L., Huttner, L., Schwartz, J., & Diard, J. (2024). Listeners' convergence towards an artificial agent in a joint phoneme categorization task. Glossa Psycholinguistics, 3(1). http://dx.doi.org/10.5070/G6011165 

Article en texte intégral : https://escholarship.org/uc/item/0dg0g4kn

 Résumé :

Cet article s'inscrit dans le cadre d'un projet visant à répondre à une question très simple : comment se fait-il que nous percevions les mêmes sons de la même manière ? Dans nos interactions langagières, et pour que nous puissions nous comprendre, il est nécessaire que les sons de la parole soient catégorisés de manière similaire par tous les interlocuteurs. Au sein d'une communauté linguistique, il faut ainsi qu'un accord existe entre les locuteurs sur l'emplacement des frontières entre phonèmes parmi les sons de la parole. Cet accord se fonde, pour une part, sur des conventions sociales. Ces conventions s'établissent à l'échelle d'une communauté entière de locuteurs, mais elles ont nécessairement pour origine première un vaste ensemble d'interactions inter-individuelles. Le projet vise ainsi à étudier de manière expérimentale le rôle des interactions inter-individuelles dans la formation d'un espace perceptif partagé.

Nous présentons les premiers éléments d'un modèle computationnel bayésien, qui fait écho au modèle COSMO des intégrations sensori-motrices dans la communication parlée proposé par Jean-Luc Schwartz, Julien Diard, et leurs collaborateurs. Notre modèle a lui pour but de caractériser les mécanismes employés dans la perception conjointe des sons de la parole, chez deux ou plusieurs auditeurs qui accomplissent ensemble une tâche de catégorisation en interagissant les uns avec les autres. Dans ce modèle, une place centrale est ainsi attribuée aux interactions inter-individuelles, et cela constitue une différence majeure au regard des modèles de la perception de la parole élaborés jusqu'à présent.

L’expérience présentée a porté sur la perception et la catégorisation des sons de la parole en anglais. La tâche se présentait comme un jeu collaboratif dont l’objectif pour l’auditeur et son partenaire est d’accumuler des points ensemble en catégorisant les sons présentés de façon identique. L’expérience a été réalisée en ligne, et s’il était dit à l’auditeur que celui-ci devra réaliser la tâche avec une autre personne, le partenaire était en réalité un agent artificiel, dont nous avons manipulé les réponses de manière à examiner la sensibilité de l’auditeur à ces manipulations.

Ce travail a été réalisé avec le soutien de l'équipe LSD, du LPL, de l'ILCB, et de l'Institut Carnot Cognition.

 

Crédits d’image : Les auteurs

The timing of visual speech modulates auditory neural processing

Comment la durée des mouvements visuels articulatoires influence-t-elle les traitements corticaux auditifs lors de la perception audiovisuelle de la parole ?

 Marc Sato, chargé de recherche CNRS au LPL, vient de publier un article dans la revue Brain and Language portant sur les mécanismes prédictifs mis en œuvre lors de la perception audiovisuelle de la parole et l’influence de la durée des mouvements visuels articulatoires précédant le signal acoustique sur les traitements corticaux auditifs ultérieurs.

Référence : Marc Sato. The timing of visual speech modulates auditory neural processing. Brain and Language, 2022, 235: 105196 (https://doi.org/10.1016/j.bandl.2022.105196).

L'article est disponible en texte intégral dans les ressources en ligne de la BU AMU (compte d'utilisateur ENT AMU requis).

Résumé :
Les informations visuelles issues des mouvements articulatoires d’un locuteur permettent d'affiner le traitement neuronal auditif et d'améliorer la reconnaissance de la parole. Dans cette étude en électro-encéphalographie, les participants devaient reconnaitre des syllabes présentées audiovisuellement et différant uniquement par la durée des mouvements visuels préphonatoires précédant le signal acoustique. Malgré des taux de reconnaissance similaires, une modulation de l'amplitude des réponses évoquées auditives, directement fonction de la durée des mouvements visuels, a été observée. Ces résultats soulignent l’importance de mécanismes prédictifs lors de la perception audiovisuelle de la parole, la durée des gestes préphonatoires visuels influençant de manière quasi-linéaire les traitements neuraux acoustico-phonétiques ultérieurs.

 

Crédits d'image : Marc Sato / LPL

Do you want /ʃoloka/ on a /bistɔk/?

Sophie Dufour, directrice de recherche CNRS au LPL, vient de publier deux articles avec Jonathan Grainger (LPC) et Jonathan Mirault (LPC) portant sur la perception de non-mots. La première étude cherche à comprendre si les non-mots créés par la transposition de deux phonèmes (/ʃoloka/) sont perçus comme étant plus similaires comparés à leurs mots de base (/ʃokola/) que les non-mots créés en substituant deux phonèmes (/ʃoropa/). Ensuite, dans le deuxième article, les auteurs poursuivent les recherches en positionnant différemment les phonèmes à l’intérieur du non-mot.

Sophie Dufour, Jonathan Grainger. When you hear /baksɛt/ do you think /baskɛt/? Evidence for transposed-phoneme effect with multisyllabic words.. Journal of Experimental Psychology: Learning, Memory, and Cognition, American Psychological Association, In press, ⟨1037/xlm0000978⟩. ⟨hal-03141336⟩

Sophie Dufour, Jonathan Mirault, Jonathan Grainger. Do you want /ʃoloka/ on a /bistɔk/? On the scope of transposed-phoneme effects with non-adjacent phonemes. Psychonomic Bulletin and Review, Psychonomic Society, 2021, ⟨3758/s13423-021-01926-9⟩. ⟨hal-03225295⟩

Un coup de pouce pour les recherches sur le langage des bébés

Dans la belle série des financements de projets validés en 2020/2021, nous avons le plaisir de vous présenter deux contrats dédiés à l’acquisition et au développement du langage chez les bébés :

Porté par Clément François, le projet de recherche « BabyLang : Perception de la parole et acquisition du vocabulaire chez les bébés » a été sélectionné par l'ANR dans le cadre de l’appel à projet JCJC 2020. Ce projet vise à étudier la hiérarchie des apprentissages sous-tendant l’acquisition du langage chez des bébés nés à terme et les bébés prématurés. Il permettra de mieux comprendre (i) les mécanismes de plasticité cérébrale sous-tendant l’émergence de catégories phonologiques, (ii) les liens entre perception précoce de la parole et capacités d’apprentissage de nouveaux mots, (iv) l’impact d’une naissance prématurée sur ces processus, et (iv) l’identification de biomarqueurs précoces des capacités linguistiques ultérieures.

Le projet de recherche « LangDev : De la perception de la parole chez le bébé à l’acquisition du vocabulaire chez l’enfant, un projet interdisciplinaire », porté par Laurent Prévot et Clément François, a été financé dans le cadre de l'appel à projets 80 Prime du CNRS. Il a pour but de déterminer comment le développement de l’encodage des sons de parole influence l'émergence de représentations conceptuelles et lexicales chez le bébé. Par ailleurs, Estelle Hervé, lauréate de la bourse doctorale associée au projet, a rejoint l’équipe du projet fin 2020.

Image par Andi Graf de Pixabay