Un modèle neuro-cognitif du langage fondé sur la prédiction et l’unification

Nous sommes heureux d’annoncer la parution du dernier article de Philippe Blache, chercheur CNRS au LPL, dans la revue Frontiers in Human Neuroscience, portant sur le modèle langagier abordé également lors de la conférence tenue au Collège de France en février dernier :

Référence : Philippe Blache. A neuro-cognitive model of comprehension based on prediction and unification. Frontiers in Human Neuroscience, 2024, 18.  

Article en texte intégral : https://doi.org/10.3389/fnhum.2024.1356541

Résumé :
Le langage n’est pas une addition de différents traitements, fussent-ils parallèles. Il est le produit de l’interaction entre différentes sources d’informations résultant en un mécanisme non linéaire qui quelquefois assemble de façon incrémentale et compositionnelle des structures de relativement bas niveau (typiquement les mots), et d’autres fois intègre directement des blocs entiers d’information, facilitant ainsi l’accès au sens et plus généralement le traitement. Je présente dans cet article les bases d’un modèle intégrant ce double mouvement en s’appuyant sur deux mécanismes fondamentaux en linguistique computationnelle et cognitive : la prédiction et l’unification. Cette architecture explique la place des mécanismes de facilitation, toujours à l’œuvre dans le langage, au sein d’une approche incrémentale classique.

Crédits : Ph. Blache

Décodage phonologique et décomposition morpho-orthographique : les voies complémentaires de l’apprentissage de la lecture

Nous avons le plaisir d’annoncer la publication par Brice Brossette – en tant que premier auteur et en collaboration avec d’autres chercheurs – d’un nouvel article dans la revue Journal of Experimental Child Psychology : Phonological Decoding and Morpho-Orthographic Decomposition: Complementary Routes During Learning to Read.

Brice est post-doctorant au LPL dans le cadre du projet DREAM financé par AMPIRIC visant à mieux comprendre les facteurs d’exposition à l’écrit des enfants au cours préparatoire (CP) afin de développer un programme de recommandations personnalisées pour l’apprentissage de la lecture. Ce projet est coordonné avec Stéphanie Ducrot (LPL/CNRS).

Référence : Brice Brossette, Élise Lefèvre, Elisabeth Beyersmann, Eddy Cavalli, Jonathan Grainger, Bernard Lété. Phonological Decoding and Morpho-Orthographic Decomposition: Complementary Routes During Learning to Read. Journal of Experimental Child Psychology, 2024, 242, ⟨10.31234/osf.io/qeynj⟩⟨hal-04421017v2⟩

Article en texte intégral : https://hal.science/hal-04421017v2

Résumé :
L'un des défis majeurs de l'apprentissage de la lecture réside dans la transition d'une lecture lente et séquentielle à une lecture rapide, parallèle et automatique. Au cours des premiers mois de cet apprentissage, les élèves acquièrent une première stratégie de lecture, nommée décodage. Cette stratégie implique l'apprentissage des correspondances entre les lettres et les sons pour reconnaître la forme sonore des mots connus de l’élève. Lorsqu'ils utilisent le décodage, les élèves ont souvent tendance à considérer à tort des mots qui sont phonologiquement valides, mais orthographiquement invalides comme étant de vrais mots (par exemple, « roze »). Cette propension, désignée sous le nom d'effet pseudo-homophone, diminue à mesure que l'enfant acquiert de l'expertise et développe une nouvelle stratégie de reconnaissance des mots écrits qui ne dépend plus d'une médiation phonologique. En outre, cette nouvelle stratégie présente l'avantage de s'adapter aux régularités de la langue écrite, notamment aux régularités morpho-orthographiques. Cette caractéristique se manifeste chez les élèves par une tendance croissante à considérer à tort qu'un pseudo-mot morphologiquement valide (par exemple, « visageable ») est un vrai mot par rapport à un pseudo-mot morphologiquement invalide (par exemple, « visagealle »). Cette tendance est désignée sous le nom d'effet d'interférence morphologique. Alors que les recherches antérieures ont abordé ces deux effets de manière distincte, la présente étude propose d'analyser l'évolution de ces deux phénomènes chez des enfants, du CP au CM2. Nos résultats dévoilent pour la première fois les trajectoires croisées des effets pseudo-homophone et d'interférence morphologique, confirmant ainsi les conclusions des études ayant examiné ces effets de manière séparée.

Photo de Michał Parzuchowski sur Unsplash

Quel rôle joue la neurofibromatose de type 1 sur l’apprentissage de la lecture ?

Nous avons le plaisir de vous annoncer la publication du dernier article réalisé par Marie Vernet (neuropsychologue et anc. doctorante du LPL), Stéphanie Ducrot (chercheuse CNRS au LPL) et Yves Chaix (Tonic, CHU Toulouse) qui comporte une revue systématique sur les déficits du traitement visuel dans la neurofibromatose de type 1 et l’impact sur l’apprentissage de la lecture.

Il fait suite à l’étude « The determinants of saccade targeting strategy in neurodevelopmental disorders: The influence of suboptimal reading experience » parue en 2023 dans la revue Vision Research.

Référence : Marie Vernet, Stéphanie Ducrot, Yves Chaix. A systematic review on visual-processing deficits in Neurofibromatosis type 1: what possible impact on learning to read?. Developmental Neuropsychology, 2024

Site de l’éditeur : https://www.tandfonline.com/doi/full/10.1080/87565641.2024.2326151
Article sur HAL en texte intégral : https://hal.science/hal-04504105

Résumé :
La neurofibromatose de type 1 (NF1) est une maladie neurogénétique dans laquelle près de la moitié des enfants présentent des déficits de lecture. La compréhension du profil neurocognitif associé à ces difficultés constitue un enjeu majeur afin de pouvoir dépister et prendre en charge précocement les enfants atteints de cette maladie.
Si les composantes linguistiques ont été largement explorées, très peu d’études se sont intéressées à l’implication des processus visuo-perceptifs et visuo-attentionnels dans la genèse des difficultés de lecture fréquemment rencontrées par ces enfants. Pourtant, dans la dyslexie développementale, des difficultés dans le développement et le contrôle de ces processus ont été mises en lien avec les difficultés de lecture (voir Bellocchi & Ducrot, 2021).
Dans ce contexte, cette revue systématique visait à examiner la littérature sur les traitements visuels (perceptifs, visuo-attentionnels et impliqués dans le contrôle oculaire) chez les enfants atteints de NF1, et d'étudier leur impact possible sur le processus d'apprentissage de la lecture dans cette population. En utilisant les directives méthodologiques PRISMA, cette revue a examiné 45 études qui répondaient aux critères de sélection. Les résultats ont révélé que la plupart des études faisaient état de difficultés de traitement  perceptifs et visuo-attentionnels chez les enfants atteints de cette maladie et, plus spécifiquement, chez ceux qui présentent un déficit de lecture.
Cette revue fournit une discussion détaillée sur la relation entre ces processus visuels atypiques et la forte prévalence des déficits de lecture dans cette population. Ces résultats ouvrent nouvelles perspectives de recherche et d’applications cliniques visant à améliorer le parcours de soins de ces enfants et à les accompagner au mieux dans leurs apprentissages et leurs parcours scolaires.

Crédits : Les auteurs

La musique comme outil thérapeutique durant la petite enfance

Clément François (chercheur CNRS, LPL) et Solène Pichon (infirmière puéricultrice, CHU de Dijon) viennent de co-signer un chapitre dans le livre « Musique, sciences et santé », collection Nouveaux chemins de santé chez DUNOD et édité par Gérard Mick (Neurologue, Hôpital de Voiron) et Emanuel Bigand (Professeur de psychologie cognitive, LEAD, Dijon) :

Clément François, Solène Pichon. La musique comme outil thérapeutique durant la petite enfance. E. Bigand; G. Mick. Musique, sciences et santé, Dunod, A paraître, Nouveaux chemins de la santé, 9782100800261. ⟨hal-04367008

Lien vers l’article en texte intégral : https://amu.hal.science/LPL-AIX/hal-04367008v1

L’ouvrage « Musique, sciences et santé » se base sur les découvertes récentes en neurosciences de la musique et s’intéresse aux possibles utilisations thérapeutiques qu’elle peut avoir. Source de bien-être, la musique semble ainsi être un facteur de santé et de soins. Ce livre est donc dédié à la formation des professionnels de santé. Le chapitre de Clément et Solène traite des compétences perceptives précoces chez le bébé né à terme afin de mieux comprendre les conséquences d’une naissance prématurée sur ces compétences. En effet, l’environnement auditif sous-optimal qui caractérise les unités de soins intensifs peut interférer avec le développement précoce des régions sensorielles du cerveau au cours d'une période cruciale de plasticité cérébrale. Ce chapitre présente également une revue des quelques études se basant sur des protocoles d’intervention ou de stimulation musicale précoce, mettant un accent particulier sur l’effet de la voix chantée.

Ce texte sera d’ailleurs présent en version plus détaillée dans un Oxford Handbook que Giulia Danielou et Clément François préparent en ce moment pour une parution prévue en 2025.

Photo :  jasmin82 de Pixabay / Illustration : C. François et S. Pichon

Pourquoi percevons-nous les mêmes sons de la même manière ?

Noël Nguyen, Leonardo Lancia et Lena Huttner du LPL viennent de publier en collaboration avec des chercheurs du GIPSA-Lab et LPNC le premier Registered Report paru dans Glossa Psycholinguistics, une revue Fair Open Access en ligne :

Nguyen, N., Lancia, L., Huttner, L., Schwartz, J., & Diard, J. (2024). Listeners' convergence towards an artificial agent in a joint phoneme categorization task. Glossa Psycholinguistics, 3(1). http://dx.doi.org/10.5070/G6011165 

Article en texte intégral : https://escholarship.org/uc/item/0dg0g4kn

 Résumé :

Cet article s'inscrit dans le cadre d'un projet visant à répondre à une question très simple : comment se fait-il que nous percevions les mêmes sons de la même manière ? Dans nos interactions langagières, et pour que nous puissions nous comprendre, il est nécessaire que les sons de la parole soient catégorisés de manière similaire par tous les interlocuteurs. Au sein d'une communauté linguistique, il faut ainsi qu'un accord existe entre les locuteurs sur l'emplacement des frontières entre phonèmes parmi les sons de la parole. Cet accord se fonde, pour une part, sur des conventions sociales. Ces conventions s'établissent à l'échelle d'une communauté entière de locuteurs, mais elles ont nécessairement pour origine première un vaste ensemble d'interactions inter-individuelles. Le projet vise ainsi à étudier de manière expérimentale le rôle des interactions inter-individuelles dans la formation d'un espace perceptif partagé.

Nous présentons les premiers éléments d'un modèle computationnel bayésien, qui fait écho au modèle COSMO des intégrations sensori-motrices dans la communication parlée proposé par Jean-Luc Schwartz, Julien Diard, et leurs collaborateurs. Notre modèle a lui pour but de caractériser les mécanismes employés dans la perception conjointe des sons de la parole, chez deux ou plusieurs auditeurs qui accomplissent ensemble une tâche de catégorisation en interagissant les uns avec les autres. Dans ce modèle, une place centrale est ainsi attribuée aux interactions inter-individuelles, et cela constitue une différence majeure au regard des modèles de la perception de la parole élaborés jusqu'à présent.

L’expérience présentée a porté sur la perception et la catégorisation des sons de la parole en anglais. La tâche se présentait comme un jeu collaboratif dont l’objectif pour l’auditeur et son partenaire est d’accumuler des points ensemble en catégorisant les sons présentés de façon identique. L’expérience a été réalisée en ligne, et s’il était dit à l’auditeur que celui-ci devra réaliser la tâche avec une autre personne, le partenaire était en réalité un agent artificiel, dont nous avons manipulé les réponses de manière à examiner la sensibilité de l’auditeur à ces manipulations.

Ce travail a été réalisé avec le soutien de l'équipe LSD, du LPL, de l'ILCB, et de l'Institut Carnot Cognition.

 

Crédits d’image : Les auteurs

Empathie et bienveillance au cœur de l’apprenance

Nous avons le plaisir de vous annoncer la sortie de l’ouvrage « Empathie et bienveillance au cœur de l'apprenance » co-édité par Sandrine Eschenauer (LPL/AMU/INSPE) avec Joëlle Aden (IMAGER/UPEC) et Emmanuelle Maitre de Pembroke (LIRTES/UPEC/INSPE).

Référence : Joëlle Aden, Sandrine Eschenauer, Emmanuelle Maitre de Pembroke. Empathie et bienveillance au cœur de l'apprenance. Ed. Le Manuscrit, 2023, collection Langues et langages du Vivant. ⟨hal-04332737⟩

Lien vers la page de l’éditeur : https://lemanuscrit.fr/livres/empathie-et-bienveillance-au-coeur-de-lapprenance/

 

Il comprend plusieurs textes sélectionnés parmi les actes du colloque sur les notions d’empathie et de bienveillance en éducation et formation qui s’est tenu à l’université Paris-Est Créteil en 2019.

Par ailleurs, la prochaine édition du colloque sur l’empathie aura lieu cette année du 5 au 7 juin à Aix-en-Provence et sera consacrée aux « Espaces sensibles: approches performatives pour une éducation inclusive de l'école à l'université » (Ouverture des inscriptions en février 2024).

 

Projet CELAVIE : Emotions et créativité en performance théâtrale pour mieux communiquer
Crédits : Projet CELAVIE

En ce qui concerne spécifiquement l’approche « performative théâtrale », plusieurs chercheurs du LPL ont contribué à la publication de l'article portant sur des résultats préliminaires de l'étude « CELAVIE : Créativité, Empathie et apprentissage des Langues Vivantes à l’Ecole en classe ordinaire » portée par Sandrine Eschenauer :

Référence : Sandrine Eschenauer, Raphaële Tsao, Thierry Legou, Marion Tellier, Carine André, Isabelle Brugnoli, Anne Tortel, Aurélie Pasquier. Performing for Better Communication: Creativity, Cognitive-Emotional Skills and Embodied Language in Primary Schools. Journal of Intelligence, 2023, Special Issue Emotional Intelligence and Creativity, 11 (7), pp.140.

Liens vers l’article intégral : https://doi.org/10.3390/jintelligence11070140  / https://hal.science/hal-04164630

 

Nouvelle parution sur l’humour multimodal et interactionnel

Nous avons le plaisir de vous annoncer la parution du nouvel ouvrage de référence sur l'humour multimodal et interactionnel coordonné par Béatrice Priego-Valverde, maitresse de conférences AMU et membre du LPL.

Lien vers le site de l’éditeur : https://www.degruyter.com/document/doi/10.1515/9783110983128/html

Résumé :
Cet ouvrage offre un panorama des recherches linguistiques menées actuellement sur l'humour multimodal et interactionnel. Les 11 chapitres qui le composent, présentant des méthodologies, corpus et cadres théoriques différents, permettent de répondre à la question suivante : comment l'humour est-il produit, perçu et négocié de manière multimodale ?
Dans cet ouvrage, l’humour est systématiquement analysé comme une activité réalisée de manière interactionnelle, que l'interaction dans laquelle il s'inscrit soit en face-à-face, médiée par ordinateur, avec un humain ou un robot, orale ou écrite. L'objectif commun des chapitres est d'analyser tant les ressources linguistiques des participants (lexique, prosodie, gestes, regards, sourires…) que les ressources sémiotiques que leur offrent les réseaux sociaux et les plateformes de messagerie instantanée (mèmes, gifs ou emojis).

Approches de la langue parlée en français

Nous sommes heureux de vous annoncer la parution de la toute nouvelle édition de l’ouvrage « Approches de la langue parlée en français » (2010) qui a été actualisée et révisée entièrement par notre collègue Frédéric Sabio, professeur à Aix-Marseille Université et membre du LPL.

Référence : Approches de la langue parlée en français / Claire Blanche-Benveniste. Nouvelle édition actualisée et révisée par Frédéric Sabio. Ophrys Editions, 3 octobre 2023. 303 p.

Résumé :
Grâce aux progrès technologiques accomplis ces dernières décennies (enregistrements sonores, analyse automatique de la prosodie, stockages informatiques, constitutions de grands corpus), les langues parlées sont devenues un nouveau terrain d’investigation pour les linguistes et pour les informaticiens.

Mais que sait-on vraiment du fonctionnement du français parlé, et comment faut-il s’y prendre pour l’étudier de façon scientifique ? C’est à ces deux questions que le présent ouvrage entend répondre.

S’opposant à l’idée reçue selon laquelle la langue parlée et la langue écrite n’auraient pas la même grammaire, l’auteure s’emploie à montrer que les deux modalités se laissent globalement analyser avec les mêmes méthodes de description, à l’exception de deux secteurs particuliers : la morphologie et la prosodie.

Le français parlé ne constitue donc pas une sorte de dégénérescence du français écrit, dont il menacerait l’évolution future, mais un système dont l’étude nécessite l’adoption de techniques de transcription précises ainsi que le recours à des méthodes d’analyse particulières, ici présentées. De plus, il convient de ne pas considérer le parlé comme un ensemble homogène que l’on pourrait caractériser de manière globale : la langue des conversations familières n’est pas la même que celle des discours publics, des récits, des argumentations ou des explications techniques. Un échantillon de textes choisis permet d’appréhender cette variété des usages.

SMAD : un logiciel issu du LPL pour mesurer l’intensité du (sou)rire

Nous avons le plaisir de vous annoncer la publication de l’article « Automatic tool to annotate smile intensities in conversational face-to-face interactions » par Stéphane Rauzy (ingénieur de recherche CNRS) et Mary Amoyal (ancienne doctorante LPL) dans la revue Gesture.

Il est téléchargeable gratuitement sur la plateforme HAL : https://hal.science/hal-04194987/

Référence : Stéphane Rauzy, Mary Amoyal. Automatic tool to annotate smile intensities in conversational face-to-face interactions. Gesture, September 2023 ⟨10.1075/gest.22012.rau⟩. ⟨hal-04194987⟩

Résumé:
Cette étude présente un outil automatique qui permet de tracer l’intensité des sourires au cours d’un enregistrement vidéo d’interactions conversationnelles en face-à-face. La sortie traitée propose une séquence d’intervalles de temps adjacents étiquetés selon l’échelle d’intensité du sourire ( Gironzetti, Attardo, et Pickering, 2016 ), une échelle à 5 niveaux variant d’une expression faciale neutre à un rire. Le modèle statistique sous-jacent de cet outil est entraîné sur un corpus de conversations annoté manuellement présentant des expressions faciales spontanées. Ce modèle sera détaillé dans cette étude. Cet outil peut être utilisé avec bénéfice pour annoter le sourire dans les interactions. Les résultats sont doubles. Premièrement, l’évaluation révèle une concordance observée de 68% entre les annotations manuelles et automatiques. Deuxièmement, la correction manuelle des étiquettes et des limites d’intervalles des sorties automatiques réduit d’un facteur 10 le temps d’annotation par rapport au temps passé à annoter manuellement les intensités de sourire sans prétraitement. Notre moteur d’annotation utilise la boîte à outils OpenFace pour suivre le visage et mesurer les intensités des unités d’action faciales d’intérêt tout au long de la vidéo. La documentation et les scripts de notre outil, le logiciel SMAD, peuvent être téléchargés sur la page URL du projet open source HMAD https://github.com/srauzy/HMAD.

Crédits d’image : S. Rauzy & M. Amoyal