Séminaire ILCB : Bharath Chandrasekaran

Séminaire ILCB

Bharath Chandrasekaran

Neural systems underlying auditory categorization 

Abstract: My program of research uses a systems neuroscience approach to study the computations, maturational constraints, and plasticity underlying behaviorally relevant auditory signals like speech. Speech signals are multidimensional, acoustically variable, and temporally ephemeral. A significant computational challenge in speech perception (and more broadly, audition) is categorization, that is, mapping continuous, multidimensional, and variable acoustic signals into discrete, behavioral equivalence classes. Despite the enormity of this computational challenge, native speech perception is rapid and automatic. In contrast, learning novel speech categories is effortful. In this talk, I elucidate mechanisms underlying how novel speech categories are acquired and represented in the mature brain. I will demonstrate that (1) neural representations of novel speech categories can arise in the associative auditory cortex within a few hundred training trials of sound-to-category training, (2) pre-attentive signal reconstruction in the early auditory system is subject to experience-dependent plasticity, and (3) the robustness of structural and functional connectivity within a sound-to-reward cortico-striatal stream relates to learning outcome. Finally, I will discuss ongoing experiments that leverage neurobiology to design optimal behavioral training and targeted neuromodulation interventions.

About the speaker: Dr. Chandrasekaran serves as a Professor and Vice Chair of Research in the Department of Communication Sciences and Disorders at The University of Pittsburgh. He earned his Ph.D. in Integrative Neuroscience from Purdue University in 2008, completed a postdoctoral fellowship at Northwestern University before joining the University of Texas at Austin in 2010. He is the recipient of Regents’ Outstanding Teaching Award in 2014, the Editor’s award for best research article in the Journal of Speech, Language, and Hearing Research, the Psychonomics Early Career award in 2016, and the Society for Neurobiology of Language Early Career Award in 2018. Dr. Chandrasekaran has served as the Editor-in-Chief of the Journal of Speech, Language, and Hearing Research (Speech). Over the last two decades, his lab has leveraged cutting-edge multimodal neuroimaging methods and computational modeling approaches to develop a sophisticated understanding of how sounds are represented and categorized in the human brain. His approach is highly collaborative and interdisciplinary, integrating across fields of communication sciences and disorders, neuroscience, linguistics, psychology, engineering, and otolaryngology. His laboratory is currently supported by funding from the National Institutes of Health (NIH) and the National Science Foundation (NSF).

Exposé Polina Ukhova

Vendredi 6 mai 2022

Exposé scientifique

Polina Ukhova

(ATER AMU-LPL)

14h LPL, salle de conférences B011

Dynamiques du parler jeune : le cas d'étudiants russes et français
Show More

Résumé :

La présente étude menée sur corpus porte sur le parler des jeunes russes et français de 18 à 23 ans inscrits dans des facultés de « lettres et langues » à l’Université de Poitiers et à l’Université de Iaroslavl. À ce jour, de nombreux travaux ont été effectués sur le français des banlieues, mais très peu de linguistes se sont intéressés aux pratiques non-standard propres aux jeunes étudiants.

Le corpus de travail utilisé dans le cadre de cette étude comprend 4 sous-corpus (a) oraux (105h d'enregistrement de conversation en milieu naturel, ainsi que de conversation publique lors d’émissions de radio « jeunes ») et (b) écrits (34355 mots ; constitués d’occurrences relevées dans les réseaux sociaux) et représente une ressource bilingue de corpus comparables en français et en russe.

Ce travail propose une analyse contrastive pluridimensionnelle des données langagières spontanées (orales et écrites), s’inscrit dans le domaine de l’articulation sémantique/syntaxe/pragmatique et comprend trois volets :

Premièrement, il fournit une analyse des moyens linguistiques (lexicaux, morpho-sémantiques et graphiques) utilisés pour l’expression de contenus émotivo-évaluatifs, trait fondamental des discours spontanés entre jeunes.

Deuxièmement, il propose une typologie de procédés de création lexicale qui permet de systématiser les particularités sémantico-structurelles et syntaxico-pragmatiques les plus caractéristiques du parler des jeunes français et russes (notamment, l’emploi des marqueurs discursifs, leurs associations, fréquence et substituabilité).

Troisièmement, les rapprochements entre les énoncés oraux et écrits présents dans le corpus permettent de constater que le numérique a fait apparaître de nouvelles conditions de communication ce qui a fait émerger de nouvelles stratégies communicatives. Aujourd’hui, les échanges ont un caractère multimodal qui se décèle surtout chez les jeunes, utilisateurs natifs de la « réalité numérique ». L’analyse des discours en face à face et des discours médiés par ordinateur montre que le « numérique » et le « non-numérique » sont en co-construction permanente et ne sont pas séparables : les outils linguistiques mobilisés dans l’un et l’autre environnement sont les mêmes et posent de façon nouvelle les réflexions sur l’opposition traditionnelle oral/écrit.

Par ailleurs, la dimension contrastive de l’étude met en évidence que, si certains traits restent propres à chacune des deux populations car les jeunes sont évidemment porteurs de différentes cultures nationales, on voit très nettement l’impact des réseaux sociaux qui fondent un espace culturel global où les jeunes de différents pays du monde sont devenus porteurs d’un imaginaire collectif et créent ensemble des codes communs qui permettent des échanges multiculturels d’un nouveau type.

Séminaire de l’équipe de recherche Systus : Autour de la Grande Grammaire du Français

Séminaire SYSTUS : Autour de la Grande Grammaire du Français

Vendredi 8 avril 2022 – 10h30-12h30 – Salle B 011

10h30-11h30 : Anne Abeillé, Université de Paris

« La grande grammaire du français : un livre et un projet hors norme »

Anne Abeillé a co-dirigé l’ouvrage avec Danièle Godard, en collaboration avec Annie Delaveau et Antoine Gautier. Ce projet a reçu le soutien de la Fédération ILF du CNRS, de la DGLFLF, de l’Université Paris 7 et du LabEx EFL. La grammaire est organisée en vingt chapitres, et est sortie, en version papier (2 volumes) et en version numérique, aux éditions Actes Sud / Imprimerie Nationale le 6 octobre 2021. Ce projet a impliqué une cinquantaine de linguistes, de nationalités diverses, d’une trentaine d’universités et laboratoires en France et ailleurs. Une de ses ambitions est de présenter de façon cohérente (et lisible pour un large public) les avancées dans la connaissance de la syntaxe du français et de ses interfaces avec le lexique, la sémantique, le discours et la prosodie. Une autre est de prendre en compte la variation des données, en s’intéressant à des données régionales (décrites) et orales (grâce à l’interrogation de corpus oraux). La version numérique permet l’écoute de nombreux exemples oraux.

Cf. Présentation de l’ouvrage sur : http://www.llf.cnrs.fr/ggf

Accès à l’édition en ligne (avec 15 jours d’accès gratuit) : grandegrammairedufrançais.com

11h30-12h00 : Frédéric Sabio, Marie-Noëlle Roubaud, AMU, LPL (équipe Systus)

« Sur les rapports entre données linguistiques et description syntaxique : l’exemple des relatives en où en français parlé »

Les relatives en (le jour où il viendra) ont donné lieu à de minutieuses études de syntaxe et de sémantique, mais il manque à ce jour un bilan sur les usages attestés en français parlé contemporain. En particulier, nous évoquerons certains emplois minoritaires attestés dans les corpus, en nous interrogeant sur les relations entre les données linguistiques et leur description grammaticale.

12h-12h30 : Discussion autour des systèmes et des usages

 

 

Séminaire de l’équipe de recherche REaDY : La production et la perception de la parole

Jeudi 5 mai 2022

Discussion avec Prof. Frank Guenther autour des présentations des membres du LPL :

14h-14h40 : Noël Nguyen & Kristof Strijkers : Phonetic and semantic convergence in speech communication

14h40-15h10 : Serge Pinto: Studying speech motor control from its impairment: the cases of hypo- and hyperkinetic dysarthrias

15h10-15h30 : Coffee break

15h30-16h10 : Elin Runnqvist, Lydia Dorokhova & Snezana Todorović : Action monitoring from tongue movements to words

16h10-16h40 : Anne-Sophie Dubarry : Exploring the variability of neurophysiological data during language processing

 

Vendredi 6 mai 2022, 10h30-12h00

Session plénière par Prof. Frank Guenther (Speech Neuroscience Lab, Boston University)

Neurocomputational modeling of speech production

Speech production is a highly complex sensorimotor task involving tightly coordinated processing in the frontal, temporal, and parietal lobes of the cerebral cortex. To better understand these processes, our laboratory has designed, experimentally tested, and iteratively refined a neural network model, called the DIVA model, whose components correspond to the brain regions involved in speech. Babbling and imitation phases are used to train neural mappings between phonological, articulatory, auditory, and somatosensory representations. After the imitation phase, the model can produce learned phonemes and syllables by generating movements of an articulatory synthesizer. An extended version of the model, called GODIVA, addresses the neural circuitry underlying the buffering and sequencing of phonological units in multi-syllabic utterances. Because the model’s components correspond to neural populations and are given precise anatomical locations, activity in the model’s neurons can be compared directly to neuroimaging data. Computer simulations of the model account for a wide range of experimental findings, including data on acquisition of speaking skills, articulatory kinematics, and brain activity during normal and perturbed speech. Furthermore, “damaged” versions of the model are being used to investigate several communication disorders, including stuttering, apraxia of speech, and hypokinetic dysarthria

Séminaire de l’équipe de recherche Interactions : Geert Brône

Geert Brône

(KU Leuven)

Multimodal strategies in the production and reception of irony in face-to-face interaction

 

Résumé :

Eye gaze has been described as a powerful instrument in social interaction, serving a multitude of functions and displaying particular patterns in relation to speech, gesture and other semiotic resources. Recently developed data collection techniques, including mobile eye-tracking systems, allow us to generate fine-grained information on the gaze orientation of multiple participants simultaneously while they are engaged in spontaneous face-to-face interactions. In this talk, I will zoom in on one set of studies from our lab that provides an illustration of how mobile eye-tracking data may be used for both qualitative and quantitative explorations into the working of the ‘gaze machinery’ in (inter)action. More specifically, I will discuss the complex cognitive-pragmatic phenomenon of irony in interaction. The intrinsic layered nature of irony requires a form of negotiation between speakers and their addressees, in which eye gaze behaviour (along with other nonverbal resources) seems to play a relevant role. A comparison of both speaker and addressee gaze patterns in ironic vs. non-ironic sequences in spontaneous interactions reveals interesting patterns that can be attributed to an increased grounding activity between the participants.

Séminaire de l’équipe de recherche POP : Marc D. Pell

Séminaire

Marc D. Pell

(Université McGill, Montréal, Canada)

Prosody as a beacon for understanding a speaker’s stance and intentions

Speech prosody plays an important interpersonal function in human communication, supplying critical details for understanding a speaker’s stance towards their utterance and other people involved in the interaction. For example, listeners use prosody to infer the speaker’s certainty or commitment when making particular speech acts, to decipher whether the speaker holds a positive or negative attitude towards aspects of the communication situation, or simply to recognize that the speaker means to elicit empathy and support by how they vocally express their utterance. In this talk, I will look at some concrete examples of how speech prosody serves as an early “beacon” for understanding the disposition and intended meanings of a speaker during on-line speech processing (based on how listeners interpret irony, requests, and complaints). Behavioural and electrophysiological evidence will be considered.

 

Séminaire Marco Cappellini

Chers collègues,

dans le cadre des jeudis du SUPFLES coordonnés par le SUFLE et le département de didactique du FLE (ALLSH),  Marco Cappellini  fera une conférence ce jeudi 16 décembre de 17h30 à 18h30 inscrite dans la thématique de "L'apprenant acteur de son apprentissage",

Pour des raisons sanitaires, la conférence aura lieu totalement à distance.

Titre de la conférence : "Ce que l'autonomie peut apporter à la citoyenneté numérique. Une proposition de matrice de séquences pédagogiques"

Résumé :
Dans cette contribution, je propose de lier le champ de l’éducation à la citoyenneté numérique au paradigme de l’autonomie. Dans la première partie, en partant du constat d’usages de technologies numériques problématiques pour une citoyenneté numérique, la conférence propose une réponse éducative articulant des pédagogies actives existantes dans un cadre d’autonomisation basé sur le socio-constructivisme et l’apprentissage expérientiel. Dans la deuxième partie, la conférence propose un exemple de séquence pédagogique pour l'autonomisation et la citoyenneté numérique concernant la question de l’économie de l’attention et aboutit à une schématisation de l’approche proposée.

Certains collègues se sont déjà inscrits, vous pouvez encore le faire via ce lien et à nous rejoindre en ligne

En préparation à la conférence de jeudi, vous êtes invités à visionner les minutes 00-4:41 de la vidéo à cette page.

Merci pour votre participation
Catherine David et Amélie Leconte

Contact : Catherine David