Notre cerveau n'utilise pas les mêmes hémisphères pour identifier un son musical et le langage parlé

  • Quelle que soit la langue, l'activité neuronale des participants a montré une capacité clairement distincte des deux hémisphères du cerveau en fonction des sons identifiés : droit lorsqu'il s'agissait de musique, gauche pour le langage parlé.
    Quelle que soit la langue, l'activité neuronale des participants a montré une capacité clairement distincte des deux hémisphères du cerveau en fonction des sons identifiés : droit lorsqu'il s'agissait de musique, gauche pour le langage parlé. Slavica / IStock.com
Publié le
Relaxnews

(Relaxnews) - Une nouvelle étude franco-canadienne révèle que si l'hémisphère droit du cerveau permet d'identifier un son musical, nous utilisons l'hémisphère gauche pour entendre une phrase prononcée à haute voix. Si ce phénomène est connu depuis longtemps, il n'avait jusqu'ici pas trouvé d'explication neurologique, soulignent les chercheurs à l'origine des travaux. 

Vous arrivez sans difficulté à reconnaître la voix d'une personne lorsqu'elle parle mais moins lorsqu'elle chante ? Rien d'étonnant à cela, expliquent des chercheurs de l'Inserm et de l'université McGill (Canada). Selon cette étude à paraître dans la revue Science, ce phénomène s'explique par le fait que notre cerveau n'utilise pas la même région pour analyser un élément sonore associé au langage parlé et un son musical.

"Le langage et la musique constituent chez l'humain les principales utilisations du son et les plus complexes au niveau cognitif. L'hémisphère gauche est principalement impliqué dans la reconnaissance du langage, tandis que l'hémisphère droit est principalement impliqué dans celle de la musique. Cependant, le fondement physiologique et neuronal de cette asymétrie était encore méconnu", expliquent les auteurs de cette recherche franco-canadienne, dans un communiqué paru sur le site de l'Inserm. 

Des capacités distinctes en fonction des hémisphères cérébraux

Pour aboutir à ces conclusions, les chercheurs ont procédé à l'enregistrement de dix phrases différentes chantées par 10 soprano sur des airs mélodiques inédits composés pour l'occasion, soit une centaine de combinaisons dans les paroles. Ces éléments sonores, dans lesquels mélodie et parole sont dissociées, ont ensuite été déformés en diminuant la quantité d'information présente dans chaque dimension du son.

Les scientifiques ont ensuite invité 49 participants à écouter ces sons et à déterminer s'ils étaient identiques au niveau de la mélodie ou au niveau du texte. L'expérience a été menée en français et en anglais, afin d'observer si les résultats étaient reproductibles dans des langues différentes.

A partir d'examens du cerveau des participants réalisés par le biais de l'imagerie par résonance fonctionnelle (IRMf) l'équipe de recherche a constaté que, quelle que soit la langue, l'activité neuronale des participants , dans le cortex auditif gauche variait en fonction de la phrase présentée mais restait relativement stable d'une mélodie à l'autre, tandis que dans le cortex auditif droit, l'activité variait en fonction de la mélodie présentée mais restait relativement stable d'une phrase à l'autre.

"La spécialisation hémisphérique pourrait être le moyen pour le système nerveux d'optimiser le traitement respectif des deux signaux sonores de communication que sont la parole et la musique", conclut Benjamin Morillon, chercheur Inserm à l'Institut de neurosciences des systèmes (Aix-Marseille Université) et co-directeur des travaux. 

Les scientifiques voient dans la description de ces mécanismes une piste possible pour traiter les troubles du langage liés à des pathologies spécifiques telles que l'épilepsie ou les personnes victimes d'AVC. 

Voir les commentaires
Réagir
Vous avez droit à 3 commentaires par jour. Pour contribuer en illimité, abonnez vous. S'abonner

Souhaitez-vous recevoir une notification lors de la réponse d’un(e) internaute à votre commentaire ?