La recherche a découvert comment le système auditif différencie la musique de la parole à l'aide de paramètres acoustiques simples. Cette compréhension pourrait améliorer les thérapies pour les troubles du langage comme l'aphasie, en utilisant la musique pour aider les patients à retrouver leurs capacités d'élocution. Crédit : Issues.fr.com
Une étude montre que notre cerveau utilise des fréquences et des modèles sonores de base pour distinguer la musique de la parole, offrant ainsi des informations permettant d'améliorer les thérapies pour les troubles de la parole comme l'aphasie.
La musique et la parole font partie des types de sons les plus fréquents que nous entendons. Mais comment identifier ce que nous pensons être des différences entre les deux ?
Une équipe internationale de chercheurs a cartographié ce processus à travers une série d'expériences, produisant des informations qui offrent un moyen potentiel d'optimiser les programmes thérapeutiques utilisant la musique pour retrouver la capacité de parler dans le traitement de l'aphasie. Ce trouble du langage afflige plus d'un Américain sur 300 chaque année, dont Wendy Williams et Bruce Willis.
Aperçus auditifs issus de la recherche
« Bien que la musique et la parole soient différentes à bien des égards, allant de la hauteur au timbre en passant par la texture sonore, nos résultats montrent que le système auditif utilise des paramètres acoustiques étonnamment simples pour distinguer la musique et la parole », explique Andrew Chang, chercheur postdoctoral à L'Université de New YorkDépartement de psychologie et auteur principal du papierqui est publié aujourd'hui (28 mai) dans la revue Biologie PLOS. « Dans l'ensemble, les extraits sonores plus lents et réguliers constitués de simples bruits ressemblent davantage à de la musique, tandis que les extraits sonores plus rapides et irréguliers ressemblent davantage à de la parole. »
Les scientifiques évaluent le débit des signaux par des unités de mesure précises : Hertz (Hz). Un nombre de Hz plus élevé signifie un plus grand nombre d'occurrences (ou de cycles) par seconde qu'un nombre inférieur. Par exemple, les gens marchent généralement à un rythme de 1,5 à 2 pas par seconde, soit 1,5 à 2 Hz. Le rythme du tube de Stevie Wonder de 1972 « Superstition» est d'environ 1,6 Hz, tandis que le smash d'Anna Karina de 1967 «Fille à roulettes » horloges à 2 Hz. En revanche, la parole est généralement deux à trois fois plus rapide qu’à 4-5 Hz.
Ça s'est bien passé documenté que le volume ou l'intensité d'une chanson au fil du temps (ce que l'on appelle la « modulation d'amplitude ») est relativement stable à 1-2 Hz. En revanche, la modulation d’amplitude de la parole est généralement de 4 à 5 Hz, ce qui signifie que son volume change fréquemment.
Malgré l’omniprésence et la familiarité de la musique et de la parole, les scientifiques ne comprenaient pas clairement comment nous identifiions automatiquement et sans effort un son comme étant de la musique ou de la parole.
Résultats expérimentaux sur la perception sonore
Pour mieux comprendre ce processus dans leur Biologie PLOS Dans cette étude, Chang et ses collègues ont mené une série de quatre expériences au cours desquelles plus de 300 participants ont écouté une série de segments audio de bruit synthétisé de type musique et parole, de différentes vitesses et régularités de modulation d'amplitude.
Les clips de bruit audio permettaient uniquement la détection du volume et de la vitesse. Il a été demandé aux participants de juger si ces clips sonores ambigus, qui, selon eux, étaient de la musique ou de la parole masquée par le bruit, ressemblaient à de la musique ou à de la parole. L'observation de la tendance des participants à trier des centaines d'extraits sonores en musique ou en parole a révélé à quel point chaque caractéristique de vitesse et/ou de régularité affectait leur jugement entre la musique et la parole. Il s'agit de la version auditive de « voir des visages dans le nuage », concluent les scientifiques : s'il existe une certaine caractéristique dans l'onde sonore qui correspond à l'idée que les auditeurs se font de ce que devraient être la musique ou la parole, même un clip de bruit blanc peut ressembler à de la musique ou de la parole. . Des exemples de musique et de discours peuvent être téléchargés à partir du page de recherche.
Les résultats ont montré que notre système auditif utilise des paramètres acoustiques étonnamment simples et basiques pour distinguer la musique de la parole : pour les participants, les clips avec des fréquences plus lentes (<2 Hz) et une modulation d'amplitude plus régulière ressemblaient davantage à de la musique, tandis que les clips avec des fréquences plus élevées (~4 Hz) et une modulation d'amplitude plus irrégulière ressemblait davantage à de la parole.
Implications pour la thérapie et la réadaptation
Savoir comment le cerveau humain fait la différence entre la musique et la parole peut potentiellement bénéficier aux personnes souffrant de troubles auditifs ou du langage tels que l'aphasie, notent les auteurs. La thérapie d’intonation mélodique, par exemple, est une approche prometteuse pour entraîner les personnes aphasiques à chanter ce qu’elles veulent dire, en utilisant leurs « mécanismes musicaux » intacts pour contourner les mécanismes de parole endommagés. Par conséquent, savoir ce qui rend la musique et la parole similaires ou distinctes dans le cerveau peut aider à concevoir des programmes de rééducation plus efficaces.
Les autres auteurs de l'article étaient Xiangbin Teng de l'Université chinoise de Hong Kong, M. Florencia Assaneo de l'Université nationale autonome du Mexique (UNAM) et David Poeppel, professeur au département de psychologie de NYU et directeur général de l'Institut Ernst Strüngmann de neurosciences à Francfort, Allemagne.
La recherche a été financée par une subvention de l'Institut national sur la surdité et autres troubles de la communication, qui fait partie du Instituts nationaux de la santé (F32DC018205) et bourses Leon Levy en neurosciences.