|
Comprendre le sens de la musique
04.09.2017, par Martin Koppe
La musique n’est pas qu’une combinaison de notes et de rythmes capables de susciter des émotions, c’est aussi une forme de langage susceptible de transmettre du sens. C’est ce que se propose d’étudier une discipline émergente : la sémantique musicale.
De la playlist composée avec soin aux morceaux qui peuplent pubs, radios et films, nous baignons en permanence dans la musique. Mais outre les émotions qu’elle suscite, celle-ci nous dit-elle autre chose ? « La musique transmet une information très abstraite, souvent interprétée en termes d’émotions, indique Philippe Schlenker, directeur de recherche à l’Institut Jean-Nicod1 et « global distinguished professor » à l’université de New York. Ce n’est pourtant pas tout. Par exemple, lorsque le volume et la vitesse d’un morceau diminuent, on comprend qu’il touche à sa fin. S’agit-il de simples conventions, variables selon les cultures, ou de messages interprétés de manière plus profonde et biologique ? » En transposant les méthodes de la linguistique à la musicologie, ce chercheur propose ni plus ni moins que de développer une sémantique de la musique2.
La musique est ici conçue comme une « scène auditive animée » à partir de laquelle l’auditeur va induire des informations extramusicales.
En effet, à côté du solfège et de l’harmonie, qui peuvent être considérés comme la syntaxe de la musique, la sémantique se propose d’étudier tout ce qui est signifié par la musique ; elle se penche sur les informations non musicales que la musique véhicule, et qui font d’elle bien plus qu’une simple addition de notes et de rythmes. Présentés lors de conférences à l’Ircam3 et à l’académie Barenboim-Said de Berlin, les travaux de Philippe Schlenker sont également publiés dans la revue Music Perception. Une version augmentée est par ailleurs prévue dans Review of Philosophy & Psychology.
Des informations extramusicales
Plutôt que de la sémantique linguistique traditionnelle, qui s’appuie sur les textes et le langage articulé, Philippe Schlenker s’est inspiré de la sémantique iconique, qui s’intéresse aux images, aux gestes, et à certaines propriétés de langues des signes. La musique est ici conçue comme une « scène auditive animée » à partir de laquelle l’auditeur va induire des informations extramusicales. Ainsi, la baisse de volume d’une source sera par exemple interprétée comme une perte d’énergie de celle-ci, indiquant que le morceau ou le mouvement vont se terminer.
« Toutefois, quand on écoute de la musique, on ne s’intéresse pas forcément à sa source réelle, c’est-à-dire aux différents instrumentistes, note le chercheur. On postule au contraire quelque chose de plus abstrait, une source qui sous-tend la musique et explique son mouvement. La source est unique s’il n’y a qu’une seule voix, mais souvent la musique est constituée de plusieurs mélodies qui forment chacune une voix. »
Le Carnaval des Animaux de Camille Saint-Saëns, où chaque mouvement est associé à un animal, est pris en exemple par le linguiste. Dans cette œuvre, aucune voix n’a pour source réelle un kangourou ou une poule, mais la musique évoque bien ces différentes créatures grâce à l’audition extramusicale. Les basses fréquences étant habituellement produites par des corps massifs, l’auditeur va avoir tendance à attribuer le son très grave de la contrebasse à l’éléphant mentionné dans le titre du mouvement.
Afin de mieux comprendre comment s’opèrent ces inférences extramusicales, Philippe Schlenker a utilisé une méthode bien connue en linguistique et en psychologie expérimentale : l’analyse des paires minimales. Celle-ci consiste, après avoir introduit une légère modification dans une source sonore, à comparer cette source avec la variante obtenue. Avec l’aide du compositeur Arthur Bonetto, ils ont fait varier la hauteur de certains accords du mouvement de l’éléphant en s’efforçant de respecter les règles de l’harmonie. Résultat : remontées de trois octaves, les voix de contrebasse n’évoquent alors plus du tout un pachyderme.
L’origine des inférences peut également être de nature tonale. Toujours dans le Carnaval des Animaux, Saint-Saëns réutilise pour le mouvement des tortues une version ralentie et dissonante du French Cancan, lui-même tiré du galop Infernal d’Orphée aux Enfers d’Offenbach. Cela renforce l’impression de maladresse associée aux tortues. À l’évidence, Saint-Saëns n’a pas composé au hasard puis nommé ses mouvements en fonction des inférences qu’il y a trouvées.
Or si la notion de dissonance paraît aller de soi en musicologie, elle n’a pas d’équivalent direct dans la nature. Elle porte malgré tout du sens et relève donc bien de la sémantique musicale. La recherche pourrait notamment permettre d’interpréter les nombreuses règles de la musicologie traditionnelle dans le cadre de la psychoacoustique.
Espace, temps, émotions
« Les compositeurs, et en particulier ceux qui travaillent sur la musique de film, disposent de toute une palette pour susciter des émotions », relève Philippe Schlenker. C’est le cas de Sacha Chaban. Installé à Hollywood, ce compositeur et orchestrateur français a travaillé sur des films à succès tels que Get Out et Les Gardiens de la galaxie 2. Il pioche ses techniques aussi bien dans sa formation classique poussée que dans des astuces empiriques partagées entre professionnels.
La musique de film se prête particulièrement bien à l’analyse sémantique, car des éléments du scénario passent directement dans la musique. Ici, le compositeur Sacha Chaban lors d'une répétition en studio.
Courtesy of Sacha Chaban
Partager
« La musique est une création sonore d’espace, de temps et d’émotions, observe Sacha Chaban. Le compositeur peut utiliser les théories musicales, s’en inspirer ou encore les dépasser. Il contrôle également l’espace : les sons aigus semblent venir d’en haut, les graves d’en bas. Avec la stéréo, la réverbération, le placement des musiciens et des sons, on obtient les trois dimensions. Le tempo, et donc le temps, reste lui aussi entre les mains du compositeur. »
Avec la stéréo, la réverbération, le placement des musiciens et des sons, on obtient les trois dimensions.
Instrumentale, vocale, synthétique ou concrète, la vaste gamme de techniques à sa disposition permet de changer jusqu’à la texture du son. Pour la bande originale de son dernier film, Breaking & Exiting, Sacha Chaban utilise et transforme des sons de pied-de-biche pour créer les percussions principales des séquences de cambriolage.
Sacha Chaban explique également que la musique a des effets psychoacoustiques sur les spectateurs. L’association de mélodies à des personnages, l’emploi de certains instruments, types de composition ou effets marquent le lieu et le temps de chaque scène. Des éléments du scénario passent ainsi directement dans la musique et renforcent l’identité sonore et émotionnelle du film.
Mais si les compositeurs de musiques de film ont un large répertoire d'effets à leur disposition, leur démarche est essentiellement empirique. « De la même manière que bien parler une langue ne suffit pas pour en faire la théorie linguistique, leurs connaissances extrêmement riches sont avant tout intuitives », remarque Philippe Schlenker. Des intuitions que le développement de la sémantique musicale permettra de mieux comprendre et analyser. ♦
Notes
* 1.
Unité CNRS/EHESS/ENS Paris.
* 2.
Ces travaux ont été financés dans le cadre de la bourse ERC New Frontiers of Formal Semantics.
* 3.
Institut de recherche et coordination acoustique/musique. Il abrite entre autres le laboratoire Sciences et technologies de la musique et du son (CNRS/Ircam/UPMC/Ministère de la Culture).
DOCUMENT CNRS LIEN
|