Cet article, modifié pour la cause, a fait l'objet d'une radiodiffusion en direct sur la Radio Parfaite, l'antenne officielle du Festival musical du Printemps des Arts de Monte-Carlo, le 19 mars 2017. L'écho différé est disponible ici : .
La complexité des systèmes est un sujet d'étude de la Théorie de l'information telle qu'initiée, au plan syntaxique, par Claude Shannon (1916-2001) et précisée, au plan sémantique, par Andrei Kolmogorov (1903-1987). Elle est présentée informellement ci-dessous et appliquée à l'oeuvre d'art, en particulier musicale.
Chacun pratique à son niveau l'informatique appliquée, l'occasion d'effectuer rapidement des tâches qui s'avéreraient fastidieuses voire impossibles sans elle. Une informatique théorique existe cependant, qui étudie toutes sortes de questions qui nous concernent quoique souvent à notre insu :
Certes, toutes ces questions sont affaires de spécialistes mais les réponses sont accessibles à un vaste public, notamment celles qui concernent la complexité des systèmes, terme très général qui couvre tous les domaines, scientifique, artistique, etc.
Les systèmes que les scientifiques étudient sont de natures très diverses, en voici trois empruntés aux domaines de la mathématique, de la physique et de la biologie :
Dans tous les cas, le programme (de longueur) minimum, capable (de calculer puis) d'imprimer la description du système étudié (à une précision donnée d'avance, c'est un détail technique qu'il est inutile d'expliciter ici), joue un rôle capital. Sa longueur (en bits) définit précisément la complexité algorithmique du système (on dit aussi l'entropie). Qu'un tel programme minimal existe est une évidence puisque sa longueur est un entier positif; qu'il soit calculable est une toute autre affaire. Il n'existe, en effet, pas de procédure algorithmique effective capable de recevoir la description d'un système en entrée et d'en afficher le programme minimum en sortie. Ce n'est nullement le résultat d'une incompétence temporaire de notre part (qu'on pourrait espérer vaincre un jour) mais le résultat d'une indécidabilité fondamentale, inhérente à la théorie de l'information. Si la complexité des systèmes n'est pas calculable en toute généralité, elle s'avère heureusement raisonnablement approximable (par excès) dans un grand nombre de cas.
L'exemple littéraire est préparatoire pour la suite. On considère un texte long, rédigé dans une langue connue, par exemple le français. Ce texte se présente comme une suite de lettres, minuscules ou majuscules, éventuellement de chiffres et de divers signes de ponctuation. Les traitements de texte habituels limitent (généreusement !) le nombre des caractères utilisés à 28=256 en sorte que n'importe quel caractère est codable sur 8 bits (de 00000000 à 11111111). Dans ce format (Code ASCII étendu), un texte de 100 000 caractères, encodés littéralement, exige 800 000 bits (soit, en octets, 100 Ko). Peut-on le compresser sans perte afin qu'il occupe moins de place en mémoire ? On devine que la réponse est affirmative, dans certains cas au moins, puisque les fichiers compressés existent, par exemple au format ".zip". Cependant un simple argument de comptage révèle que cette compression ne peut concerner tous les textes, certains seront inévitablement dilatés ! Autrement dit, le compresseur universel ne peut exister.
Note. Si l'argument ne vous paraît pas évident, pensez à un immeuble à étages, en construction, dont tous les appartements ont été achetés sur plans. Si un acheteur se ravise en demandant de descendre d'étage, cela ne pourra se faire qu'à la condition qu'un autre acheteur accepte de monter.
On peut, dès lors, se demander quel est l'intérêt de compresser certains textes si c'est au prix d'en dilater d'autres. La réponse est simple : tous les textes ne se valent pas ! Sur base d'un alphabet comportant 256 caractères, on peut rédiger 256N textes différents, tous de longueur N. C'est un nombre de plus en plus colossal à mesure que N grandit. L'immense majorité de ces textes sont anarchiques d'où aucun algorithme n'a de prise sur eux pour les compresser. Seul un très petit nombre de textes sont porteurs de sens et ce sont eux que les algorithmes compressent en tirant parti des redondances syntaxiques et sémantiques qui les structurent. En résumé, les algorithmes compresseurs contractent efficacement les rares textes structurés, ceux qui nous intéressent, et tant pis s'ils dilatent légèrement les textes aléatoires, infiniment plus nombreux, qui, de toutes façons, ne nous intéressent pas.
On peut tracer un axe des complexités (K) croissantes et y situer les textes (de longueur N) correspondant aux situations extrêmes :
Les textes porteurs de sens se situent évidemment entre ces extrêmes. Leur complexité ne se laisse pas calculer exactement car cela exigerait d'en connaître le programme minimal, chose que nous savons impossible, la plupart du temps. En pratique, on est donc forcé de revoir ses ambitions à la baisse, en se contentant des meilleurs programmes compresseurs trouvables, ce qui demande persévérance, astuce, culture et intelligence. Une stratégie possible met en oeuvre le test de Shannon dont le principe est le suivant.
Un volontaire (ou une machine !) est prié de deviner un texte a priori inconnu, caractère après caractère, en ne posant que des questions binaires (n'appelant que les réponses oui ou non), une sorte de Jeu du Pendu. Lorsque le texte est entièrement trouvé, le nombre, x, de questions posées fournit une (sur)estimation de la complexité du texte (en bits). La surestimation est inévitable car le volontaire ignore la stratégie optimale qui minimiserait le nombre des questions à poser. Pour progresser dans son jeu de devinette, le volontaire dispose de deux armes très différentes, l'une syntaxique et l'autre sémantique :
On peut programmer la compression du texte initial sur la base des redondances syntaxiques, tous les logiciels de compression sans perte le font. On peut même tenter de poursuivre à l'étape sémantique mais il faut garder à l'esprit que l'ordinateur ne pourra aller très loin dans cette direction, en tous cas il n'atteindra jamais l'optimum. Cela n'est pas grave pour la discussion qui nous intéresse car, après tout, personne ne lira jamais un texte dans sa forme compressée. Par contre, tout le monde se sert (in)consciemment des redondances existantes pour le lire avec fluidité. C'est évidemment le cerveau qui anticipe mentalement le déroulement du texte, sur base de ses attentes culturelles, comme s'il s'exerçait, en permanence, au test de Shannon. La phrase précédente, réécrite en forme "texto", si prisée par la nouvelle génération, demeurerait sans doute compréhensible mais elle serait illisible avec l'intonation espérée. Les choses ne se passent pas différemment dans le cas de l'interprétation et de l'écoute musicales : imaginez le désarroi d'un interprète forcé de restituer une sonate de Schubert notée façon "texto", ce serait faisable mais il trébucherait à chaque pas !
On peut présenter les choses autrement et s'intéresser au flux d'information que le cerveau peut traiter intelligemment. On estime qu'un lecteur moyen lit facilement 30 caractères d'un texte français à la seconde, ce qui correspond, en gros, à un débit informationnel de 40 bits/s. Le cerveau en accepte beaucoup plus, en écoute brute, mais s'il doit faire tous les liens nécessaires à la compréhension, 40 bits/s semble une norme acceptable. Les choses ne se passent pas autrement en musique même si l'ordre de grandeur peut varier à la hausse. La plupart des auditeurs (pour ne pas dire tous) ne font pas tous les liens possibles sans que cela affecte leur écoute instantanée. Ils peuvent même s'endormir pendant un quart d'heure sans perdre le fil de l'écoute ultérieure, chose difficilement imaginable en conférence orale. Ce qui est sûr, on reviendra sur ce point, c'est que les musiques d'avant-garde découragent la plupart des auditeurs par leur débit excessif.
Un deuxième exemple préparatoire est emprunté au monde de la peinture. On considère quelques systèmes picturaux, du plus simple, une toile uniformément blanche, au plus complexe, une assemblée de points colorés, distribués au hasard. Que la toile blanche (elle pourrait être verte !) soit de complexité (presque) nulle ne surprend personne. Outre que cela semble raisonnable, son programme minimal le confirme, qui se réduit à fixer le nombre des pixels, en abscisse et en ordonnée, plus la couleur uniforme de ceux-ci, au bilan trois nombres entiers suffisent.
Résumons ce que nous avons appris avant de discuter l'exemple musical :
La sémiologie classique conteste que la notion de langage soit extensible à la musique. Si l'on exige d'un langage qu'il soit signifiant, cela est correct et nul(le) ne s'est mieux exprimé(e), à ce sujet, que Monique Philonenko dans son essai, Musique et Langage (Revue de métaphysique et de morale, 2/2007 (n° 54), p. 205-219). J'en adapte très librement les arguments suivants (mais je vous invite à lire l'essai entier, 15 pages d'une rare limpidité, ne serait-ce que pour rectifier les libertés que j'aurais prises) :
Langue parlée et Musique ne font pas appel aux mêmes ressources cognitives. La première établit un rapport entre un signifiant et un signifié, ce que la seconde ne fait absolument pas. La musique ne renvoie qu'à elle-même et l'information qu'elle porte n'est absolument pas destinée à faire progresser notre connaissance, d'ailleurs la notion de vérité lui est étrangère. S’il existe des règles que l’on doive suivre dans la composition, elles ne sont pas là pour faire advenir une signification, mais pour susciter une émotion qui, par-delà les mots, se transmet du compositeur à l’interprète et de l’interprète à l’auditeur. La musique ne signifie rien, pas même affectivement : l'andantino de la Sonate D959, de Schubert, sera considéré comme triste, nostalgique, consolateur et même peut-être radieux, selon l'état particulier de celui qui l'écoute, et que la sonate soit en la majeur n'y changera jamais rien. Seule la poésie pourrait, à la rigueur, supporter la comparaison musicale, en raison de l'usage qu'elle fait d'éléments non verbaux, allant jusqu'à libérer la syntaxe pour mieux véhiculer l'émotion.
Cependant le point de vue sémiologique n'est pas tout et le célèbre linguiste, Noam Chomsky, a largement contribué à une généralisation de la notion de langage dans le cadre de l'informatique théorique. La Théorie de l'information, comme on l'appelle aussi, considère qu'un texte n'a pas besoin de signifier quoi que ce soit pour exister, en particulier pour occuper une place en mémoire d'ordinateur. Chomsky a identifié les quatre types d'automates, capables de générer systématiquement des langages (formels) de plus en plus riches, au moyen de grammaires adaptées, qu'il a déclinées dans sa célèbre Hiérarchie. Par exemple, le système formel, discuté au §I, génère des théorèmes mais il peut être réinterprété comme détaillant les mots d'un langage abstrait, notés dans l'alphabet binaire {0,1}.
Dans le cadre de cette généralisation, oui, la musique est un langage parmi d'autres, elle en possède tous les attributs formels : un alphabet, une syntaxe, une grammaire et même une orthographe. De base, l'alphabet est composé de notes, plus un grand nombre de signes de ponctuation (silences, dièses, bémols, etc) destinés à marquer les altérations, durées, rythmes, superpositions, répétitions, etc. Tout texte rédigé sur base de cet alphabet et, on présume, respectant de près ou de loin des règles de Solfège et des principes d'Harmonie et de Contrepoint, peut prétendre au titre de partition musicale. Que celle-ci soit audible est une autre affaire.
L'intelligibilité du texte musical repose, comme celle du texte littéraire, sur un ensemble de redondances syntaxiques et sémantiques. On peut réitérer à son sujet le test de Shannon, ce qui a été fait maintes fois (cf, par exemple, la Thèse de Sarah Culpepper, University of Iowa, 2010). On peut alors revisiter les musiques des 250 dernières années, dans la perspective d'une étude comparative en complexité. Il y a lieu de noter que le test de Shannon concerne l'interprète avant l'auditeur et les exemples abondent, dans l'histoire du concert ou de l'enregistrement, d'oeuvres ne trouvant que tardivement l'interprétation (provisoirement !) idéale, celle qui apporte de bonnes clés de déchiffrage. Bien sûr, toute interprétation respecte la partition et toutes les notes s'y trouvent, ce n'est pas cela qui est en cause, mais, au travers d'une diction réinventée, des redondances se révèlent qui permettent enfin à l'auditeur de (mieux) s'orienter.
En étudiant, de cette façon, la complexité des oeuvres musicales, on retrouve, moyennant les transpositions qui s'imposent, les conclusions propres à l'analyse du texte littéraire (ou de la peinture). Sans redondance, une partition est incompressible donc aléatoire et ingérable par le cerveau humain, celui de l'interprète comme celui de l'auditeur. Trop redondante, elle est banale et ne résiste pas aux écoutes répétées. Toute musique doit trouver un juste équilibre entre ces extrêmes. Les exemples ci-avant, empruntés au monde de la peinture, trouvent leurs équivalents en musique :
La musique (de l'ère) classique, singulièrement celle de Mozart, offre les exemples canoniques de redondances parfaitement assimilées par tous les publics, au point qu'elle passe pour relativement prévisible (Ceci ne constitue pas un jugement de valeur !). En musique classique, la redondance la plus évidente est la reprise à l'identique d'une section précédemment énoncée, ce qui est fréquent dans un mouvement de forme sonate. Ce procédé, propre à la musique, est parfaitement toléré alors qu'il serait impensable dans un texte littéraire.
Le recours à une tonalité spécifique est une autre source historique de redondance : un mouvement écrit, disons, en sol mineur, n'utilise que 7 notes sur les 12 qui partitionnent l'octave d'où une compression devient possible, en mettant, une fois pour toutes, deux bémols en évidence à la clé (Cette armure rappelle l'écriture algébrique bien connue, 2(a+b+c+d)=2a+2b+2c+2d, une économie de symboles sur le long terme). Le respect d'une tonalité spécifique crée d'autres redondances qui renforcent la précédente : une note en entraîne souvent une autre de façon plus ou moins prévisible du fait des rapports harmoniques qui existent entre elles et l'auditeur en est conscient même s'il ne connaît rien à la théorie musicale. Ces redondances créent un pouvoir d'anticipation des notes à venir (Le test de Shannon !), jusqu'à ce qu'une cadence provoque une transition inattendue. Elles confèrent à l'auditeur (sans parler de l'interprète !) une sensation de confort qu'il apprécie. A l'opposé, une musique peu redondante est imprévisible et déstabilisante.
La répétition motivique micro-variée est une autre source de redondance dont l'usage a culminé dans l'oeuvre de Beethoven. Le finale de la Symphonie n°7 commence par deux accords brefs, suivis d'un motif de 7 notes répété 24 fois en l'espace de 30 secondes, avec quelques nuances subtiles ! L'œuvre de Beethoven tire largement son pouvoir universel de persuasion de ce procédé rhétorique (Cfr encore le motif bondissant de 4 notes qui ouvre le finale de la Sonate n°17 ). On pourrait certes le juger facile, voire l'assimiler à un tic d'écriture, mais il est tellement bien emballé qu'on s'y laisse prendre à chaque fois. Même les derniers Quatuors du Maître, réputés sans concessions, ont subrepticement recours au même procédé : le début du 2ème mouvement du Quatuor n°15, opus 132, alterne, avec autant de subtilité que d'insistance, des motifs de 3 et 6 notes (commence en 10:35).
La disparition de Beethoven (et n'oublions pas Schubert, qui l'a suivi dans la tombe un an plus tard), en 1827, a laissé un vide dans la musique germanique alors en position dominante. Deux écoles se sont partagées la succession, celle classique, dirigée par Felix Mendelssohn (1809-1847), et celle, progressiste, dirigée par Franz Liszt (1811-1886). On crédite généralement Liszt d'avoir envisagé une musique de l'avenir. L'idée a été de s'affranchir progressivement du carcan de la tonalité en multipliant les altérations, ce qui diminue d'autant la redondance du texte. A la limite, lorsque les altérations deviennent trop nombreuses, il ne sert plus à rien de mettre des dièses ou des bémols à la clé : on entre de plain-pied dans un chromatisme généralisé à 12 sons par octave, menant tout droit à l'atonalité. Son œuvre la plus étonnante, à cet égard, est sans doute la Bagatelle sans tonalité, dont le titre est éloquent.
L'atonalité a également fait une (timide) apparition dans The unanswered Question, de Charles Ives (1874-1954). Cette pièce est construite sur trois niveaux : des cordes jouent, sans arrêt, les mêmes triades en sol majeur (bel exemple de compressibilité !) mais elles sont régulièrement interrompues par une trompette hors tonalité. C'est la fameuse "question" à laquelle un quatuor de bois tente vainement de répondre, sur un ton de plus en plus dissonant. Leonard Bernstein a magistralement analysé cette œuvre emblématique de la musique américaine naissante dans la Leçon 5 de ses incontournables Six Norton Lectures in Harvard (1973).
Il a cependant fallu attendre Arnold Schönberg (1874-1951) pour que la redondance tonale soit systématiquement remise en question. Après une période d'atonalité libre (Drei Klavierstücke, opus 11, notez l'absence d'armure, sur la partition qui défile), encore ancrée dans une certaine tradition, c'est vers 1920 qu'il a formalisé le principe de la série dodécaphonique, destinée à remplacer le thème cher à la musique classique. Schönberg s'est parfaitement rendu compte qu'en instaurant une démocratie entre les 12 notes de la gamme tempérée et en bannissant toute forme de répétition, il perdait d'office un élément vital de compressibilité syntaxique. Il a compris que l'abandon des anciennes règles en imposait de nouvelles sinon la succession aléatoire des notes menaçait la partition de chaos incompressible. Il a opté pour le principe de la série de 12 sons, assujettissant les développements à toutes sortes de nouvelles règles (Motifs rétrogrades, miroirs, miroirs rétrogrades et leurs conséquences naturelles). Ces règles qui fondent la musique sérielle peuvent paraître arbitraires et elles le sont effectivement mais, au fond, on juge l'arbre à ses fruits et, à cet égard, on se demande pourquoi les Variations pour Orchestre, opus 31, effrayent encore tant d'auditeurs, près de 100 ans après avoir été composées. Schönberg n'était nullement sectaire et il a souvent enfreint les règles qu'il avait lui-même dictées : le premier mouvement de son Quatuor n°3 offre un bel exemple de répétitions s'étendant sur 12 mesures. Ce musicien, pourtant essentiel au 20ème siècle, n'a pas encore convaincu le grand public, qui s'en est toujours tenu à la phrase injustement sévère de Maurice Ravel, "Ce n'est plus de la musique, c'est du laboratoire".
Note sur l'atonalité libre. L'ambition schönbergienne de s'affranchir des repères tonals s'est heurtée à la difficulté suivante : il est de fait aussi difficile d'écrire "de tête" une oeuvre complètement atonale que de positionner "à la main" des points au hasard dans un cadre carré (seul un pseudo-hasard est possible). Des réflexes tonals s'y opposent, qui ont pour conséquence d'incorporer de courts motifs en rapports harmoniques ne produisant, au bilan, qu'une oeuvre pseudo-tonale. Schönberg n'a pas trouvé d'autre issue que d'imposer un ensemble de règles contraignantes, celles qui fondent précisément la musique sérielle. Sa solution n'est cependant pas la seule envisageable (cf infra, une variante due à Hauer).
Beaucoup de compositeurs ont sauté dans le train mis en marche par Schönberg, à commencer par trois de ses élèves, Alban Berg (1885-1935), Hans Erich Apostel (1901-1972) et Anton Webern (1883-1945). Chacun a trouvé sa voie, en particulier au niveau des critères du choix des séries. Sans répétition, il existe 12 ! = 479 001 600 séries dodécaphoniques différentes et certaines (peu nombreuses !) s'avèrent plus consonantes que toutes les autres. On retrouve, à cet égard, tout l'éventail des complexités. Qu'il existe des séries à fort potentiel consonant ne devrait surprendre personne, il suffit d'enchaîner les notes en respectant leurs liens harmoniques. Un bel exemple ouvre la Faust Symphonie de Liszt : l'accord initial est suivi d'une série dodécaphonique avant la lettre, à laquelle l'oreille se laisse prendre du fait qu'elle est organisée par triades successives . A l'opposé, les séries aléatoires (Les 12 sons, tirés au sort !) sont de complexité maximale donc difficilement gérables.
Pendant la période difficile qui a suivi la deuxième guerre mondiale, le principe de la série a été généralisé à tous les paramètres sonores. Dans leurs œuvres les moins conciliantes, Pierre Boulez (1925-2016) et Karlheinz Stockhausen (1928-2007) ont atteint les limites de la complexité audible.Klavierstücke de Stockhausen est tellement expérimentale qu'elle décourage l'immense majorité des auditeurs, étonnés que l'histoire ait conservé des témoignages d'expériences aussi peu concluantes (Qu'aurait pensé Ravel ?). Sachez qu'il existe un autre Stockhausen, musicien très supérieur à l'expérimentateur : le contraste entre Klavierstücke et Tierkreis, Stimmung (Exigez la version de Copenhague, par l'Ensemble vocal de Paul Hillier) ou le 4ème acte de Samstag aus Licht (Luzifers Abschied) est de fait saisissant.
L'hyper complexité a coûté cher à la musique (post)sérielle : le public l'a tout simplement ignorée. Une réaction était inévitable et la tonalité a refait surface ou plus exactement la modalité. C'est une manière de concevoir la redondance, en restreignant autrement l'ensemble des notes utilisées. La modalité étendue prolonge les modes majeurs et mineurs qui avaient finis par s'imposer en musique classique : elle en considère beaucoup d'autres dont certains d'ailleurs très anciens. Gammes par tons entiers (Debussy), gammes à transpositions limitées (Messiaen), gammes exotiques, Blues, ..., ont ouvert la porte aux brassages postmodernes, typiques de la fin du 20ème siècle.
Le mouvement minimaliste, né aux USA, a clairement souhaité renouer avec un certain confort d'écoute, en restaurant les compressibilités mélodiques et rythmiques. Il ne faut pas se méprendre sur le degré réel de complexité des premières œuvres de Philip Glass(1937- ), très supérieur à ce que l'appellation musique répétitive pourrait laisser entendre : l'extraordinaire Knee Play III, extrait de l'opéra, Einstein on the Beach, est envahi par une prolifération rythmique sans cesse changeante, qui complique la tâche des interprètes. Au bout de deux minutes, la cascade des notes laisse place à un bel épisode planant, puis la séquence complète recommence à l'identique, au bilan une belle synthèse de procédés redondants. Plus récemment, au grand dam des experts mais pas d'un public jeune, Glass a rendu son style nettement plus compressible, en assagissant le rythme et en multipliant les arpèges consonants (The Civil War Acte V, Scène A, Concerto pour violon n°1, ...). Son collègue, Steve Reich (1936- ), a davantage travaillé la complexité rythmique, ce qui a contribué à le maintenir à l'abri des critiques malveillantes (The four Sections). Le minimalisme a fait école en Europe et je vous renvoie aux chroniques dédicacées, particulièrement celles qui concernent l'Estonie (Arvo Pärt, …), la Grande Bretagne (John Taverner, …) et les Pays-Bas (Simeon ten Holt, …). Je me contenterai de rappeler le Canto Ostinato, du dernier cité, qui séduit par la subtile contorsion de ses méandres, aux pouvoirs nettement hypnotiques.
Le courant minimaliste ne pouvait s'éterniser sans risquer l'implosion. Le balancier de l'histoire musicale s'est dès lors tout naturellement remis à osciller dans le sens inverse : John Adams, aux USA, est rapidement devenu le chantre d'une nouvelle complexité ... décomplexée, à 1000 lieues des excès du post sérialisme. Il est aujourd'hui suivi par toute une génération (Guillaume Connesson, ...) dont vous trouverez des échos, sur ce site, dans les chroniques dédicacées à chaque pays.
Pour qu'une musique soit compréhensible, il faut qu'elle soit compressible donc redondante mais cela ne suffit pas. Encore faut-il que cette redondance soit détectable, en temps réel, afin que le cerveau puisse passer, avec succès, le test de Shannon.
Enfin, qu'il soit clair que si la théorie de l'information éclaire le processus mental du décodage de l'oeuvre d'art, elle ne se prononce pas sur la valeur esthétique de celle-ci, une notion éminemment subjective et peut-être même superflue. Après tout, il n'est nullement certain que l'art doive nécessairement viser la beauté, au sens apollinien du terme. Qu'elle réussisse à libérer les démons intérieurs de leur créateur et à stimuler l'imagination des spectateurs ne serait déjà pas si mal.