JEAN-BAPTISTE BARRIÈRE : UNE BRÈVE INTRODUCTION

Ce texte est la version éditée de la présentation donnée en ouverture d’un concert monographique des œuvres de Jean-Baptiste Barrière le 5 janvier 2018 au Reid Hall de Columbia University à Paris, à l’occasion du soixantième anniversaire du compositeur.

« Depuis toujours, l’une des tâches essentielles de l’art fut de susciter une demande en un temps qui n’était pas mûr pour qu’elle reçut une pleine satisfaction. (…) L’histoire de chaque forme d’art comporte des époques critiques, où elle tend à produire des effets qui ne pourront être librement obtenus qu’après modification technique, c’est-à-dire par une nouvelle forme d’art. »

Walter Benjamin, L’Œuvre d’art à l’ère de sa reproductibilité technique[1]

En guise d’introduction à ce concert, je ne ferai pas d’énumération biographique, que l’on pourra trouver ailleurs. Je ne ferai pas non plus une conférence sur le timbre, l’enveloppe spectrale, et leurs différents facteurs à l’ère du post-post. Je voudrais simplement restituer un peu, avec quelques cas concrets, un certain état d’esprit qui préside à la démarche de Jean-Baptiste, dont nous aurons quelques exemples récents dans ce concert[2]. Dans l’idée du titre de son installation audiovisuelle interactive Autoportrait en mouvement (1998), faire un « portrait en mouvement ». Certains connaissent Jean-Baptiste par un seul des aspects de sa personne ou de son travail, alors que c’est justement la cohérence globale de sa démarche qui le caractérise. Je resterai donc à un certain niveau de généralité, que les spécialistes m’en excusent.

Jean-Baptiste Barrière est né au même moment que l’informatique musicale[3]. Tant et si bien qu’ils sont tous les deux arrivés « à maturité » à peu près en même temps, à la fin des années 1970. Jean-Baptiste a précocement perçu le potentiel de cette brèche, et c’est ce qui l’a conduit à rejoindre en 1981 l’IRCAM[4] et à y conduire et diriger des projets pendant dix-sept ans. La possibilité de la synthèse de sons par ordinateur était selon lui une révolution copernicienne équivalente à celle de l’atonalité de Schönberg, ce moment de l’histoire de la musique où une note pouvait enfin être suivie de n’importe quelle autre, où cet enchaînement n’était plus codifié par les règles de l’harmonie tonale. L’ordinateur permet de franchir un palier supplémentaire : n’importe quel son audible par l’homme peut être synthétisé et enchaîné avec n’importe quel autre, sans aucune contrainte matérielle et notamment instrumentale. Un jeune compositeur ne pouvait que se sentir grisé (sans jeu de mots spectral…) d’avoir accès à ce domaine illimité à travers l’ordinateur, un outil que Jean-Baptiste décrit comme un « système ouvert », « façonnable à volonté par l’intentionnalité musicale en mouvement »[5].

Il ne s’agit pas de soudain laisser la technique envahir la musique. En fait elle y a toujours eu sa place, d’une part dans les traités qui façonnent la théorie et la pratique musicale au fil des siècles, d’autre part de façon implicite et impensée dans la facture des instruments et les techniques de jeu et d’écriture, et souvent c’est quand nous croyons être les plus « libres » et nous fier à ce que nous appelons « l’intuition » que ces impensés parlent à travers nous. Or toute technique est déjà porteuse d’un certain potentiel artistique inhérent. Les instruments eux-mêmes sont la cristallisation d’une théorie musicale. Le piano par exemple matérialise le système tempéré (la division de l’octave en douze intervalles chromatiques égaux), et il permet d’inventer de la musique à l’intérieur de ce système-là. Si donc on veut créer de la musique en dehors de ce cadre, il faut transformer l’instrument ou créer un nouvel instrument, ce qui revient au même. Ce sont notamment les compositeurs de l’IRCAM qui ont poussé Yamaha à réaliser le premier synthétiseur numérique commercial permettant de changer l’accord et de sortir du tempérament égal. La même chose vaut bien sûr aussi pour l’orchestration, et le fait de commander aux compositeurs des œuvres pour toujours le même type d’instrumentation standard vient avec ses conventions sur la manière de l’utiliser.

L’ordinateur, selon Jean-Baptiste, peut donc permettre de surmonter tout cela. D’abord en s’inscrivant dans une perspective de continuité avec l’histoire de la musique : le projet de la recherche en informatique musicale, c’est méthodologiquement d’abord de « rendre explicites toutes les manipulations conceptuelles en œuvre dans le travail compositionnel »[6].

Car il ne s’agit pas d’avoir un rapport à la technologie qui soit fétichiste ou technophobe (post-heideggérien), les deux tendances dominantes à l’époque, et singulièrement encore aujourd’hui. La technologie peut être l’instrument de la barbarie totalitaire et du consumérisme aliénant, mais aussi celui de la science, de la création et de la démocratisation des connaissances. Pour cela il faut une méthode, et si on est capable de comprendre de l’intérieur la technologie, les principes qui en permettent l’existence, elle peut justement nous fournir cette méthode elle-même, et permettre son propre dépassement. Vous le savez si vous avez déjà touché à la programmation : si vous voulez qu’un ordinateur fasse ce que vous voulez, vous devez être capable de dé-composer et d-écrire ce que vous voulez obtenir. C’est du reste déjà le problème qui se pose dans la notation musicale traditionnelle au compositeur qui veut transcrire ses idées et obtenir du musicien-lecteur le résultat qu’il s’imagine. Problème, et vertu : l’informatique musicale comme la notation en général obligent à formaliser une pensée musicale, c’est donc aussi l’occasion de la clarifier et de la développer, de la même manière que la notation est pour beaucoup dans l’évolution et le développement de la musique occidentale[7].

Mais développer pour faire quoi ? Face à l’infini des sons accessibles par synthèse, se profile justement le même danger qui s’est fait jour au moment de la libération atonale : le compositeur a besoin de se donner une méthode (étymologiquement, un « chemin au-delà ») pour construire des successions de sons, ce qui a conduit Schönberg lui-même à inventer la méthode dodécaphonique dont a émergé le sérialisme. Le sérialisme permettait de générer des séries de hauteurs qui soient différentes des gammes tonales, et quand ce système s’est épuisé on a pu appliquer le principe aux autres paramètres d’une note, comme les rythmes ou les durées, ce qu’on a appelé le sérialisme intégral. Au moment où Jean-Baptiste commence à composer, ce sérialisme intégral s’est un peu essoufflé, notamment selon lui parce qu’il peine à produire des tensions et donc un « discours musical ». Cependant il lui prête un rôle historique déterminant : celui d’avoir apporté « l’idée qu’on puisse décomposer la musique en paramètres » et traiter ces paramètres à égalité, en sortant de l’idée que tout repose sur un paramètre-roi, la hauteur, et sur la mélodie qui est la combinatoire des hauteurs. Mais en les séparant, le sérialisme a cloisonné ces différents paramètres, et a négligé les « ordres de perception conditionnés par le système complexe des relations qu’entretiennent [entre eux] les différents paramètres »[8]. Une science alors en plein essor, la psycho-acoustique, permet d’envisager comment les différents paramètres font système, c’est-à-dire qu’ils se modifient les uns les autres dans la perception. On peut créer des outils pour ne plus écrire à partir des sons comme abstractions formelles, mais dans la complexité de comment ils sont perçus.

Mais tout cela ne fait pas encore un chemin dans les sons. Les compositeurs sont à ce moment au désespoir de construire des formes à partir de la multitude de sons possibles. Ils cherchent partout des modèles formels, dans les probabilités, dans la théorie des jeux, dans la théorique cinétique des gaz en physique. Jean-Baptiste a la chance de faire ses études dans les années 1970 et de pouvoir se nourrir d’un terreau intellectuel autrement plus fécond que le simple formalisme mathématique, qui convient pour la combinatoire sérielle mais pas pour l’approche totale qui l’intéresse. Toutes les sciences sont alors en train de converger dans l’étude interdisciplinaire de ce qu’on appelle les systèmes complexes et dynamiques, à l’aide de nouveaux champs comme la systémique et la cybernétique, on formalise l’émergence, c’est-à-dire l’idée intuitive (mais peu compatible avec un certain réductionnisme) selon laquelle le tout produit quelque chose qui n’est pas dans la somme de ses parties. Deleuze et Guattari parlent de rhizomes, de corps sans organes – des modèles à la fois scientifiques, poétiques et politiques. La physique explore les systèmes ouverts à bifurcations. La théorie des catastrophes permet d’envisager l’unité de processus discontinus, des processus complètement inaccessibles aux sciences classiques mais aussi au sérialisme par exemple. C’est une période passionnée dans la recherche en épigénétique, c’est-à-dire la recherche sur les processus complexes par lesquels les organismes se forment, et des chercheurs comme le biologiste C.H. Waddington[9] dont la lecture est fondamentale pour Jean-Baptiste, envisagent que les modèles qui émanent de ses recherches peuvent s’appliquer en dehors de la biologie, à l’étude de l’univers en général et des sociétés humaines en particulier. C’est un moment extraordinaire où l’on défie l’hyperspécialisation scientifique, et où l’on découvre des structures complexes communes à toutes sortes de phénomènes et d’échelles, et Jean-Baptiste comprend qu’il ne s’agit pas simplement d’une approche formaliste, mais de faire émerger dans la musique des structures qui traversent l’ensemble de l’univers, ce que le cybernéticien Gregory Bateson appelait « les structures qui relient »[10], une expression que Jean-Baptiste cite à peu près dans tous ses textes avec une obsession faustienne.

Ce qu’il entreprend donc grâce à l’ordinateur, c’est en filant la métaphore biologique de construire une morphogenèse, une méthode de « genèse des formes », « une grammaire des processus formels ». Une méthode qui permette de gérer en compositeur tous les paramètres de la composition de façon organique. Par exemple, et c’est aussi un point de méthode important dans la musique dite spectrale qui se formalise à ce moment-là à l’IRCAM, analyser un matériau sonore permet de développer des façons de l’organiser qui en émanent directement, grâce au formalisme de l’ordinateur[11]. Donc littéralement de s’inspirer de la complexité organique des processus biologiques pour créer une musique complexe, mais émanant d’un développement organique, en phase avec la nature du son et de la perception, et ce en quoi cette nature-là nous relie au reste de comment la nature fonctionne, ce qu’il fait avec une référence directe à Waddington dès sa pièce pour bande Chréode I en 1983. Ces modèles ne se substituent évidemment pas au geste compositionnel, mais lui offrent des matériaux et des principes d’organisation, qui doivent pouvoir aussi être utilisés et, selon le terme de Jean-Baptiste, « court-circuités » : l’intéressant « ce n’est pas le modèle en tant qu’imitation, mais bien plutôt en tant que potentiel de dérivation »[12].

Sur cette organicité qui s’applique à tous les niveaux, je vais citer Jean-Baptiste un peu plus longuement : « L’hypothèse de continuité est sous-jacente à toute cette démarche : continuité de l’expérience vécue avec l’expérience culturelle sédimentée, continuité entre l’intuition musicale et les représentations mentales, continuité des systèmes de production et de perception, continuité des référents à travers des médiums différents, continuité entre synthèse, traitement, instruments, c’est-à-dire finalement continuité entre différentes catégories perpétuellement réévaluées sur l’axe qui mène du naturel à l’artificiel. »[13]

Et en effet il est révélateur que la clef empirique du modèle-phare du traitement électronique du son lui vienne de la pratique instrumentale acoustique, plus précisément de l’expérience suivante : quand un flûtiste chante dans son instrument tout en jouant dessus, l’instrument filtre la voix et la transforme, et donne lieu à un nouveau timbre. Le timbre, rappelons-le pour les non-connaisseurs, est cette propriété assez mystérieuse qui permet de reconnaître à l’oreille qu’une même note autrement identique est produite par tel instrument, ou par telle personne dont on connaît la voix. Le timbre, qui résulte de plusieurs variables indépendantes, est alors mal connu et s’avère riche à la fois en éléments compositionnels une fois qu’on est parvenu à les analyser, et en ce que Jean-Baptiste appelle des métaphores ou analogies, c’est-à-dire des transpositions parfois assez libres de concepts d’un champ à l’autre et qui ouvrent de nouvelles dimension[14]. Bref, pour revenir à notre flûte, le filtrage qu’elle produit, l’électronique permet de le reproduire à l’infini en filtrant et en perturbant n’importe quel son analysé informatiquement selon certains de ses paramètres avec un autre. Non seulement à l’inverse filtrer le jeu de la flûte dans du chant, ce qui est impossible acoustiquement, mais aussi bien n’utiliser que des modèles construits informatiquement et, ce qui est sa solution favorite, mélanger les niveaux acoustique et électronique, jouer sur leur continuité et construire des boucles de rétroaction. C’est le cas du filtrage qui conduit les équipes de l’IRCAM à formaliser les fameux modèles de résonance[15], donc à imiter ce que fait le corps d’un instrument, son résonateur, en réaction au son produit par son excitation par l’instrumentiste. On peut ainsi hybrider différents modèles de résonance et interpoler les timbres, hybrider les caractéristiques de différents instruments, créer des « chimères sonores ». Ici, la psycho-acoustique permet d’étudier quels paramètres sont pertinents dans la perception de l’auditeur, et de construire des modèles à partir d’eux. À l’IRCAM Jean-Baptiste défend en particulier cette interconnexion entre recherches scientifique et artistique, dans laquelle chercheurs comme artistes trouvent leur compte : mieux comprendre le son et sa perception, et en retour mieux écrire de la musique à partir de cette réalité.[16]

L’important est aussi que les instruments nouveaux apportés par l’ordinateur sont évolutifs : chaque nouvelle exploration peut rejoindre une bibliothèque d’outils disponibles, par soi-même et par les autres, selon un modèle humaniste. Se dessine aussi le rêve d’un instrument intelligent, qui soit réellement capable d’être le partenaire de l’instrumentiste, et d’apprendre. C’est aussi toute cette utopie, qui est en partie réalisée aujourd’hui avec la démocratisation de l’informatique, les progrès dans la vitesse des processeurs permettant le traitement en temps réel, et dans l’intelligence artificielle, toute cette utopie donc dont il faut se souvenir, pour se rappeler d’où vient Jean-Baptiste et ce qui a continué de nourrir sa démarche.

Car cette idée de développer de façon organique les différents paramètres compositionnels s’est poursuivie dans plusieurs directions, dans la continuité de la définition que Jean-Baptiste donne de l’activité du compositeur, à savoir « une constante modélisation pluridisciplinaire »[17]. Le geste de l’instrumentiste, l’espace dans lequel a lieu l’expérience de l’écoute, ce sont aussi des paramètres compositionnels, à développer en continuité, respectivement grâce à la transduction des gestes des musiciens avec des capteurs[18], et avec les ressources de la spatialisation sonore. L’image aussi, pourquoi pas, peut être un paramètre musical si elle est envisagée en continuité avec les autres, et Jean-Baptiste a beaucoup exploré la forme de ce qu’il appelle le « concert avec création visuelle » (vidéo), dont le rôle est selon lui d’« écrire l’image comme si celle-ci faisait partie de l’orchestration, prolonger les gestes instrumentaux, éclairer les situations harmoniques »[19], et cela en transposant à l’image les méthodes précédemment appliquées au son comme le filtrage et la perturbation, et encore une fois hybrider les modèles, cette fois entre son et image[20]. C’est aussi le sens de son exploration de la notion d’interactivité, à la fois en concert et dans des formes installations, dont nous n’aurons malheureusement pas le temps de décrire ici les spécificités[21]. Il faut souligner que dans l’écriture musicale étendue de Jean-Baptiste, même si l’horizon toujours repoussé qu’il se donne est le progrès technologique dont il suit avidement les avancées, c’est toujours à la fois le musicien-interprète et l’auditeur-spectateur qui sont au cœur du dispositif. C’est l’humain qui est inscrit au centre de ces vastes structures qui relient l’univers, et il y a quelque chose de pour ainsi dire matérialistement panthéiste dans ce que produit cet athée-là, ce hippie structuraliste qui a opéré, pour lui-même et pour les autres, la synthèse entre ses deux inspirations fondatrices, le rock progressif et la cybernétique.

Notons pour finir que peu de compositeurs ont travaillé autant, à la charnière de la création artistique et de la technique, avec d’autres compositeurs, peu d’artistes multimédia avec autant d’autres artistes multimédia. Il y a ici non simplement un souci de partager des compétences, mais une foi profonde dans le dialogue entre les artistes, dans ce qu’il peut avoir de fécond, mais aussi de nécessaire pour que la création conserve sa vitalité, et continue de s’irriguer de questionnements communs et d’idées contradictoires entre contemporains, ce qui est l’esprit du projet collaboratif qu’il réalise actuellement à la New School for Social Research à New York, The Art of Change.

Dans ses propres mots : « Nous avons la preuve à travers l’exemple de certains recherches contemporaines, notamment dans les sciences cognitives, que seules l’interdisciplinarité et la collaboration – qui sont inséparables et complémentaires – permettent de maîtriser la complexité. »[22]

C’est sur cette déclaration programmatique que je voudrais clore cette présentation, et ouvrir enfin un concert qui verra célébrer certaines créations récentes de Jean-Baptiste (de 2003 à 2018), mais aussi justement ce que sa démarche a compté de collaborations et d’amitiés, car il ne s’agit pas, loin s’en faut, de la quête d’un homme isolé, mais d’une recherche en effet placée sous le signe de « l’interdisciplinarité et de la collaboration », et elle est loin d’être terminée.


[1]Cité dans J.B. Barrière, Pour une esthétique de la musique avec ordinateur (thèse de doctorat soutenue en 1990, sous la direction d’Olivier Revault d’Allonnes, inédite).

[2]Furent représentées à ce concert plusieurs œuvres pour soliste, électronique et images : ViolanceCrossing The Blind ForestEkstasis, ainsi qu’un extrait de l’œuvre en cours d’écriture The 38th Parallel.

[3]L’informatique musicale est un domaine multiple qui a poursuivi plusieurs chantiers parallèles et conjoints mettant l’ordinateur au service de la création musicale, notamment : la synthèse sonore, l’analyse et traitement du son (en différé puis en direct), et les interfaces d’aide à la composition.

[4]Institut de Recherche et Coordination Acoustique/Musique, fondé par Pierre Boulez à Paris en 1970.

[5]J.B. Barrière, Pour une esthétique…, p. 206. Cette définition vaut particulièrement en comparaison et opposition avec le synthétiseur, « système fermé », conditionné pour la diffusion commerciale et l’utilisation normée dans les champs musicaux relevant de l’industrie culturelle.

[6]J.B. Barrière, Pour une esthétique…, p. 306.

[7]Le raisonnement évoqué plus haut sur les théories musicales, formant un cadre compositionnel parfois impensé, cristallisées dans les instruments de musique, vaut aussi pour la notation : « Le choix d’un système de représentation n’est en effet jamais innocent, jamais neutre. » (J.B. Barrière, « Timbre et processus formels », in S. McAdams & I. Deliège, La Musique et les sciences cognitives, éd. Pierre Mardaga, 1989, p. 197.)

[8]J.B. Barrière, Pour une esthétique…, p. 36. Par ailleurs, « on néglige la spécificité et l’idiosyncrasie d’un paramètre, par exemple le fait que l’espace des hauteurs ou des amplitudes ne soit pas linéaire » (op. cit., p. 35).

[9]C.H. Waddington, Tools for Thought, éd. Jonathan Cape, 1977.

[10]G. Bateson, A Sacred Unity: Further Steps to an Ecology of Mind, Harper Collins, 1991.

[11]« La gestion des structures de contrôle des [différents niveaux] est en continuité dans le travail avec ordinateur, et est éventuellement justiciable des mêmes structures de description. » (J.B. Barrière, « Timbre et processus formels », op. cit., p. 188)

[12]J.B. Barrière (dir.), Le Timbre, métaphore pour la composition, Christian Bourgois, 1991, p. 158.

[13]J.B. Barrière, « Timbre et processus formels », op. cit., p. 198.

[14]Parmi les « métaphores » à son sens les plus fécondes proposées par ses collaborateurs, citons notamment « l’espace des timbres » et « l’image auditive » – Jean-Baptiste donnera d’ailleurs pour nom à son association de création multimédia Image Auditive. Plus concrètement sur les métaphores tirées de la recherche scientifique : « Les instruments conceptuels issus de ces représentations pourraient permettre de déterminer des analogies sur les transitions, les modes de substitution, la production de complexité, l’équilibre et l’invariance, la régulation, la résilience, qui pourraient s’avérer particulièrement utiles dans la recherche sur les interpolations de timbre, particulièrement s’ils étaient mis en interaction avec les aspects perceptifs et cognitifs, dans un cadre d’investigation plus général. » (Pour une esthétique…, p. 284). Sur sa pensée de la métaphore, voir bien sûr Le Timbre, métaphore pour la composition,op. cit.

[15]Cf. P.F. Baisnée, Y. Potard & J.B. Barrière, « Méthodologies de synthèse du timbre : l’exemple des modèles de résonance », in Le Timbre…op. cit.

[16]Pour une appréciation rétrospective du climat bouillonnant dans lequel cette utopie s’est réalisée dans les années 80 et son étiolement, cf. J.B. Barrière, « Kaija Saariaho and Musical Research at IRCAM », Music & Literature, n° 5, 2014.

[17]J.B. Barrière, Pour une esthétique…, p. 237.

[18]Cette transduction est en continuité avec le matériau sonore, d’abord évidemment parce qu’il existe un rapport causal direct entre le geste de l’instrumentiste et le son qu’il provoque, mais aussi parce que les processus de captation du temps réel mis en interaction avec l’électronique font aussi déjà partie des procédés de la musique électro-acoustique au strict niveau sonore (pitch followingenvelope followingtimbre following), procédés qui sont donc ainsi étendus/transposés à la gestique.

[19]A. Bonardi & P. Birot, « L’opéra en version de concert avec création visuelle – Points de vue et entretien avec Jean-Baptiste Barrière », in La création lyrique en France depuis 1900, Presses Universitaires de Rennes, 2015, pp. 329-342.

[20]Pour la description de ces méthodes, et la façon dont elles se déploient notamment dans le cadre pluridisciplinaire de l’opéra, cf. A. Barrière & J.B. Barrière, « When Music Unfolds Into Image », in Y. Kaduri (dir.), The Oxford Handbook of Sound and Image in Western Art, Oxford University Press, 2016.

[21]Sur les enjeux et les perspectives de l’interactivité, cf. J.B. Barrière, « It is the nature of the society in which we want to live that is in question », conférence prononcée à l’University of California, San Diego, en 2001, accessible sur le site du compositeur et professeur Roger Reynolds, http://www.rogerreynolds.com.

[22]J.B. Barrière, Pour une esthétique…, p. 14.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s