Qu'est-ce que la synthèse par modèles physiques
vous a apporté de plus que les autres types de synthèse
?
A dire vrai, je n'ai pas re-réfléchi à
tout cela dans la perspective de cet entretien. Je suis maintenant
assez loin de cela, dans le sens ou je ne l'ai pas, premièrement,
utilisée depuis cinq ans. Deuxièmement, dans la
prochaine production que je dois réaliser à l'IRCAM,
je ne compte pas non plus l'utiliser. Dans mon cas, le travail
sur Mosaïc a été lié à un moment
un peu particulier de mon travail de compositeur, mais ce n'est
pas non plus exactement une constante. Ce sont des choses qui
sont un peu pour moi je ne dis pas « dépassées
», ce n'est pas cela, mais disons plutôt achevées.
Je suis un peu obligé de vous expliquer l'histoire de mon
rapport à Mosaïc pour que vous compreniez Je suis
arrivé à l'IRCAM, pour participer à un atelier
qu'organisait Marc Battier, il y a de ça, je crois, plus
de dix ans. Les différents types d'activités de
l'IRCAM, nous étaient présentées comme un
menu, et dans un de ces types d'activités, il y avait tout
ce qui concerne la synthèse. Là, effectivement,
j'ai eu tout de suite l'oreille accrochée par la synthèse
par modèles physiques, parce qu'il me semblait que c'était
la manière de pensez la synthèse, la plus proche
du modèle instrumental. Toujours est-il qu'il faut être
capable d'intégrer dans nos catégories, dans notre
manière de penser la musique, ces techniques qui nous sont
proposées, non pas par les musiciens, mais par l'autonomie
du développement technique. Il ne s'agit pas de les reproduire
exactement, mais, pour créer, on est obligé de les
penser à partir de la musique, et non à partir de
l'informatique. Mon statut me permet de faire cela plus facilement,
car j'ai une double compétence musicale et scientifique
qui me permet de ne pas avoir peur de ce genre de travail. En
revanche certains compositeurs sont dans un rapport complètement
extérieur à ces techniques. On leur fournit des
outils. Ils se reposent sur son assistant, écoutent le
résultat, mais ils ne font pas le rapport entre ce qu'ils
entendent et la façon dont cela est obtenu. Moi, ce qui
me motivait, c'était de voir, à l'intérieur,
comment cela était fait. De ce point de vue là,
les modèles physiques sont très intéressants
puisqu'il s'agit au départ de reproduire la chaîne
musicale qui engendre le son. Et parce qu'à mon avis, le
son musical est généré par un corps à
corps, c'est à dire un rapport entre le musicien et le
corps de l'instrument. D'ailleurs, j'aime bien appeler «
corps musical », ce corps à corps, cette espèce
de mélange ou d'hybride qui intervient. Je soutiens que
c'est là « le son musical ». De ce point de
vue là, n'importe quel son n'est pas musical. Il l'est,
pour autant qu'il est la trace de ce corps à corps qui
se trouve, ensuite, non pas amplifié mais projeté.
La synthèse par modèle physique tente, justement,
de reconstituer le son, en remontant jusqu'à son origine
sous forme de corps à corps, puisqu'elle vise à
modéliser l'interaction entre deux corps physiques. Cela
m'a aussitôt frappé, à la fois comme approche
générale et, d'autre part, dans ses résultats
concrets, puisque l'un des grands aspects de la synthèse
par modèles physiques, que vous connaissez sans doute,
c'est qu'elle génère des transitoires. Donc, au
lieu de générer des nappes sonores qui m'ont, personnellement,
toujours paru sans aucun intérêt, elle génère
des sons pourvus de transitoires. Et nous savons, car c'est un
phénomène physique bien connu, que nous reconnaissons
un son par son début et par sa fin, et non pas par sa partie
entretenue.
Il se trouve que les sonorités étales m'ont toujours
ennuyé au plus haut point. Par exemple, j'ai fait beaucoup
d'orgue lorsque j'étais jeune, j'en refais d'ailleurs maintenant.
Et bien, les sonorités de l'orgue, où il y a des
grandes tenues, m'ont toujours paru ennuyeuses. Pour autant que
l'orgue soit un instrument intéressant, ce que je crois,
c'est précisément là aussi dans ses attaques
et dans la possibilité de jouer de cette dimension là.
Il faut bien voir que la synthèse sonore, la plupart du
temps, génère des nappes sonores, c'est à
dire, sécrète ce qu'Adorno avait appelé le
« sentiment océanique ». Vous baignez dans
une espèce de marée de sons. Pour moi, cela est
inacceptable. C'est vraiment la dissolution de la pensée,
de la musique en tant que pensée, car au lieu d'être
assis droit à essayer de saisir la proposition qui vous
est faite, vous vous enfoncez dans votre fauteuil et vous vous
laissez aller. Ce qui est le droit de chacun, mais la musique
n'a plus rien à voir avec la pensée dans ce cas
là. La synthèse sonore a une certaine propension
à se répandre et a générer des espèces
de vagues qui n'en finissent plus, qui ne sont plus contrôlées
ou coordonnées comme peuvent l'être les sons instrumentaux
par la discipline de l'écriture. Dans le cadre de l'écriture,
vous n'allez jamais mettre, sauf cas exceptionnel, 10 rondes liées
à la suite. Alors qu'avec la synthèse sonore, vous
travaillez très spontanément dans des valeurs proches
de 10 rondes à la suite. Ceci est, pour moi, une horreur,
et provoque chez moi une très grande répulsion auditive
et quasi-physique. La synthèse sonore par modèles
physiques ne provoque pas du tout cela, car, au contraire, elle
travaille sur ce qui se passe quand un corps en rencontre un autre,
par exemple quand un marteau rencontre une corde. De manière
assez directe, on obtient des résultats intéressants
parce qu'ayant une vitalité proche de celle à laquelle
on est habitué dans le monde instrumental.
Parmi toutes les possibilités proposées, offertes
dans le cadre de ce stage de formation, je me suis rapidement
intéressé exclusivement à Mosaïc. Je
suis rentré dans l'équipe, au moment ou le procédé
était en train de se mettre au point. C'était en
cela une époque très intéressante. L'équipe
comprenait un ingénieur, physicien, Jean Marie Adrien,
un informaticien, Joseph Morrison, et un compositeur, moi-même.
J'ai travaillé en tant qu'oreille extérieure à
la technique. Cette dimension de recherche m'a beaucoup intéressé,
à cause de l'acuité que cela entraînait dans
l'audition. On écoutait ces sons vraiment comme on aurait
écouté un instrument et pas du tout comme quelque
chose de synthétique. Par exemple, j'ai fait beaucoup d'études
à l'époque (y compris au niveau physique, des équations,
etc.) sur les transitoires de cordes, et c'était passionnant
de voir comment, dans des séquences extrêmement brèves,
les sons pouvaient être très différents selon
le réglage des paramètres physiques. C'était
pour moi, comme une manière d'aiguiser mon oreille à
ces phénomènes.
Au début, il y avait deux dimensions dans la synthèse
physique, qui étaient, premièrement, de reproduire
les instruments, ce qui en soi, n'est pas très intéressant,
mais est une manière d'apprendre à discerner ce
que l'on aime dans les instruments (vous êtes ainsi amené
à préciser ce que vous appréciez, au sens
musical du terme, dans la sonorité d'un violon, dans la
sonorité d'un piano, etc.). Deuxièmement, après
cette première étape, vous êtes censé
pouvoir faire des instruments « extraordinaires »
: un violon de 50 kilomètres de haut, avec 2000 cordes
! Ou bien, vous pouvez jouer d'un archet au milieu d'un gong vous
pouvez faire un certain nombre de choses difficilement réalisables
dans la physique naturelle. Cependant, ces instruments «
extraordinaires » ne m'ont pas paru bouleversants. Je n'ai
pas vu de débouchés de ce côté là,
mais peut-être est-ce un problème d'imagination qui
m'est propre.
Mais, surtout à l'époque où j'y travaillais,
car je crois que ça a beaucoup évolué depuis,
c'est la question du temps réel et du temps différé
qui a été un élément de blocage. A
cette époque, il y a presque dix ans, le temps était
vraiment très différé. Vous lanciez votre
calcul et vous reveniez le lendemain pour avoir le résultat.
Cela est acceptable tant que vous êtes dans la recherche,
cependant, lorsque je suis rentré en production, l'exigence
du temps réel est devenue pour moi absolue. Un autre petit
inconvénient, qui pour moi n'en était pas tellement
un, c'est qu'il fallait coder le modèle en langage scheme,
une variante de Lisp, ce qui était, il faut l'admettre,
assez ingrat, parce que, par rapport aux autres interfaces, il
est beaucoup moins intuitif. Cependant, il a simplement fallu
que je m'y habitue et le principal problème restait, pour
moi, celui du temps réel et du temps différé
car le coût en temps de calcul était assez lourd.
C'est là qu'il faudrait faire une digression sur la question
des modes. Mosaïc est une synthèse par composantes
modales. Cette dimension modale est assez particulière,
assez intéressante, dans ce logiciel là, et mérite
d'être connue et comprise. L'intérêt que j'ai
eu pour la synthèse par modèles physiques tient
précisément au fait que l'objet était modélisé
dans ce cadre là, et cela aurait été dans
un autre, je ne pense pas que j'y aurais mis le même intérêt.
Dans Mosaïc, vous calculez la façon dont la structure
bouge dans son ensemble, cette façon de bouger est décomposée
en différents modes de plus en plus complexes. Sur une
corde, le processus est simple et les modes correspondent en gros
aux harmoniques, mais pour une plaque cela devient beaucoup plus
complexe. Un mode est « une fréquence à laquelle
tous les points de la structure bougent à la même
vitesse ». Le calcul de ces modes peut être assez
compliqué car il faut des matrices assez larges, mais dont
la taille est proportionnelle à la manière dont
vous discrétisez votre surface. Le résultat c'est
qu'en temps de calcul cela peut assez vite devenir pénible.
Les autres synthèses physiques peuvent être, je crois,
plus efficaces en temps de calcul mais le sont moins, soit en
terme de qualité sonore, soit en généralité.
L'intérêt de la synthèse modale, s'est qu'elle
est applicable à de nombreuses structures différentes,
alors qu'une autre technique pourra modéliser une corde
de façon beaucoup plus économique mais ne pourra
absolument pas réutiliser la même simulation avec
une plaque, pour laquelle le processus sera totalement différent.
Mais, pourquoi cette importance du temps réel ?
Pour moi le temps réel était absolument essentiel
car il restituait l'écriture. Il se trouve, pour moi, que
la dimension de l'écriture en musique a toujours été
essentielle. D'ailleurs, plus j'y réfléchis et plus
je me renforce dans ma conviction de son importance extrême.
Il se trouve qu'en ce moment je réfléchis beaucoup
sur des questions de logique en musique et je viens à penser
que l'écriture est le transcendantal de la musique au sens
kantien du terme. Pratiquement, l'écriture a pour moi comme
vertu extrême qu'elle permet de ne pas uvrer directement
sur le son, comme un sculpteur travaille sa glaise, ce qui pour
moi, est le cauchemar et même l'horreur. C'est insupportable,
car j'ai vraiment le sentiment de ne plus pouvoir penser, d'être
complètement collé au matériau dans toute
sa « vulgarité ». Je suis, à ce moment
là, complètement happé par lui et je n'ai
plus de distance suffisante, d'écart, de faille, de coupure
pour pouvoir me situer face à lui et m'en rendre maître.
Au lieu de me rendre maître du matériau, c'est le
matériau qui se rend maître de moi. En musique l'opérateur
est la lettre musicale, la note, l'écriture. C'est une
notion d'autant plus importante qu'elle est à l'origine
de mon désir de composer. Dans mon histoire, à un
moment donné, j'ai fait du jazz. Là, j'étais
assez proche de cette manière directe de travailler le
matériau et, précisément, mon envie de devenir
compositeur a été motivée par ma volonté
de rompre avec ce régime, de mettre la table de travail
entre le son et moi. Avoir un son en tête est tout à
fait différent que de l'avoir physiquement dans son oreille.
On raconte d'ailleurs souvent des inepties sur l'écoute
intérieure. L'écoute intérieure n'est qu'une
imagination. Imaginer tenir la main de sa femme et l'avoir physiquement
à ses côtés, cela n'a rien à voir.
Certains affirment : « l'écoute intérieure
me suffit », mais dans ce cas, ils ne sont pas en contact
direct avec la matière physique sonore. Donc, l'écriture
est pour moi essentielle, sinon je ne peux qu'étaler du
son, tartiner, improviser au piano, mais je ne peux pas composer.
Dans cette uvre (Dans la distance), je devais évidement
utiliser l'électroacoustique, cela faisait partie du cahier
des charges. Ne pouvant pas utiliser Mosaïc en temps réel,
j'ai alors pris un autre parti sur un autre type de synthèse,
qui n'en est pas tout à fait un. Celui-ci consiste à
empiler des petites briques sonores, échantillons d'une
seconde, grâce au logiciel Max. Ces briques ou échantillons
sont, soit générés par des modèles,
par exemple certains ont été générés
par Mosaïc, soit enregistrés d'après des sons
naturels (piano, voix). Elles sont ensuite empilées à
grande vitesse, c'est ce que l'on peut appeler « synthèse
granulaire ». Cette technique est extraordinaire car vous
constituez au départ votre réservoir de petites
briques, puis vous constituez votre empilage. Vous obtenez des
sonorités qui peuvent être vraiment fabuleuses. C'est
un peu comme un grand orgue, vous utilisez cela un peu comme quand
vous tirez les jeux dans un orgue. Ce qui est surtout intéressant
c'est que vous l'écrivez, vous décrivez la structure
de votre matériau, dans le langage de Max, qui possède
à un certain niveau, une sorte d'abstraction. Quand vous
utilisez avec des notes vous réalisez une structure : vous
n'écrivez pas le son, juste une structure. L'écriture
informatique avec Max, dans ce type de synthèse granulaire,
est du même genre. Un des intérêts majeurs
est, qu'à partir du moment ou vous avez une structure,
vous pouvez changer vos grains. Évidement, cela ne produit
pas tout à fait le même résultat, mais vous
vous rapprochez d'une situation proche de l'interprétation.
Par exemple, Beethoven écrivait pour un piano forte une
structure qu'est la partition. Si l'instrument évolue,
on réutilise la même structure, cette partition,
et il en reste toujours quelque chose. Pour Dans la distance,
j'ai travaillé avec un système de grains échantillonnés
mais imaginez que dans 10 ou 20 ans tout ceci soit bouleversé
pour une raison ou pour une autre, qu'on ait de meilleures sonorités
cette structure là est réutilisable comme l'est
une écriture.
Voulez vous dire que vous n'êtes pas attaché
au timbre ?
Si, dans ce cas là le timbre est essentiel. Vous n'obtenez
pas le même résultat si vous empilez des sonorités
de violoncelle, de flûte ou même des voix que j'utilise
à un moment donné. Ceci fait partie de la structure,
mais c'est un peu comme une partition d'orchestre : quand Mozart
écrit « flûte », il est attaché
à la sonorité, n'empêche que les flûtes
ne sont pas forcement les mêmes, les manières de
jouer non plus. Lui ne fixe pas telle ou telle sonorité
de la flûte, il fixe une structure nommée «
instrument flûte ». Dans les grains, vous fixez certains
grains de violoncelle, flûte, etc. Pour réaliser
ces grains vous utilisez un répertoire que vous entrez
dans la machine. Mais on pourrait changer, non pas le violoncelle
pour une flûte, mais imaginez qu'au lieu d'échantillonner
à 48 000 par seconde, dans dix ans on échantillonne
cela à dix fois plus, vous reprenez votre même structure
avec des sonorités du même type mais qui seraient
échantillonnées autrement. Donc, ce n'est pas l'indifférence
totale, c'est qu'au lieu de prendre un son qui est complètement
arrêté puisqu'il est figé une fois pour toutes,
vous l'indexez par un nom générique, comme on met
« flûte » et vous ne précisez pas si
votre flûte est en plastique ou autre, vous ne vous préoccupez
pas de ces questions-là.
Donc vous avez une écriture au sens musical du terme. Ce
n'est pas la même car elle ne se fait pas en notes, mais
c'est une écriture. Les deux gros intérêts
pour moi, c'est que vous travaillez sur l'écriture donc
vous êtes à distance. Évidemment vous êtes
dans un studio donc vous entendez tout de suite le résultat,
là n'est pas la question mais en entendant un son, on ne
pense pas à le figer parce qu'il est satisfaisant (c'est
un peu l'expérience que j'ai eue avec Mosaïc qui pour
cela était très dure), mais au contraire on se demande
comment on peut changer la structure, par exemple si je change
ma densité de grain, qu'est-ce que ça donne. Donc,
premièrement, vous êtes plus dans la logique de ce
que, pour moi, composer veut dire. Deuxièmement, votre
résultat reste ouvert à des réalisations
différentes dans le futur, comme une partition.
Quelle utilisation effective avez-vous finalement fait de
Mosaïc ?
A cette époque là, écrire pour Mosaïc,
ce n'était pas possible puisqu'on n'avait pas le temps
réel. J'ai quand même utilisé ce logiciel
pour certaines sonorités, pour les grains, pour les sons
de clavecin. C'était plus intéressant pour moi d'avoir
un son de clavecin généré par synthèse
physique que d'avoir un clavecin échantillonné.
Pour ce clavecin, ce son de corde pincée, j'ai pris Mosaïc
car je le connaissais bien, et parce que cela permettait tout
de suite d'obtenir un type de grain plus intéressant que
par les prises de son habituelles. Il s'agit là d'un usage
un peu « bas de gamme » du logiciel dans le sens ou
il fournit des échantillons de seulement 1 seconde. Les
sonorités de percussions que j'ai utilisées sont
aussi des grains obtenus par MosaÏc. Mais, sur une quantité
de 48 grains environ que je pouvais utiliser, je n'en ai réalisé
que 5 ou 8 de cette manière, le reste étant des
sons échantillonnés.
Ceci est donc un premier usage que j'ai fait de Mosaïc. Sinon,
sans temps réel je ne voyais pas très bien ce que
je pouvais faire. Néanmoins, je l'ai utilisé, pour
des raisons hétérogènes, d'une part parce
que cela m'arrangeait d'avoir des sonorités plus continues,
pour des raisons intrinsèques à la composition,
et aussi pour des raisons d'attachement à Mosaïc :
après tout le travail que j'avais fait dessus, je voulais
voir, au maximum, tout ce que je pouvais en tirer. Je me suis
un peu forcé, on va dire, à faire des sons «
Mosaïc » un peu plus larges et non simplement des échantillons.
Comme je ne pouvais pas travailler en temps réel, j'avais
constitué une panoplie de sons « Mosaïc »
plus longs, de percussions, qui duraient 10-15 secondes. Chacun
des sons avait quelque chose d'intéressant, mais cela n'était
pas suffisamment donc il fallait mixer le tout. Là, j'ai
passé un temps très important en studio pour mixer
ces sons, et en faire des sons « intéressants »,
c'est à dire qui m'intéressaient dans le cadre de
la composition. J'en ai fait, je crois, trois qui duraient 15
secondes. Ceci a vraiment été pour moi, le cauchemar,
l'horreur, car je travaillais sur ProTools et je n'étais
plus du tout dans le cadre de l'écriture, j'étais
comme le sculpteur qui modèle sa glaise. J'ai eu l'impression
d'un travail infini, c'est à dire qui n'en finissait jamais,
où j'étais maîtrisé plutôt que
de maîtriser. Je n'avais pas les opérateurs pour
me tenir à distance et j'étais simplement à
chaque fois obligé pour essayer de penser une sonorité,
de l'entendre, ce qui est dramatique parce que cela dure des heures
et des heures. A la fin vous êtes plus que dégoutté
de vos sons. Vous n'avez pas d'autre moyen. Vous ne pouvez pas
les penser par une écriture : il n'y en a pas. Donc, vous
êtes obligé de vous les renvoyer, d'être collé
à eux. Cela a vraiment généré chez
moi un dégoût énorme de ce principe, et puis
l'impression que je n'arrivais plus à m'en défaire.
Il n'y avait pas de temps réel, pas d'écriture possible,
et je me retrouvais avec ces sonorités là à
faire du mixage comme je ne voulais pas en faire.
Cette sensation d'infini est quelque chose d'important car l'autre
chose essentielle dans l'écriture c'est que c'est un opérateur
fini. Quand vous écrivez, vous employez des notes, et même
si vous rassemblez tous les symboles de la planète, ces
signes forment un stock fini. Par définition, c'est discret
et c'est dénombrable. Ceci est vraiment extrêmement
précieux pour la pensée parce que quand vous êtes
devant un son même d'une seconde, très vite vous
êtes devant, absolument l'infini. Si vous rentrez dans sa
décomposition, vous êtes devant un puits quasiment
sans fond. Très vite vous perdez vos repères. Par
exemple, vous changez un petit bout d'attaque, vous regardez cela
à l'écran, vous ne pouvez pas savoir quel est le
résultat, vous êtes obligé de réécouter.
Chaque fois vous êtes confronté au fait de recoller
à votre matériau. Vous avez une impression qui est
infinie puisque vous n'avez pas de lettres pour le discrétiser.
Dans cette uvre qui dure 20 minutes, il y a beaucoup de parties
électroacoustiques. Il y a 18 minutes d'électroacoustique,
et Mosaïc ne m'a servi que pour moins d'une minute en ce
qui concerne ces sons d'une certaine durée, mais il intervient
pour les grains à d'autres moments.
Maintenant qu'il y a possibilité de travailler en temps
réel, pensez-vous, prochainement, refaire usage de cette
technique de synthèse ?
Je pense que les modèles physiques doivent être,
maintenant que l'on s'est beaucoup rapproché du temps réel,
plus utilisables, mais je n'en ai pas d'expérience récente.
Cependant, pour ma production l'année prochaine, j'ai d'autres
priorités. Je vais travailler à l'amélioration
des moyens de diffusion que je trouve insatisfaisant pour l'instant.
Cette production sera donc centrée sur un autre mode de
diffusion qu'est la boule de haut-parleurs. Je n'ai pas envie
de m'encombrer de trop de questions, donc, j'utiliserai la synthèse
granulaire qui est vraiment très souple et je me concentrerai
sur cette boule. Je ne profiterai pas de cette occasion pour retravailler
la synthèse modale, mais si j'avais à le faire,
il faudrait que je revoie l'état de Mosaïc. Et, à
ce moment là, j'en referai usage, sous l'hypothèse
que maintenant il y ait des dispositifs d'écriture qui
permettraient de discrétiser, de se tenir à distance,
et de réfléchir sur l'écriture elle-même.
Pour vous donner une idée de ce pouvoir que l'on ne peut
obtenir que par l'écriture voici un exemple : avec la synthèse
granulaire, je préparais le matériau, mais je pouvais
travailler les contrastes chez moi. J'avais une même structure
puis je décidais d'utiliser des sons d'un certain type,
mettons, des sons de cordes frottées, puis, à un
autre moment, j'utilisais uniquement des sons de cordes pincées
ou des voix, etc. je travaillais déjà des grandes
structures : c'est une manière de penser la musique. Quand
vous n'avez pas cela, vous êtes pris dans l'infini, en plus
qui colle le son peut ne jamais s'interrompre, il a une tendance
à se répandre. Si vous avez une belle sonorité,
pourquoi l'interrompre ? Une fois que vous êtes installé
dedans vous pourriez bien y rester, et puis cela se répand,
se répand Et comment arriver à penser le contraste
entre ceci et l'autre structure que vous pouvez faire ? Vous ne
pouvez pas, et vous êtes à chaque fois ramené
à votre matériau.
Pensez-vous que la synthèse par modèles physiques
facilite la fusion entre partie synthétique et partie instrumentale
dans les uvres mixtes ?
Oui, absolument, pour deux raisons. Premièrement, parce
que le son, dans la synthèse par modèles physiques,
est lui-même conçu comme l'effet d'un corps à
corps. Encore une fois, je pense que le son musical est tel.
Un autre de mes axiomes c'est que je ne suis pas pour la théorie
des deux mondes, la « doxa » d'aujourd'hui, selon
laquelle il existe deux mondes : le monde des instruments et le
monde de l'électroacoustique. La plupart des compositeurs
le pensent comme cela, c'est à dire qu'on vous expose de
l'électroacoustique - premier monde - on vous expose ensuite
de l'instrumental - deuxième monde - et puis un passage
de l'un à l'autre, une confrontation est envisagée.
Cela, je ne le veux pas, parce que je pense qu'il n'y a qu'un
monde de la musique. Il y a deux façons de répondre
à la question des deux mondes, il y a celle de l'Itinéraire
qui essaye de rapprocher la musique des sonorités électroacoustiques,
de considérer que l'écriture traditionnelle n'a
pas tellement d'intérêt et qu'il faut que l'orchestre
s'aligne sur les sonorités électroacoustiques. Je
soutiens la proposition absolument inverse, qu'il faut arriver
à organiser, à structurer tout ce monde de l'électroacoustique
selon des catégories musicales. Ce qui permet de résoudre
ce problème, c'est la catégorie de l'image. Je suis
venu à penser que ce qui sortait des haut-parleurs n'était
pas vraiment un son musical, mais l'image d'un son musical. Ce
n'était pas exactement de la musique mais l'image de la
musique. Il fallait absolument considérer tout cela comme
un même monde. Il y a donc deux manières de réduire
le problème selon qu'on l'attaque par un côté
ou par l'autre. Je suis tout à fait contre le thème
actuel qui est de penser qu'il y a un monde actuel et un monde
virtuel, ce sont des balivernes, il n'y a pas de monde virtuel.
Il n'y a rien de virtuel. Simplement, il y a des images et des
choses qui n'en sont pas. Un monde est une chose, capable d'inclure
à l'intérieur de lui-même, des images de lui-même.
Ce « monde de l'électroacoustique » n'en est
pas un. Il est juste l'image de la musique que vous pouvez composer.
Vous pouvez composer un monde qui comporte à l'intérieur
de lui-même ses propres images. Encore faut-il que ces images
soient « intéressantes ». Et là ces
images me semblent justement intéressantes car ce sont
des images directement de la musique puisque se sont des images
de corps de corps. Alors que j'aurais plus de mal à intégrer
dans une uvre musicale un mélange de sons musicaux et d'images
de sons qui ne seraient pas musicaux (des tracteurs, des gens
en train de parler). Je ne dis pas qu'il ne faut pas le faire,
mais moi je ne le fais pas. Bien sûr, j'introduis des foules
dans Dans la distance, mais pour les voix, c'est un peu
différent car elles relèvent d'une habitude musicale,
et elles portent le texte : les voix sont des corps.
Donc, la principale raison de la facilité d'une fusion
entre modèles physique et instruments, c'est parce que
c'est un corps à corps. Ce n'est pas exactement pareil
parce que c'est une image, il y a une sorte d'interface supplémentaire,
mais la structure, derrière, est la même.
Deuxièmement, parce que l'on peut espérer, quand
il y aura le temps réel, se rapprocher du point de vue
de l'écriture, d'une écriture musicale plus traditionnelle.
Sur la question de la double écriture, le point qui était
essentiel c'est : il faut que ça s'écrive. Mais,
cela ne s'écrit pas de la même manière alors
cela pose quand même un problème. Dans la partition
de Dans la distance, il y a une partie instrumentale en haut et
une partie électroacoustique en bas. Il se trouve que j'ai,
en même temps, mis une couche supplémentaire qui
est une couche MIDI. J'ai traité ma synthèse granulaire
comme un instrument jouant des hauteurs MIDI, donc jouant des
notes. Le gros intérêt de l'informatique c'est que
c'est un peu plus compliqué que cela, parce qu'à
une note vous n'associez pas simplement un type de synthèse
granulaire mais vous pouvez lui faire faire d'autres choses plus
subtiles. Enfin, j'ai gardé et contrôlé tout
cela par un niveau de structure musical habituel, c'est à
dire une partition. Il y avait derrière cela, dans l'ordinateur,
la structure en terme de synthèse granulaire (à
tel moment donné on empile telles briques, etc.). Ce n'était
pas complètement déconnecté non plus. On
pourrait imaginer, à terme, avec la synthèse physique,
que l'on se rapproche beaucoup de l'écriture traditionnelle.
Vous qui vous intéressez tant au temps réel,
je suppose que les travaux sur les contrôleurs gestuels
vous intéressent ?
J'ai vu ceux proposés par Claude Cadoz, il y a un certain
temps. Cela semblait tenir plutôt du bricolage. A terme,
je pense que cela peut être intéressant, mais ce
que j'en avais vu était un peu élémentaire.
Pour moi il n'était pas question d'utiliser des choses
aussi grossières. Pourtant, c'est un point important. L'idée
de réinstrumentaliser l'électroacoustique apparaît,
par exemple, dans la musique techno par le fait qu'ils réintroduisent
le « corps » à travers les gestes des mains
sur la platine. Dans l'idée, il y a quand même la
réintroduction du corps humain comme étant en corps
à corps avec autre chose, qui n'est pas exactement un corps
physique. Quelque chose d'autre qui est l'électroacoustique.
En ce sens, toute l'orientation pour le contrôle gestuel
attire ma sympathie de principe. Mais, encore une fois, tout ce
que j'en avais entendu montrait que l'on en était encore
au stade préhistorique. Ce n'est quand même pas évident
d'inventer quelque chose de significatif à ce niveau, d'autant
plus qu'il faut vraiment inventer. En techno, l'instrumentalisation
de la platine a abouti à des gestes qui ne sont pas des
transpositions de gestes musicaux traditionnels, mais des inventions
complètes. En revanche, j'avais l'impression que les contrôles
gestuels, au départ, étaient trop décalqués
du geste instrumental habituel. Je pense que cela pourrait vraiment
marcher s'il s'agissait de nouveaux types de gestes. Mais je ne
me permettais pas de me prononcer sur ce qui se fait actuellement
car je ne connais pas l'état des choses. En tous cas, si
dans cette production j'avais à reprendre cela, je crois
que, par prudence, je ne m'y risquerais pas trop pour le moment,
parce qu'il faut des virtuoses. Quand vous produisez, vous ne
pouvez pas vous mettre sur le dos tous les problèmes du
monde. Je trouve bien, chaque fois de me concentrer, dans la partie
électroacoustique, sur un problème particulier.
Tout ça pour dire : les gestes, oui, mai j'ai l'impression
qu'ils sont encore à inventer.
Une interface gestuelle ou graphique n'est-elle pas un intermédiaire
supplémentaire qui empêche de maîtriser véritablement
la synthèse ?
Le problème du contrôle est double. Comme la
langue chez Ésope, c'est la meilleure ou la pire des choses.
D'abord, qu'il y ait un intermédiaire par rapport au son,
c'est plutôt une bonne chose, parce que c'est ce qui permet
de couper du son, d'aller dans une écriture. Après,
la question est : « Est-ce la bonne manière d'écrire
ou non ? ». De toute façon, le principe de couper
du son et de s'éloigner du traitement direct par des interfaces
ou des dispositifs d'écriture, est un principe pour moi
essentiel. Par ailleurs il y a un problème, que j'ai rencontré
à l'époque, c'est que vous pouvez vous faire imposer
des schémas qui sont présentés par les physiciens,
les techniciens, comme des évidences, alors qu'ils n'en
sont pas forcément. Les catégories d'écriture
sont des catégories de pensée et non des catégories
techniques. Je prends la « technique » comme un véhicule
neutre en soi, la technique est ce qui ne pense pas, mais la science
pense. La note n'est pas une sur-catégorie technique, elle
prescrit déjà une manière de penser le son.
D'ailleurs, beaucoup de gens s'y opposent, au nom de cette pensée
sous-jacente.
Vu la complexité technique, vu le nombre de passages du
réel au modèle physique, si on rajoute en plus une
interface, des déterminations très importantes interviennent
encore, et au bout du compte, vous pouvez vous trouver confronté
à quelque chose qui est très catégorisé.
Le langage Scheme, lui-même, n'est pas anodin, ce
n'est pas un choix technique uniquement. Il y a aussi des orientations
de pensée qui peuvent se jouer à ce moment là
dans le type de langage, fonctionnel ou non. Cet outil, très
catégorisé vous est, dans ce cas, toujours présenté
comme étant naturel, comme étant technique, sans
parti pris ou ayant des partis pris les plus naturels, les plus
évidents (je ne dis pas que c'est faux, mais moi je ne
crois pas en la nature, je veux dire, je ne crois pas que cela
soit conformé par la nature, il n'y a de toute façon
aucune raison de se couler dans le modèle de la nature).
Donc, vous pouvez très bien penser que votre rapport, qui
est un rapport en pensée au son, est complètement
canalisé, enfermé dans les catégories de
l'interface graphique, qui n'ont rien d'évident parce qu'il
y en aurait d'autres possibles, et vous vous sentez dans l'incapacité
de faire un tout autre chemin, de remonter au modèle physique
et de comprendre ce qui se passe. D'un côté il faut
couper, il faut interrompre, s'écarter du son, c'est mon
parti pris d'écriture. Mais, de l'autre côté,
les catégories d'écriture sont des catégories
de pensée et non des catégories techniques. Soit
vous assumez les catégories d'écriture qui vous
sont données, sinon il faut aller y regarder, il ne faut
pas prendre comme chose allant de soi, les interfaces graphiques
qui vous sont proposées.