Laurent Mazliak
L'intervention des techniques aléatoires dans le
système d'analyse qu'Olivier Lartillot propose est fondée
sur des tests statistiques, et donc très grossièrement
sur l'analyse des fréquences de répétitions.
Je me souviens d'un exposé amusant au Grame à
Lyon où quelqu'un était venu exposer ses doutes
concernant la méthode (pseudo) scientifique qu'est la numérologie
; deux Hollandais dont j'ai oublié le nom prétendent
en effet en analysant les oeuvres de Bach voir revenir de manière
obsessionnelle le nombre 14 (qui représenterait le compositeur
en attribuant aux lettres de son nom un nombre dans l'ordre alphabétique
: B = 2, A = 1, C = 3, H = 8), et leur argument « scientifique
» est d'ordre statistique : si cela se reproduit si souvent,
en quelque sorte cela ne peut pas être le hasard. Or, le
conférencier, ayant judicieusement remarqué que
le nombre 14 représente aussi un autre compositeur du XXe
siècle (je ne me rappelle plus lequel), se demandait s'il
fallait en tirer la conclusion que Bach sous-tendait l'oeuvre
de celui-ci !
Seule question sérieuse : comment éviter ce genre
d'écueil ?
Marcel Mesnage
L'exposé au Grame cité à propos
de la numérologie probabiliste est repris dans «
Musique et mathématiques » sous le titre «
Le nombre dans la composition musicale au XXe siècle
» (Robert Pascal). Il est fait allusion au livre de
Van Houten & Kasbergen, « Bach et le nombre »
. Le compositeur du XXe siècle que Bach aurait prévu
(!) est John Cage.
Cet article très réjouissant aborde beaucoup d'autres
exemples du statut du nombre dans la musique, le plus connu étant
le nombre d'or, notamment chez Bartok et Debussy. S'il est connu
que l'emploi du codage du nom de Bach a été repris
intentionnellement par divers compositeurs, sans qu'il soit besoin
d'y associer une connotation cabalistique, les échafaudages
des auteurs hollandais semblent effectivement délirants.
L'emploi du nombre d'or a également été attribué
à Ligeti qui l'a récusé publiquement comme
intention. L'ouvrage le plus convainquant sur l'emploi du nombre
d'or chez Debussy est celui de Roy Howatt « Debussy in
proportion » qui cependant laisse les mêmes doutes
de fond sur l'usage et l'interprétation des statistiques.
Mais ces interrogations sur ces connotations ésotériques
des nombres dans la musique semblent bien innocentes par rapport
aux troubles insensés qui ont fait des ravages en vies
humaines autour de l'an 1 000 .
Olivier Lartillot
Laurent Mazliak : « L'intervention des techniques aléatoires
dans le système d'analyse qu'Olivier propose est fondée
sur des tests statistiques, et donc très grossièrement
sur l'analyse des fréquences de répétitions.
»
Mon exposé a tenté de présenter la problématique
de l'induction. Il s'avère que ce type de raisonnement
nécessite de mettre en oeuvre des hypothèses, des
réflexions hypothétiques. Pour pouvoir formaliser
ces mécanismes de manière explicite, il semblerait
nécessaire d'estimer le caractère plus ou moins
hypothétique par l'introduction d'une grandeur mathématique.
C'est en ce sens que Leibniz a imaginé le calcul des probabilités.
Or il s'avère qu'au même moment, d'autres études
- celles de Pascal et Fermat - cherchaient à maîtriser
l'aléatoire par l'estimation de grandeurs caractéristiques.
Leibniz, en découvrant cette théorie, trouva ici
la réponse à ses questions. Ainsi la probabilité,
dès son invention, intégra ces deux facettes.
Mes recherches portent sur une implémentation informatique
de mécanismes inductifs. Je m'intéresse donc à
la vision leibnizienne des probabilités. Je ne m'intéresse
donc pas à utiliser en premier lieu des techniques aléatoires.
Il fut un temps, on pensa que la statistique pouvait être
la voie royale de l'induction mathématisée. Je cite
l'excellent livre de Maurice Boudot, « Logique inductive
et probabilité » .
« N'est-ce pas dire que l'inférence statistique
nous apprend comment passer du particulier au général
? Les statisticiens n'ont guère de scrupule à utiliser
cette terminologie qui évoque irrésistiblement la
position classique du problème de l'induction. [...] Qu'elle
se propose de régler la conduite des expériences
à faire ou qu'elle gouverne l'usage des expériences
déjà faites, la théorie scientifique de l'inférence
statistique semble prendre en charge - au moins partiellement
- les problèmes qui relevaient traditionnellement d'une
philosophie de l'induction. N'offre-t-elle pas l'exemple d'une
théorie probabilitaire de l'induction, constituée
par les hommes de science, indépendamment de toute problématique
philosophique ? [...] Mais il faut constater que, quelle que soit
la forme qu'elle revête, elle relève de l'induction
secondaire et non de l'induction primaire. Aucune conclusion n'y
est acquise sans qu'on suppose la certitude de certaines lois
universelles, la vérité d'assomptions toujours très
fortes. On estime un paramètre, mais en supposant connue
la famille paramétrique à laquelle appartiennent
certaines lois de répartition. [...] D'où vient,
dans ces conditions, la croyance illusoire en la possibilité
d'ériger une théorie générale de l'induction,
la doctrine de l'inférence statistique ? Elle tient tout
d'abord au fait que souvent les prémisses admises sont
des hypothèses bien établies dont la validité
fait l'objet de consensus des hommes de science, alors qu'il n'en
va pas de même des conclusions avant que l'inférence
statistique les ait garanties. »
Je m'intéresse ainsi non pas à la probabilité
sous forme de l'analyse des fréquences de répétition,
mais à l'établissement d'un mécanisme d'induction
qui peut, si nécessaire, utiliser une grandeur mathématique
d'évaluation des différentes hypothèses que
l'on pourrait également appeler, non sans danger, «
probabilité ».
Laurent Mazliak : Comment éviter ce genre d'écueil
?
Certes, il peut arriver que ce soit le compositeur lui-même
(que ce soit Bach, Berg ou Boulez) qui décide par lui-même
de cacher des informations codées, en particulier à
l'aide de la règle présentée par Laurent
Mazliak. On pourrait donc très bien s'amuser à retrouver
ces énigmes. Le débat est ouvert. Mais cela ne rentre
pas dans mes domaines d'investigations. En effet, il me semble
que, tel l'être humain, la machine, pour qu'elle puisse
mener des inductions, doit être guidée par des mécanismes
élémentaires cognitifs. Ainsi elle ne rentrera pas
dans des délires numérologiques.
Guy Fourt
Ces derniers échanges appellent de ma part les
commentaires suivants.
1 - Sur la méthodologie de la statistique.
Les statisticiens et probabilistes étudient des phénomènes
dont le résultat est a priori non décidable ; tout
au plus peut-on donner un ensemble de résultats envisageables.
Toute expérimentation conduira à l'obtention d'un
résultat précis (disons X) parmi ceux-ci et il n'y
a alors plus rien de modifiable. Ce qui est possible, c'est en
partant de cet X (connu, mais entaché de suspicion : pourquoi
cet X et pas un autre ?) de calculer un autre résultat
(disons y) pour une expérimentation (de même type
ou non) ultérieure.
Bien sûr on doit s'attendre à ce qu'on n'observe
pas cette valeur y, mais une variante Y !... mais les règles
de calculs utilisées ont été choisies pour
que l'observation Y soit « probablement » proche de
y.
N.B. : à ce « probablement » correspondra une
définition mathématique très précise.
Si la « pèche à la ligne » ayant donné
la valeur X a conduit à un résultat de faible probabilité,
il faut s'attendre d'obtenir pour y n'importe quoi (y compris
des résultats honnêtes) mais par hypothèse,
ceci ne peut se produire qu'avec une faible probabilité.
On ne pourra jamais trouver la vérité avec ces méthodes,
mais elles sont précieuses en ce qu'elles permettent de
s'en approcher d'assez près, et ceci avec un bon niveau
de fiabilité.
2 - Sur les statistiques « biaisées » en
général et la numérologie qui en fourmille.
Si on répète indéfiniment une expérience
(avec indépendance), il est facile de montrer qu'un événement
(fut-il de faible probabilité) se produira presque sûrement
au moins une fois (et se reproduira donc une infinité de
fois). Si je construis un indicateur qui caractérise pour
moi le plagiat de Bach :
· si je l'applique à Monsieur X. (célèbre),
il y a une faible probabilité p qu'il donne un résultat
positif ;
· si je suis assez patient pour parvenir à observer
k +1 plagiaires (au sens donné par l'indicateur), savoir
Messieurs X1, X2, X3,.....et Xk + 1 ce qui aura nécessité
N (nombre aléatoire) expériences et si je dévoile
la liste des noms de X1, X2, X3....... Xk (je n'ai bien sûr
pas envie d'être provoqué en duel par Xk + 1, encore
trop à la mode), pourquoi pas BOULEZ ? Il a la même
probabilité conditionnelle d'être épinglé
que les autres... et elle vaut p (celui du point précédent)
s'il n'a pas été testé, 1 si Xk + 1 = «
BOULEZ », k / (N-1) sinon.
Il y a pas mal de variantes plus ou moins drôles de l'exemple
cite par Mazliak Au départ c'est toujours la même
chose : on part d'une procédure statistique éculée
parce que fiable. On l'applique à un exemple. Le cas échéant,
on l'applique à un autre exemple. Et on continue jusqu'à
obtenir un résultat positif qu'il suffit alors de publier
(parce que c'est drôle, parce que c'est terrifiant, enthousiasmant...).
Un autre exemple historique a été donné par
un général (on taira ici son nom) voulant faire
un pronunciamiento sur la capitale (Rome). Il a vu des oiseaux
se lever à droite et a ainsi entraîné son
armée qui stationnait fort réglementairement au-delà
du Rubicon. Il avait ainsi une probabilité 1/2 de gagner
(à minorer légèrement car l'armée
avait une probabilité de ne pas marcher).
Mais comme probable, il a attendu de voir les oiseaux se lever
à droite... et était ainsi presque sûr de
parvenir à ses fins.
3 - Sur le nombre d'or (et bien d'autres)
Là, je suis bien plus preneur. Il y a incontestablement
des valeurs numériques qu'on met en action par réflexe
conditionné ou autre. Le nombre d'or en est un. Certains
architectes ou graphistes l'ont d'ailleurs utilisé consciemment
avec plus ou moins de bonheur. Mais il apparaît dans de
nombreuses constructions. Le Clermontois que je suis citera à
ce propos l'intéressante étude de E. Mourlevat concernant
la structure de la vieille église romane de Notre-Dame
du Port (et de bien d'autres).
S'agit-il d'un processus d'apprentissage ? Si oui a-t-il son origine
dans la création de l'humanité ou est-ce une origine
« scolaire » ?
Il est d'usage de caractériser le nombre d'or par une suite
récurrente, mais cette suite ne me semble pas connectée
de façon évidente à son utilisation. Peut-on
trouver d'autres définitions pertinentes ?
Il existe bien d'autres valeurs utilisées par l'humanité
traditionnellement. Pour les musiciens, si on regarde les fréquences
des sons, on explique facilement le rapport 2 qui permet à
des instruments jouant la même note d'avoir la même
suite d'harmoniques, mais quid des intermédiaires ?...
sans parler de la séparation en coma. D'autres rapports
auraient pu être envisagés, et pourtant l'homme semble
avoir choisi ceux-ci assez indépendamment de sa culture.
Je pense qu'il y a là du travail (non ridicule) en friche.
François Nicolas
Guy Fourt : « Il est d'usage de caractériser
le nombre d'or par une suite récurrente, mais cette suite
ne me semble pas connectée de façon évidente
à son utilisation. Peut-on trouver d'autres définitions
pertinentes ? »
La propriété marquante du nombre d'or, à
mon sens, est que le rapport de la plus petite partie (P) sur
la plus grande (G) est le même que celui de la plus grande
sur le tout (P + G) :
P / G = G / (P + G)
Cette propriété du nombre d'or a une traduction
esthétique immédiate, qui explique, toujours à
mon sens, son succès spontané dans les arts soucieux
d'unité de l'oeuvre : chaque partie d'une oeuvre bâtie
sur une progression normée par le nombre d'or devient intelligible
comme une totalisation partielle ou provisoire. Ainsi l'oeuvre
en quelque sorte rassemble ou ramasse régulièrement
son passé pour y ajouter un nouveau pas.
Son utilisation en musique par exemple ne pose donc guère
de problèmes particuliers, pas plus que le fait de compter
les mesures d'un morceau pour s'assurer que tout le monde joue
bien ensemble ou que le fait de compter le temps qui passe par
un métronome.
On peut utiliser ce nombre d'or (ou une de ses approximations)
sans savoir qu'on le fait, comme un compositeur peut superposer
des croches, des triolets et des quintolets de croches pour obtenir
un tapis d'impulsions pas trop simultanées sans nommer
pour autant la propriété arithmétique qu'ont
les nombres 2, 3 et 5 d'être premiers entre eux.
Bref, je ne vois guère l'intérêt d'exhausser
ce nombre que j'utilise pour ma part tous les jours, comme d'ailleurs
les nombres 3,3333 ou encore 23 ou, plus rarement il est vrai,
2598467482. Mais j'utilise aussi très souvent Aleph
0 (quoique Gérard Assayag laisse parfois entendre que
ce dernier nombre resterait purement spéculatif et donc
sans grande portée pragmatique).
Marcel Mesnage
Je voudrais demander à Olivier Lartillot s'il fait
un lien entre l'inférence statistique dont il parle, et
la notion bayésienne de probabilité a priori ?
Olivier Lartillot
La vision bayésienne des probabilités n'est
pas épargnée par la critique faite par Maurice Boudot,
dans l'ouvrage déjà cité , des théories
de l'inférence statistique.
C'est justement ces probabilités a priori qui posent ici
problème.
Je laisse la parole à Maurice Boudot :
« Le point essentiel à noter est que le calcul
des probabilités a posteriori suppose la connaissance,
non seulement des vraisemblances mais encore des probabilités
a priori. Or, si dans les applications du théorème
de Bayes on a souvent de bonnes raisons d'assigner aux premières
des valeurs déterminées, il est rare qu'il en soit
de même en ce qui concerne les secondes. Un usage répandu
veut qu'en l'absence de raisons contraires, on attribue des valeurs
égales aux probabilités a priori et c'est cet usage
qui est contestable. [...] Il est clair que l'usage du théorème
de Bayes que nous venons de décrire pose déjà
question : de quel droit traite-t-on la probabilité d'un
événement aléatoire comme une variable aléatoire
? Pour être inconnue cette grandeur est-elle une variable
aléatoire ? De quel droit lui attribue-t-on une densité
déterminée ? [...] Recourir au principe d'indifférence,
affirmer qu'on peut supposer toutes les valeurs également
probables, puisqu'on ne sait rien, est un mauvais argument. Si
ce principe a un usage légitime, ce qui n'est nullement
exclu, cet usage est tout autre : on peut tenir pour également
probable des événements tels qu'on puisse affirmer
qu'il n'y a nulle raison pour que l'un se produise plutôt
que l'autre, non des événements dont on ne sait
rien. »
Maurice Boudot emprunte à Keynes un exemple qui conduit
à une contradiction paradoxale : « On sait que
le poids spécifique d'une substance est compris entre 2
et 3. Le principe d'indifférence conduit à affirmer
que la probabilité pour que le poids spécifique
appartienne au sous-intervalle [2 ; 2,5] est égale à
1/2 (puisque la longueur de cet intervalle est la moitié
de la longueur du domaine de variation). On en conclut que la
probabilité pour que le volume spécifique appartienne
à l'intervalle [1/2,5 ; 1/2], c'est-à-dire [2/5
; 1/2], est 1/2. Mais le même raisonnement conduirait à
assigner la probabilité ((1/2 - 2/5) / (1/2- 1/3)) = 6/10
au même événement si on appliquait le principe
d'indifférence au volume spécifique. [...] La solution
des problèmes d'estimation par le principe des probabilités
inverses, c'est-à-dire par usage de schémas bayésiens
et application du principe d'indifférence, se heurte donc
à des obstacles insurmontables. Il est étrange qu'elle
ait résisté à des critiques fondées
et se présente comme « le seul exemple d'une doctrine
mathématique acceptée par les hommes les plus éminents
et refusés par les autres » (Fisher) »
Telle était donc la réponse de Maurice Boudot, en
1972.
Aujourd'hui (ou presque), E.T. Jaynes, farouche défenseur
du bayésianisme, prétend qu'il existe des «
mécanismes primitifs d'assignation des probabilités
à partir directement d'informations incomplètes.
À cet égard, le Principe de l'entropie maximale
est aujourd'hui la justification théorique la plus claire,
la mieux implémentée de manière computationnelle,
avec un appareil analytique aussi puissant que celui de la théorie
bayésienne. À cet effet, la maximisation de l'entropie
nous crée un modèle des données qui s'avère
optimal selon tant de critères qu'il est difficile d'imaginer
des circonstances où l'on ne voudrait pas l'utiliser dans
un problème où on dispose d'un espace d'échantillonnage
mais pas de modèle. »
Oui mais qu'en est-il du paradoxe de Keynes ? Et il est nécessaire
de disposer au préalable d'un espace d'échantillonnage,
ce qui est, à mon avis, la contrainte fondamentale qui
me pousse à abandonner ce type de théorie statistique
dans un cadre d'induction musicale.