Discussion du rapport de D. Lahaye, R. Padieu et G. Ricaux (OFDT, 2002) :

« Évaluer l’intervention en toxicomanie : signification et conditions » [i]

 

(Groupe d’études des politiques publiques en matière de drogues)

École des Mines de Paris, 18 novembre 2003

 

François Nicolas

 


I.    Caractérisation générale du rapport

I.1.   Recherche plutôt qu’évaluation

Ce rapport n’est pas à proprement parler une évaluation. Il ne se déclare d’ailleurs pas tel mais plutôt comme étant une recherche sur l’évaluation (« Il ne s’agit pas ici d’une évaluation, mais bien d’une recherche sur l’évaluation. » [1]), sur « ce que évaluer veut dire » [2]. Ce rapport précise d’emblée l’emboîtement dont il procède :

·       Il y a la toxicomanie,

·       puis il y a l’intervention sur cette toxicomanie,

·       il y a ensuite l’évaluation de cette intervention,

·       et il y a enfin la recherche sur cette évaluation de l’intervention en matière de toxicomanie.

I.2.   Intervention sur des toxicomanes…

Assez vite cependant [3], les auteurs indiquent que les interventions examinées porteront sur les toxicomanes plutôt que sur la toxicomanie en général (ainsi le rapport déclare qu’il ne va guère s’intéresser aux interventions de répression en direction des trafiquants, ni des interventions de prévention en direction des non-toxicomanes et qu’il va également privilégier l’action sur des gens dans l’intervention générale sur des situations [4]). Ce rapport se présente donc comme voulant discuter ce que veut dire qu’évaluer une intervention auprès de toxicomanes.

Intervenir auprès de toxicomanes, c’est vouloir modifier leur parcours : « L’intervention est censée produire une inflexion dans la trajectoire du sujet. » [5]

Ceci est intéressant : agir sur des gens, c’est confronter des volontés (cf. cette citation de Nietzsche donnée la séance précédente : « la volonté, bien entendu, ne peut agir que sur une volonté et non sur une matière » [6]). D’où des dynamiques pour évaluer comment une volonté infléchit une autre volonté…

I.3.   Une exigence de réflexivité

Cette clarté du propos et du projet est en soi remarquable : elle participe de l’éclairage apporté par ce rapport sur les questions qu’il choisit de traiter avec ce souci réflexif de toujours mettre à l’épreuve non seulement le contenu des questions posées mais également le questionnement lui-même, disons qu’il pratique l’exigence d’interroger l’énonciation et pas seulement l’énoncé.

Cette réflexivité, qui est tout aussi bien une forme d’honnêteté intellectuelle, me semble particulièrement précieuse en matière d’évaluation dans la mesure où celle-ci suppose qu’il y a des partis pris au principe des pratiques à évaluer et qu’il s’agit d’expliciter leurs particularités (au lieu même où d’autres partis pris auraient été possibles).

Cette réflexivité me semble ici un opérateur de clarification.

I.3.a.    Métaévaluer = > autoévaluer

Résumons les enchaînements.

1) Évaluer, c’est intervenir.

2) Intervenir, c’est évaluer [7].

3) = > Évaluer une intervention, c’est métaévaluer (évaluer une évaluation).

4) Métaévaluer se fait prioritairement de manière endogène ou immanente [8]. C’est donc toujours pour partie autoévaluer. Soit : toute métaévaluation est en premier lieu une autoévaluation.

I.3.b.   L’autoévaluation doit être aussi l’affaire des acteurs

Ce rapport tire alors une conséquence qui me semble très importante de ce point : s’il s’agit bien pour une part centrale d’autoévaluation [9], alors les acteurs même de l’intervention, les intervenants donc, doivent être partie prenante de cette évaluation.

Le théorème de Lahaye, Padieu & Ricaux…

Soit le petit théorème suivant — que j’appellerai théorème de Lahaye, Padieu & Ricaux — : toute évaluation impliquant une autoévaluation, évaluer une intervention doit être aussi l’affaire des intervenants concernés[10]

I.4.   Problématisation de l’évaluation

Ceci permet de problématiser plus avant le thème de l’évaluation des politiques publiques en matière de toxicomanie.

Difficulté ici pour nous : comme ce rapport n’est pas à proprement parler d’évaluation mais plutôt de discussion de ce que veut dire qu’évaluer, nous ne pourrons pas, lisant ce rapport, nous proposer de l’évaluer mais tout au plus de discuter avec lui ce que lui-même discute.

Comment discuter alors la discussion à laquelle procède ce rapport ? Il n’y a pas d’autre méthode, me semble-t-il, que de suivre le fil propre de son propos en éprouvant la consistance des points nodaux en sorte de trouver matière à penser en ce passionnant travail.

II.  Apports de ce travail

II.1. Que veut dire évaluer ?

II.1.a.  D’un simulacre dans l’évaluation…

Ce rapport relève le risque, fréquent, d’un certain « simulacre » en matière d’évaluation : « tant que paraître évaluer suffit », écrit-il, on est sûr de ne guère progresser [11]. D’où que ce rapport s’interroge — nous interroge par conséquent — sur la différence entre ce qu’est un simulacre d’évaluation et ce qu’est — ou serait — une authentique évaluation. Démarcation qu’il convient de retenir pour la suite de nos travaux.

II.1.b.  Comment compter pour « une » telle intervention ?

Le rapport pose ensuite la question suivante : mais qu’est-ce qu’une intervention ? [12] Comment compter-pour-une cette intervention, puis cette autre, etc. ? Si l’intervention auprès des toxicomanes désigne un champ de pratiques, un espace de travail, évaluer cette intervention ne passe-t-il pas par la capacité de compter les éléments de ce champ et donc par l’aptitude à délimiter ce que serait l’unité d’une intervention ? Comment penser une intervention et pas seulement l’intervention ?

Un fibré institutionnel

Le rapport s’oriente ici vers une logique institutionnelle : ce qui permettra de compter-pour-une telle intervention ne sera pas de compter-pour-un sa cible, tel toxicomane par exemple (ce qui conduirait à compter autant d’interventions qu’il y a de toxicomanes rencontrés) ; en effet, comme le dit très bien ce rapport [13], il s’agit ici d’évaluer l’intervention, une action volontaire donc, non pas d’évaluer le toxicomane, son état, ses possibilités, etc. Il faut donc compter autrement, à partir disons des sujets intervenant plutôt que des sujets qui sont la cible des interventions. D’où la caractérisation de « filières » d’intervention dont le schéma suggère l’idée mathématique d’un « fibré institutionnel » [14].

II.1.c.  Intervenir, qu’est-ce à dire ?

Intervenir, ici, c’est agir sur des gens plutôt que sur des situations. C’est influer sur des individus plutôt que sur des masses ou une population en général.

On l’a vu, agir, ici, veut dire infléchir des comportements (individuels plutôt que collectifs). Une intervention réussie serait donc une intervention ayant abouti à changer un comportement d’un individu. On pressent la difficulté de l’opération de compte : si l’on peut envisager plus ou moins facilement de compter ce qu’est un individu rencontré — attention cependant, nous dit le rapport, au risque de le compter plusieurs fois… —, il semble plus improbable de pouvoir compter ce qu’est « un » comportement, a fortiori ce que serait qu’« une » inflexion d’« un » comportement…

En vérité, compter « une » intervention, c’est compter une action, non un résultat, et cela se fait donc en comptant « un » geste d’« un » sujet intervenant. Le problème est alors déporté vers les intervenants : qu’est-ce pour eux qu’« un » acte atomique d’intervention ? On devine la difficulté, accusée d’ailleurs si l’on conçoit ensuite l’évaluation de cette action comme la mise en rapport de « cette » action de « cet » intervenant avec « cette » inflexion de « ce » comportement chez « ce » toxicomane… L’objet de la recherche, comme il se doit, se dissout ipso facto en une poussière innombrable devant le microscope du chercheur, en un mouvement brownien non décomptable…

II.1.d.  Effectivité ou efficacité ?

D’où le fait qu’évaluer une intervention va souvent se faire moins en rapportant des résultats à des objectifs — ce qu’on appellera efficacité — qu’en rapportant des moyens effectivement engagés à des moyens projetés — ce qu’on appellera effectivité —. [15]

Le rapport relève cela comme un danger : le danger de ne mesurer que l’effectivité de l’action, non son efficacité. Pour ma part, j’en suis peut-être moins sûr ; pour prendre l’exemple de la lutte anti-alcoolique évoqué dans ce rapport [16], on peut soutenir qu’une intervention rationnelle peut se donner pour principal objectif de développer les forces antialcooliques faute de pouvoir vraiment prévoir l’effet exact d’un tel développement. A posteriori, il restera sans doute très difficile de mesurer précisément les effets propres sur la situation générale de ce développement (son « efficacité ») alors qu’il sera possible de mesurer avec précision l’importance de son déploiement (son « effectivité »). Peut-on rationnellement espérer beaucoup mieux ? Ce n’est pas sûr. Ceci engage les questions, posées par ce rapport, intéressantes à bien des titres :

1) Évaluer, est-ce automatiquement et toujours évaluer des effets terminaux ?

2) Évaluer, est-ce automatiquement et toujours mesurer, quantifier ?

Examinons ce second point.

II.2. Évaluer, est-ce mesurer, quantifier

S’il s’agit de mesurer au sens de quantifier, il faut des moyens de compte, des « indicateurs » donc.

II.2.a.  De curieux rapports numériques…

Prenons un petit exemple.

Évaluer l’efficacité d’interventions répressives en direction de trafiquants impliquera de :

1) compter le nombre d’interventions : mettons le nombre de journées (ou d’heures) obtenu par multiplication du nombre de policiers et de leur durée d’intervention [17] ;

2) compter le nombre de résultats : mettons le nombre d’arrestations de trafiquants auxquelles ces policiers ont procédé ;

3) diviser le second nombre obtenu par le premier en sorte de mesurer le coût d’une arrestation en terme de journée de travail policier.

Mais le nombre ainsi obtenu (mesurant le coût en temps de travail policier d’une arrestation) est-il ipso facto une évaluation ? On voit bien que ce nombre est de facture hétérogène, qu’il n’est donc pas à proprement parler un nombre tant son unité de mesure est de nature hétéroclite, c’est-à-dire que la « valeur » du nombre ainsi obtenu est entièrement suspendue à la « valeur » de la mesure : la « valeur » de la mesure surdétermine la « valeur » de la quantité dégagée. Ou encore : les dés de l’évaluation sont lancés, avant même qu’on calcule, une fois retenu un tel type de « mesure ». Ou encore : ce type de mesure, entièrement hétérogène (on divise des parapluies par des tables de dissection, comme aurait dit Lautréamont), ne saurait être qu’une évaluation très particulière, aux partis pris dissimulés derrière la technicité du ratio (il s’agit alors clairement d’évaluer un coût, non une action).

II.2.b.  Évaluer, délibérer…

Cela fait penser à ce que dit Sartre, dans L’Être et le néant, de la délibération d’un sujet. Il écrit : quand la délibération a lieu, c’est que les jeux sont faits et non plus à faire. La délibération d’une conscience au regard d’une décision est pour lui l’indice que cette décision est déjà prise et non pas qu’elle est à prendre. Ici la conscience réflexive opère comme un leurre, non comme un éclaircissement. La délibération, pour autant, ne sert pas à rien même si elle ne sert pas, comme elle se le prétend, à choisir la bonne décision (puisque celle-ci est déjà prise) : la délibération sert plutôt à calculer les effets de la décision déjà prise, à évaluer ses conséquences.

Cet exemple nous intéresse, me semble-t-il, car il suggère de distinguer l’évaluation des raisons d’une action de l’évaluation de ses conséquences. Ce que nous dit ici Sartre (en matière, il est vrai, non de politique mais de volonté individuelle), c’est que l’une ne s’accorde pas à l’autre, ce qui, dans son vocabulaire, s’articule à sa distinction des mobiles et des motifs…

Sans vouloir transposer mécaniquement les considérations sartriennes de L’Être et le néant dans le champ des politiques [18], on peut s’appuyer sur elles pour distinguer évaluation des objectifs et évaluation des résultats et ne pas considérer comme allant de soi qu’évaluer une politique, c’est mesurer le rapport des résultats aux objectifs, ce que l’on appelle alors « efficacité ».

On peut dire aussi : de même que la délibération est, pour Sartre, le moment non de la prise de décision mais de l’examen de ses conséquences, de même pour nous, l’évaluation est le moment de la mise au jour des valeurs effectivement à l’œuvre dans telle ou telle intervention sous l’hypothèse que cette intervention ne porte pas en elle-même la clarté réflexive sur ces valeurs mais, tout au contraire, met à l’œuvre des déterminations obscures que seule une rétrospection évaluante peut éclairer.

II.2.c.  Évaluer : mesure d’une efficacité ou mise au jour des « valeurs » à l’œuvre ?

À suivre ce fil, l’évaluation d’une politique ou d’une intervention ne vise pas tant à mesurer son efficacité supposée qu’à mettre au jour ses « valeurs » toujours déjà à l’œuvre. Cette thèse, que je soutiens avec quelque obstination depuis le début de ces séances de travail, me semble devoir être mise en rapport avec quelques apports décisifs du rapport que nous discutons aujourd’hui.

II.2.d.  Évaluer les objectifs et/ou les résultats ?

Un point m’intéresse particulièrement dans ce rapport : il nous aide à voir qu’on ne transite pas d’une évaluation des objectifs à une évaluation des résultats.

Pour quelle raison ?

D’abord parce que le mot même d’évaluation n’a pas le même sens dans « évaluation des objectifs » et dans « évaluation des résultats ».

Évaluer des résultats, on l’a vu, se dira quantifier des rapports hétérogènes.

Évaluer des objectifs, ce rapport nous le montre aussi, c’est un travail en soi consistant à dégager, à mettre au jour, les « valeurs » données aux interventions projetées [19]. Et en cette matière, le jour n’est pas la lumière naturelle : ce rapport a pour grand mérite de montrer que la nuit est bien plutôt la lumière spontanée de tout projet d’intervention en matière de toxicomanie tant les institutions engagées sont ici différentes, aux objectifs dissemblables, ce qui fait qu’entre différents intervenants de différentes institutions, les objectifs sont tantôt évidents, tantôt implicites, tantôt méconnus [20] mais en tous les cas presque jamais explicites, discutés, et par là évalués.

II.2.e.  Obscurité ?

Ce rapport nous le rappelle, tel un leitmotiv :

·       « Contradiction récurrente entre la revendication d’une évaluation et le peu qui en est fait » (8)

·       « Les objectifs assignés par la puissance publique sont jugés ambigus » (31)

·       « Une même modalité d’intervention peut viser simultanément à des fins différentes. »

·       « C’est souvent en creux que la finalité apparaît » (41)

·       « Évaluer est une prescription qui ne dit rien de ce qu’on en fera » (42)

·       « L’affirmation « il faut évaluer » n’appelle pas qu’on dise pourquoi le faire, à quoi cela doit servir. » (42)

·       « La conception de l’évaluation dépend de qui la veut ». (51)

·       « La notion d’évaluation semble marquée par une extériorité » (56)

Cette obscurité, le rapport la relie à cette autre interrogation : pourquoi évaluer ?

II.3. Pourquoi évaluer ? [21]

Cf. deux perceptions de l’évaluation : l’évaluation comme une aide à l’acteur ou comme visant à une sanction. [22] D’où l’importance — on l’a vu dès le début — d’une autoévaluation à laquelle contribuent les intervenants…

Mais le rapport soulève d’autres pistes intéressantes.

II.3.a.  Les objectifs d’une évaluation

Attention à la distinction objectifs finaux/objectifs intermédiaires [23] : « Une même modalité d’intervention peut viser simultanément à des fins différentes. » [24] Exemple donné de la substitution, où la distinction fins/moyens (qui est aussi celle entre stratégie et tactique) semble en effet cardinale (elle institue une démarcation essentielle entre les différentes politiques publiques selon l’usage qu’elles font des mesures de réduction des risques).

Cette variabilité des objectifs se retrouve le long de la chaîne d’intervention : ce qui est objectif pour un acteur peut être moyen pour un autre, et vice versa. Il y a donc des décrochages de niveaux, des « dévissages » dans les arrimages, selon l’endroit où l’on s’arrime à la chaîne intervenante. D’où, en particulier, que « moyens » soit ici une nomination malheureuse : il vaudrait mieux parler de « forces », ou de « ressources »…


Schéma usuel d’une évaluation

• adaptation des objectifs aux problèmes : objectifs/problèmes

• adéquation des moyens (prévus) aux objectifs : moyens (prévus)/objectifs

• effectivité des moyens utilisés par rapport aux moyens prévus : moyens utilisés/moyens prévus

• efficience des effets sur la situation-objet aux ressources mobilisées : effets (prévus)/moyens (utilisés)

• impact des effets imprévus sur la situation-objet : effets (imprévus)/moyens (utilisés)

• efficacité (conformité) des effets sur la situation-objet par rapport aux objectifs : effets (prévus)/objectifs. Efficacité = adéquation * effectivité * efficience

 

Évaluation = effets/problèmes

Évaluation restreinte = adaptation * efficacité

Évaluation globale = adaptation * [adéquation * effectivité * (impact + efficience)] = adaptation * [( adéquation * effectivité * impact) + efficacité]

 


II.3.b.  Une évaluation permanente…

D’où l’idée suivante du rapport : une authentique évaluation devrait moins être une action ponctuelle momentanée, exogène mais une dimension endogène permanente du travail des intervenants [25].

Vœu pieux ? Pas nécessairement. En tous les cas il n’est pas sûr que répondre à la défaillance d’une autoévaluation permanente par quelques décisions inopinées venues de l’extérieur (« d’en-haut ») puisse vraiment y pallier : le risque est de n’obtenir qu’une évaluation « technique » qui, mesurant certains ratios — quand elle le peut — croit alors avoir « évalué » le champ d’interventions.

III.       Deux propositions

Deux aspects me semblent en ce point essentiels, aspects qui me sont suggérés par ce rapport :

·       Le premier touche à l’instance « du haut », l’instance originelle, celle qui dispose, au principe de l’intervention qu’elle décide, des problèmes qu’il s’agira ensuite de traiter.

·       Le second touche à ce que j’appellerai les « boîtes noires » de l’évaluation techniciste.

Détaillons ici deux propositions.

III.1.      Problématisation

Ma première proposition est de compléter le schéma précédent — celui de l’arbre évaluant — par une instance supérieure que j’appellerai celle de la « problématisation ».

En effet, il faut aussi évaluer comment se constitue « un problème ». Il y a à l’évidence matière à évaluer ce niveau, tant il est vrai que constituer en « problème » tel ou tel phénomène (lui-même dégagé, isolé, constitué en phénomène dans le magma général des faits) relève, plus ou moins explicitement, de valeurs à l’œuvre [26].

En matière de toxicomanie et de drogues, il est clair que la constitution de tel phénomène en problème, de tel autre en non-problème est au principe des politiques publiques, et doit être également au principe de leur évaluation.

Or comment se fait l’évaluation rétrospective d’une problématisation ? Il ne semble pas que cette pratique banale soit registrée à la discipline « évaluation ».

Une évaluation devrait pourtant remonter à la problématisation (plus ou moins implicite) au principe de la chaîne intervenante.

Cf. ce principe général : une valeur ne s’éprouve que dans ses enchaînements, dans sa mise au travail, dans ses décisions incessantes. Une valeur s’éprouve donc déjà dans la décision de considérer tel ou tel phénomène comme posant un problème : quel problème ? Problème pour qui ? Problème en quoi ? Problème de quel type ? etc.

III.2.      Évaluer les boîtes noires de l’intérieur

Second aspect, plus général, et plus essentiel encore — il me semble la clef de toute authentique évaluation, le point où tracer une ligne de démarcation entre deux types d’évaluation, l’une que je dirai d’orientation techniciste, l’autre que je dirai authentique — celui que j’appellerai le problème des « boîtes noires ».

S’il est vrai qu’une valeur s’éprouve dans ses décisions, ces décisions ne sont pas seulement au principe de la chaîne intervenante mais interviennent tout au long : ce sont bien des valeurs qui président au choix des moyens employés, à l’intérêt porté aux effets, à l’importance accordée à la mesure des résultats, etc. Évaluer, c’est donc suivre ce réseau ininterrompu de décisions, le plus souvent — on imagine — de micro-décisions formant boule de neige.

Or où se prennent ces décisions ? Elles se prennent en des points rendus obscurs par le schéma traditionnel de l’évaluation (voir le premier schéma) car ici représenté par des flèches — les flèches nommées respectivement adéquation, efficience, etc. —.

Ce type de représentation est adéquat à une évaluation qui va procéder selon la technique des ratios : celle que j’ai décrite plus haut et qui aboutit à mesurer l’efficience d’une action policière en nombre de journées de travail policier pour arrêter un trafiquant… En effet, cette représentation va « mesurer » le travail de la flèche en rapportant les deux ensembles qu’elle relie et, comme ces ensembles comportent des entités hétérogènes, cette mesure se donnera moins comme un nombre que comme un ratio… Mais cette manière de procéder entérine l’obscurité fondamentale qui est de savoir comment opère cette flèche. Sans le dire, cette méthode entérine l’existence d’une boîte noire et se contente de mesurer ce qui y entre et ce qui en sort, croyant ainsi évaluer son action.

Pour schématiser l’obscurité d’une évaluation techniciste, il convient de passer du schéma initial à son dual (au sens mathématique du terme).

Le principe en est très simple : il faut remplacer les flèches par des boîtes et les boîtes par des flèches : l’exemple suivant est donné à partir de « l’efficience ».

 

Exemple de dualisation

En réalisant, selon ce principe, le schéma dual de notre premier schéma (un peu simplifié — sans « effets imprévus »), on obtient le schéma suivant :

 


 

Schèmes duaux

 

L’intérêt de cette nouvelle représentation du parcours évaluateur va être de faire porter l’attention sur ce qui se passe dans les « boîtes » problématisation, adaptation, adéquation, effectivité, efficience… L’idée est que l’évaluation authentique doit évaluer le travail intérieur de ces boîtes. Car que désignent ultimement ces boîtes ? Tout simplement le travail effectif des acteurs de l’intervention.

III.2.a.        Six instances à évaluer

Détaillons rapidement le « contenu » de ces boîtes.

 

Schémas duaux, complétés de la problématisation (avec des « moyens » renommés en « forces »)

 

 


Problématisation

On l’a vu : il s’agit là d’évaluer rétroactivement (s’entend à la lumière de la mise en œuvre général du projet) la consistance des problèmes censés se situer au principe de l’intervention. Comment s’est faite la décision ? Que vaut-elle au regard de ce qui l’a suivie ? L’épreuve de l’intervention valide-t-elle la constitution du phénomène de départ en problème à résoudre ? Etc.

Adaptation

Quelle est l’instance qui adapte des objectifs à des problèmes considérés comme devant être traités ?

Cf. il existe toujours la possibilité de s’arrêter au stade de « problèmes » reconnus comme tels mais considérés comme non prioritaires, ou intraitables. Il y a quantité de « problèmes » qu’on n’entreprend pas résoudre…

Il y a donc deux dimensions à l’adaptation :

-        décider d’engager une action pour traiter tel problème ;

-        définir les objectifs de cette action.

Ces deux dimensions sont distinguées, bien sûr, dans l’abstrait. En pratique, tout se fait d’un seul geste et même, le plus souvent (cf. la délibération chez Sartre), c’est la décision d’agir qui indexe l’existence d’un problème devenu intolérable.

Cf. ce mouvement rétrograde de toute évaluation qui descend moins des objectifs aux effets qu’il ne remonte des effets aux moyens puis aux objectifs pour mieux comprendre la validité des « valeurs » à l’œuvre dans cette intervention ou politique.

Adéquation

L’instance semble ici plus directement technique, tant le terme de « moyens » suggère une neutralité. Mais les « moyens » en question sont loin de l’être, bien sûr : ce sont en effet des gens ! Ces « moyens » sont donc en vérité des acteurs, des agents, non des véhicules transparents. Ce sont des forces, et des volontés.

De ce point de vue, l’adéquation n’est pas une tâche technique : elle inclut la formation de gens concernés par l’action, leur ralliement aux objectifs de l’intervention.

Évaluer une adéquation ne saurait donc consister dans le simple calcul d’un ratio moyens-forces/objectifs. Cela passe par comprendre comment cette adéquation a été conçue, par qui, quels « moyens » (c’est-à-dire quelles forces-ressources) s’est donnée l’instance réalisant cette adéquation pour établir son plan, pas seulement « sur le papier » mais dans la réalité des personnes mobilisées.

Effectivité

Là aussi, quelle instance est responsable de l’effectivité ? Qui est derrière ce terme technique ? Quels « problèmes » sont indexés par cette dualité des moyens-forces-ressources utilisés par rapport aux moyens-forces-ressources prévus ?

Efficience

La tension entre les deux schèmes duaux est ici maximale :

·       Dans le schème traditionnel, l’efficience procède d’un calcul, d’un ratio. L’hétérogénéité des deux termes du ratio suffit à indexer qu’à la prendre ainsi, l’efficience reste une boîte noire.

·       Dans le schème plus évaluateur, cette efficience devient le cœur de l’évaluation. C’est d’ailleurs à ce niveau que les principaux acteurs se situent. C’est à ce niveau que leur participation active à l’évaluation est cardinale.

Impact

Cette instance semble engager la responsabilité de personnes, d’acteurs non officiellement inscrits dans l’intervention de départ. Acteurs latéraux : comment évaluer leur participation ? Fut-elle « spontanée » ? Était-elle prévisible ?

III.2.b.       Statut spécial de l’efficacité

Attention : efficacité est une notion compactée. Cf. Efficacité = adéquation * effectivité * efficience

Raisonner en termes d’efficacité globale, c’est clairement compacter tous les acteurs en une grande boîte qui ne peut alors plus qu’être noire.

Théorème : une évaluation authentique ne saurait avoir pour critère la mesure d’une efficacité !

D’où ce principe de métaévaluation : une évaluation qui propose de raisonner essentiellement en termes d’efficacité (au sens technique du terme) est une évaluation techniciste, que je propose de nommer pseudo-évaluation dans la mesure où elle remplace l’examen des valeurs à l’œuvre par la mesure d’un simple ratio.

III.2.c.        Résumons

Concluons en ramassant l’argumentaire.

Une évaluation dite authentique se distinguera d’une évaluation dite techniciste en ce que la première, seule, assume que toute évaluation vise à expliciter le travail des « valeurs » : évaluer, c’est bien juger de valeurs, et le rapport que nous discutons aujourd’hui nous le rappelle constamment :

Or la mesure par un rapport hétérogène court-circuite la dimension centrale de l’évaluation, n’évalue pas comment ces valeurs traversent les boîtes noires c’est-à-dire opèrent réellement.

À ce titre, une évaluation doit examiner comment se fait concrètement la transformation de problèmes en objectifs (adaptation), d’objectifs en moyens-forces-ressources (adéquation, effectivité), de moyens-forces-ressources en effets (efficience) ?

Il faut pour cela évaluer non seulement ce qui a été obtenu mais aussi comment cela a été obtenu : comment se construisent — se sont construites — une efficience, une effectivité, une adéquation, une adaptation, une problématisation…

Le point de démarcation entre les deux types d’évaluation semble alors pouvoir s’indexer à la place attribuée à la mesure technique d’une efficacité.

Pour l’évaluation dite authentique, l’autoévaluation est essentielle car les boîtes noires sont en fait les acteurs, c’est-à-dire les intervenants de tous types.

––––––



[1] p. 7, 15

[2] p. 37.

« La question posée : qu’est-ce que l’évaluation ? » (19)

[3] « On centrait l’investigation sur l’intervention auprès des toxicomanes, laissant donc a priori de côté aussi bien l’action à l’encontre du trafic de produits que l’action envers la population non-consommatrice de produits (prévention). » (p. 7 note 2)

« Évaluer l’intervention auprès des toxicomanes » (18)

[4] « L’intérêt s’est porté a priori sur les interventions concernant des individus. Elles se distinguent d’interventions de masse. » (29)

[5] p. 10

Et aussi : « Ce que inter-venir veut dire » (35)

[6] Par delà le bien et le mal (§ 36)

[7] « Une évaluation se fait toujours, même implicite » (42)

[8] Principe d’homogénéité immanente à toute pensée : éprouver la consistance d’une pensée implique de partir d’abord de l’intérieur d’un mouvement de pensée (quand mouvement de pensée il y a, bien sûr…), non de confronter de l’extérieur ce mouvement à d’autres possibles.

[9] Il n’y a pas, dans l’évaluation, que de l’autoévaluation, mais cette dimension autoévaluante (ce que j’appelle l’évaluation immanente) est incontournable.

[10] « L’option prise est de faire faire la recherche par les acteurs eux-mêmes ». (16)

« Puiser la matière de la recherche dans le groupe même qui en fait l’analyse » (17)

« Autodétermination laissée au groupe de recherche » (19)

[11] « Ainsi vit-on avec des simulacres, dont on se contente tant que paraître évaluer suffit » (9)

[12] « Il est quasi-impensable d’isoler, pour l’évaluer, l’effet d’une intervention particulière ». (9)

[13] Faire la « distinction entre l’évaluation du toxicomane et l’évaluation de l’intervention elle-même » (21)

[14] voir la description faite page 37

[15] « Les évaluations se bornent [le plus souvent] à regarder l’effectivité des actions et non pas leur efficacité ». (10)

[16] « L’objectif fixé [développer la lutte contre l’alcoolisme] n’est pas « diminuer l’alcoolisme » mais « développer la lutte ». Ce genre de formulation n’induit-il pas une visée activiste, plutôt que la recherche de ce qui semblerait être le but d’une politique ? » (p. 43, note 17)

[17] en supposant, bien sûr, qu’il ne s’agit pas là d’heures passées par des CRS à jouer aux cartes au chaud dans un bus…

[18] On sait que la Critique de la raison dialectique visera, précisément, à penser la possibilité ou non d’actions collectives qui ne soient pas de pures et simples alternances de révoltes et répétitions sérielles…

[19] Voir « Les critères d’évaluation (les critères de valeur) » (45)

« L’évaluateur est celui qui forme un jugement ». (50)

« Le jugement [et pas seulement l’opération technique consistant à recueillir et synthétiser l’information] fait partie de l’évaluation, en est même le cœur. » (50)

[20] « L’objectif poursuivi par un acteur peut être évident pour lui, implicite au point qu’il ne pense pas utile de l’exprimer. Il demeure alors méconnu d’un autre acteur. » (44)

[21] Cf. « les motifs que l’on a d’évaluer » (23)

[22] p. 53

[23] p. 30, 72…

[24] p. 31

[25] « Consacrer à l’évaluation de 10 à 15 % du temps de l’action » (47)

« L’intervention suppose une évaluation en temps réel du toxicomane que l’on a devant soi ». (60)

[26] Exemples extrêmes : la constitution d’un supposé « problème juif » ; à l’inverse, le pétainisme comme déni d’un « problème » : celui de la libération du pays…



[i] Le rapport est disponible à

http://www.drogues.gouv.fr/fr/pdf/pro/etudes/rapport41.pdf