CAP22 : Cap vers le pilotage par les résultats

En juillet 2018, le gouvernement a dévoilé son rapport sur la rénovation de l’action publique. Ce rapport est le fruit du travail mené par le « Comité Action publique 2022 » depuis sa mise en place en octobre 2017 par le président de la République et le Premier ministre.

Il propose de donner une place plus grande à “l’évaluation”, entendue comme un système de gestion et de pilotage par les résultats appliqué aux établissements de santé, d’éducation et d’enseignement supérieur.

Le rapport formule 22 propositions de réformes structurelles visant 3 objectifs :

  • L’amélioration de la qualité des services publics
  • La baisse des dépenses publiques
  • La modernisation de l’environnement de travail des agents publics

Faire mieux avec moins

Les propositions visent une amélioration des comptes publics d’environ 30 milliards d’euros à l’horizon 2022, par des plans d’économies (Etat, collectivités territoriales, sécurité sociale) et des recettes fiscales nouvelles. Le rapport soutien que la baisse des dépenses est compatible avec l’excellence du service public, à la condition d’engager de profonds changements des modes de travail.

Les enjeux d’organisation interne et de gestion des ressources humaines du service public sont donc au centre des propositions. Ce sont eux qui ont cristallisé le plus de réactions dans la presse pour l’instant autour des propositions de « flexibilité » (effectifs de Pôle emploi, facilitation des contrats de droit privé dans l’administration…).

Quelle place pour l’évaluation dans la rénovation de l’action publique ?

Dès les propos introductifs, les termes d’évaluation et de résultats sont évoqués.

  • Ils sont d’abord associés à une ambition de transparence et d’association des citoyens à l’élaboration, à la production et au suivi des politiques publiques : « Nous souhaitons redonner aux citoyens le pouvoir de connaître leurs services publics avec la transparence totale des résultats, le pouvoir de l’évaluer, le pouvoir de participer à sa conception et à sa production. » (p.10)
  • Ils sont ensuite présentés comme un moyen d’optimiser les ressources en supprimant les dépenses inefficaces. Le rapport pointe en effet du doigt « les interventions économiques dont ni l’efficacité ni la pertinence ne sont régulièrement réévaluées. Pour mettre un terme à cette sédimentation, nous proposons que tous les dispositifs d’intervention publique soient évalués régulièrement afin qu’ils fassent la preuve de leur efficacité. » (p.21)

En pratique…

En pratique, le rapport développe une définition très managériale de l’évaluation, qui est énoncée clairement comme une des « ruptures » proposées (2ème rupture évoquée p.24).

La notion d’évaluation présentée dans le rapport s’apparente à un moyen de contrôle ex-post, qui a pour principal objet d’orienter l’allocation des moyens, avec un pilotage par les indicateurs et notamment l’avis des usagers. Trois types d’établissements sont concernés par cette rupture : les établissements de santé, ceux de l’éducation nationale, et ceux de l’enseignement supérieur et de la recherche. L’administration centrale et les collectivités, à l’inverse, ne sont pas concernés.

Faire pression sur les moyens et sur la réputation

  • Santé : expérience patient et conditionnement des moyens

Le terme d’évaluation est associé à plusieurs reprises à une mesure de la satisfaction de l’usager. Permettre au citoyen d’évaluer les services publics revient à lui permettre d’exprimer son opinion sur le service reçu. C’est le cas particulièrement dans le domaine de la santé.

Le rapport propose de « mesurer la qualité des soins, l’expérience et la satisfaction du patient, et [d’]utiliser ces indicateurs pour piloter notre système de santé, y compris sur le plan financier (dotations des hôpitaux, niveau de remboursement des soins en ville) » (proposition 5, p.51). Répété en plusieurs endroits du rapport, l’objectif est clair : « conditionner une partie des moyens alloués aux hôpitaux aux résultats de satisfaction des usagers » (p.24).

La transparence des résultats vis-à-vis des citoyens serait aussi un moyen d’inciter les professionnels de santé à s’améliorer, que ce soit en établissements ou dans des cabinets médicaux : la proposition 5 vise à « améliorer la qualité des prises en charge, en mesurant et en mettant à disposition du public la qualité des soins délivrée en établissements mais aussi en ville, sur la base d’indicateurs définis avec les professionnels, et en mesurant également l’expérience patient » (p.53).

  • Education nationale : « responsabiliser les établissements »

Le même principe se retrouve dans le domaine de l’éducation, où il est proposé de « mettre en place l’évaluation des établissements pour les responsabiliser […] dans une démarche d’amélioration. Les évaluations porteraient sur un ensemble large de critères : résultats des élèves, conditions d’étude, sécurité et bien-être des élèves et des personnels, implication et animation des équipes, conditions matérielles, etc. […] Par ailleurs, pour restaurer la confiance dans le système scolaire et donner du sens à ces évaluations, il est indispensable de procéder systématiquement à leur publication. » (p.63)

La publication des résultats est un moyen d’agir sur la réputation des établissements et, en principe, de les inciter à s’améliorer.

On peut s’interroger sur la façon dont les établissements scolaires réagiront à cette suggestion, eux qui critiquent régulièrement la simplicité des classements qui fleurissent déjà dans la presse sur la base de taux de réussite aux examens (bac, brevet). Le rapport ne donne pas de pistes sur le type de données à recueillir ni sur le coût de la démarche pouvant permettre d’aboutir à des évaluations suffisamment détaillées et qualitatives pour être jugées plus acceptables.

  • Enseignement supérieur et recherche : financement conditionné aux résultats

La proposition 9 sur les universités et les organismes de recherche invite enfin à « mener des évaluations plus fréquentes » (p.67) et à « rendre les financements plus incitatifs : le financement des organismes doit davantage dépendre des résultats pour constituer une incitation à accroître la qualité de l’enseignement et de la recherche ».

Le pilotage par les résultats au niveau de l’attribution de moyens aux universités et aux organismes de recherche accroît la logique de mise en concurrence, avec les questions que cela pose sur l’orientation, le type et la qualité des recherches ainsi promues.

Un goût de déjà-vu

Les questions que posent les propositions du rapport CAP22 ne sont pas nouvelles, pas plus que les propositions elles-mêmes ne le sont. En effet, le pilotage par les indicateurs de performance nous renvoie à un modèle de gouvernance des institutions publiques très proche du modèle anglo-saxon déjà étudié par de nombreux analystes des politiques publiques et sociologues des organisations. On peut en particulier recommander l’ouvrage Gouverner par les instruments (dir. Pierre Lascoumes et Patrick Le Galès, Presses de Sciences Po, 2005). La France a déjà expérimenté cette voie à partir de 1968 avec la très peu regrettée « rationalisation des choix budgétaires » abandonnée dans les années 1980.

Malgré ces limites et antécédents connus, le rapport CAP22 ne fait état d’aucune réserve ou précaution d’ensemble sur le principe du pilotage par les résultats.

Deux conceptions de l’évaluation

L’emploi qui est fait du terme « évaluation » dans le rapport nous amène également à distinguer deux conceptions différentes de ce qu’elle peut être.

1/ L’évaluation comme moyen de contrôle

L’évaluation peut être conçue comme appartenant la catégorie des contrôles a posteriori, au même titre qu’un audit financier par exemple. Elle relève alors de la responsabilisation des administrations (« accountability »), qui doivent rendre des comptes de leur usage d’argent public de façon transparente. Elle est dans ce cas presque réduite à la mesure de l’atteinte d’objectifs via des indicateurs quantitatifs, aveugles aux impacts finaux sur la société.

L’exigence de transparence a d’abord un effet sur la réputation auprès des citoyens, qui sont informés de la performance de leur service public et peuvent effectuer des choix en conséquence. Cette exigence de transparence peut s’accompagner d’une dimension incitative au niveau des moyens : si l’objectif n’est pas atteint, les crédits diminueront, dans une logique de concentration des moyens sur les administrations efficaces. Ces deux dimensions sont très présentes dans les propositions du rapport CAP22, mais uniquement pour trois catégories d’établissements (éducation, santé, enseignement supérieur & recherche) : le pilotage par objectifs n’aurait-il pas les mêmes vertus pour l’administration centrale ?

Sans nier leur vertu, la Vigie se permet de rappeler quelques-unes des limites de ce type d’approches :

  • L’évaluation comme moyen de contrôle entraîne une confusion des termes : il ne s’agit pas d’évaluation de politiques publiques, du fait de la méconnaissance des impacts sociaux et de l’utilisation « managériale » uniquement.
  • Les indicateurs mesurent des résultats, et peuvent (doivent ?) amener un travail plus qualitatif pour comprendre le « pourquoi » et le « comment » de ces résultats. Le rapport est très évasif sur ce volet, pourtant essentiel pour offrir des pistes d’amélioration.
  • Un indicateur utilisé pour juger une action, avec des conséquences financières, est nécessairement manipulé par les acteurs qui sont jugés. Le risque est de créer des incitations perverses, amenant les établissements à poursuivre certains objectifs prédéfinis au détriment d’autres, moins mesurables mais non moins importants (exemple typique : accompagnement prioritaire des chômeurs les moins en difficultés pour améliorer les statistiques de retour à l’emploi).
  • La nécessaire pédagogie accompagnant la transparence n’est pas évoquée par le rapport. Comment les citoyens s’empareront-ils de ces indicateurs, et quelles seront les conséquences sur leurs choix ? Le risque serait par ailleurs d’accentuer les écarts entre les établissements performants et les autres, avec potentiellement des effets sur la ségrégation sociale dans l’éducation ou les déserts de santé par exemple.

2/ L’évaluation comme moyen de connaissance

La deuxième conception de l’évaluation, comme moyen de connaissance, a vocation à fournir des éléments de compréhension, sans logique de sanction, de récompense ni même de gestion. Elle nécessite d’aller plus loin que la seule constatation de l’atteinte ou non des objectifs, et est davantage centrée sur le « comment » et le « pourquoi » des résultats observés, avec une démarche de recherche d’optimisation pour obtenir de meilleurs résultats.

Le rapport CAP22 fait quelques références à des évaluations de cette catégorie, notamment lorsqu’il évoque dans la proposition 6 relative à la dépendance des personnes âgées la nécessité d’« engager un programme d’études pour mieux connaître les facteurs de risque de perte d’autonomie et évaluer l’efficacité des interventions de prévention » (p.55). Ou encore dans la proposition 12 sur l’accompagnement des demandeurs d’emploi où il est proposé d’« évaluer l’efficacité des politiques d’accompagnement, à travers un objectif de réduction de la durée moyenne passée au sein des dispositifs d’accompagnement, en fonction des conditions socio-économiques des territoires. » (p.78)

C’est dans la proposition 20, annoncée dès le propos introductif, que l’on s’attend particulièrement à la valorisation d’une démarche d’évaluation comme moyen de connaissance et d’amélioration des politiques publiques. Mais la proposition se concentre uniquement sur deux secteurs qu’elle prévoit d’évaluer pour juger de leur efficacité : les dispositifs fiscaux de soutien à la transition énergétique, et les subventions aux petits aéroports… que le rapport semble déjà avoir enterrés puisqu’il les juge inefficaces et inclut déjà la suppression de ces dispositifs dans le calcul des économies réalisées. Un ciblage aussi précis et restreint est étonnant pour un rapport d’ambition générale sur l’action publique en France à l’horizon 2022.

On peut être surpris par le fait que le chapitre dans lequel est évoquée l’évaluation s’appelle « éviter les dépenses publiques inutiles », reflétant une logique de justification de coupes budgétaires plutôt que d’amélioration de l’efficacité d’une politique. La proposition n’évoque que deux secteurs mais s’intitule bien « Mettre un terme à toutes les interventions publiques dont l’efficacité n’est pas démontrée ». Serait-ce un appel à généraliser ce principe ?

La Vigie espère que cette proposition 20 ouvrira la voie à un développement de l’idée d’évaluation systématique comme moyen de connaissance, dans une approche élargie ayant pour but l’amélioration des politiques publiques et prenant en compte l’ensemble des interventions et dispositifs constituant chacune d’elles.

Une vision paradoxale de l’évaluation portée par un comité à la composition étonnante

Finalement, l’évaluation des politiques publiques reste à un état embryonnaire dans ce rapport. Celui-ci est davantage centré sur la recherche d’économies par la suppression de dispositifs, tandis que l’évaluation proposée pour les établissements publics est conçue comme un outil de contrôle et de gestion, dans une culture de la performance d’inspiration néo-libérale. Un parti pris qui n’est certainement pas sans lien avec la composition du comité, qualifié de « business-friendly » dans l’article intéressant de La Gazette des Communes, et dont les collectivités, les écoles et les hôpitaux semblent être les grands absents.

 

Pour aller plus loin…

Le texte du rapport :

Rapport CAP22

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.