Une fois n’est pas coutume, la vigie sort des politiques publiques* pour interroger les pratiques d’évaluation des formations.(* bien que toute évaluation de politique de formation professionnelle ne peut ignorer l’évaluation des formations !)
Comment sont évaluées les formations professionnelles en France ?
Il n’y a pas de chiffres faisant autorité sur le sujet, mais l’on rencontre le plus fréquemment les modalités suivantes :
- pas d’évaluation du tout
- des questionnaires de “bon sens” : évaluation à chaud, évaluation à froid
- des questionnaires appuyés sur un modèle (cf suite de l’article)
- des contrôles de connaissance : quizz, examen, soutenance, mise en situation
Ces modes peuvent être combinés ; associer plus moins les stagiaires, formateurs et hiérarchie ; être plus ou moins informatisés (il existe des logiciels métier poursuivant cette seule fonction – voir en fin d’article).
D’après une étude publiée en 2011 par un acteur du secteur, l’essentiel des évaluations réalisées se bornent à constater la satisfaction immédiate des stagiaires, avec un champ ouvert de commentaires (Etude sur les pratiques d’évaluation des formations, formaeva). Ce qui ne fait qu’abonder dans le sens les résultats de recherche de Beech et Leather (2006) aux Etats-Unis, très cités.
Quels sont les modèles “théoriques” utilisés pour l’évaluation de la formation ?
Un modèle s’est largement imposé dans les pratiques et les discours, il s’agit de l’échelle à 4 niveaux de David Kirkpatrick.
L’Échelle de Kirkpatrick à 4 niveaux
Chaque niveau est supposé devoir être évalué, mettant en lumière les faiblesses de l’évaluation à chaud qui s’arrête au niveau 1.
Niveau 1 = réactions (évaluation de la satisfaction)
Niveau 2 = apprentissage (évaluation des acquis de la formation)
Niveau 3 = comportements (évaluation des transferts en situation de travail)
Niveau 4= résultats (évaluation des impacts sur les performances de l’organisation)
Bien qu’initialement élaborée comme une échelle progressive, plusieurs travaux tendent à montrer que si l’échelle a quelque pertinence, les niveaux peuvent être assez indépendants (par ex. un stagiaire peut n’avoir pas été satisfait mais avoir appris quelque chose ; un autre n’aura rien appris mais ce sera décidé à changer ses pratiques…sous la pression du groupe ?)
Pour aller plus loin :
- sur l’évaluation de la formation, la vigie vous recommande l’article de synthèse sur le sujet, publié en 2010 par Gilibert, D. & Gillet, I. “Revue des modèles en évaluation de formation: approches conceptuelles individuelles et sociales (pdf)“
- une guide de l’organisation mondiale de la santé “Evaluating training in WHO“, qui repose largement sur les 4 niveaux de Kirkpatrick, et adoptant la version modifiée ajoutant un 5ème niveau dit du “retour sur investissement” pour l’organisation.
Extrait du guide de l’OMS, véritable vademecum pour la mise en place d’une évaluation de type Kirkpatrick, allant jusqu’à des exemples de questions et de scores.
Sites de professionnels spécialisés dans l’évaluation de la formation professionnelle et éditeurs de logiciels
- Le centre de ressource de kirkpatrick partners, disposant d’un sérieux centre de ressources
- Le blog de Formaeva, bien animé, concis et didactique
- Le site Trainingcheck, proposant 18 modèles de questionnaires basés sur l’échelle de Kirkpatrick, et assurant l’hebergement des questionnaires (même gratuitement)
- le cabinet Skillway
Les autres modèles(Kirkpatrick n’est pas le seul!)
- le CIRO de Ward, Bird et Rackham visant à poser le problème de l’efficacité de la formation au regard de son adéquation aux besoins et aux contextes de formation.
- le modèles de Kraiger sur les niveaux d’apprentissage
Ping : Un Quiz ? pour quoi faire ? – ePortFolio | JN SAINTRAPT
Ping : L’évaluation des formations… quelles sont les (bonnes) pratiques ?