Suivi et évaluation des politiques locales Contrat d’avenir provincial Leçons d’une première expérience de pilotage stratégique à la Province de Namur ____________________________________________________________ SWEP – 20 juin 2012
La Province de Namur en quelques mots 1.000 ETP – 600 enseignants – 130 Mo € 6 secteurs: Enseignement et formation Culture Médico-social et logement Environnement, services techniques et agriculture Economie Tourisme Services d’Appui
Agir sur deux axes Améliorer la gouvernance: Pertinence du maintien de l’échelon provincial Améliorer la gouvernance: « Bien faire et le Faire savoir » Renforcer le rôle intermédiaire de la province: Coordonnateur, Fédérateur et Facilitateur Instaurer une culture de résultats
« L’évaluation comme levier de conduite du changement » Comment? « L’évaluation comme levier de conduite du changement » Définir, dès le début de la législature, des objectifs à atteindre et en évaluer périodiquement le degré d’atteinte
Contrairement à ce qui se passe chez nos voisins français, nous n’avons pas d’élu « délégué à l’évaluation » ou de service Evaluation à proprement parler
L’Exécutif a mandaté un comité de pilotage mixte (administration et politique) pour: établir une méthodologie et en assurer le suivi permettre une transversalité: - interface politique/administration - assurer la circulation de l’information - faciliter la mise en œuvre et assurer la continuité
Méthodologie Délivrable: « Plan d’actions 2008-2012 » Groupes de travail prévus : 2 sphères (élus et administration) mais … Timing de réalisation: 6 mois! Délivrable: « Plan d’actions 2008-2012 »
présenté au Législatif par l’Exécutif Portage variable par l’Exécutif Vision stratégique Diagnostic (Logique sectorielle - fiches techniques d’évaluation) Concertation (partenaires et Conseil Consultatif de Diagnostic) PLAN D’ACTIONS 2008-2012 présenté au Législatif par l’Exécutif
Le CAP communique En Externe En Interne Rencontres citoyennes TV locales, trimestriel Articles de presse Tribunes Acteurs locaux (via concertation) Réunion d’information à l’ensemble du management mais… vision stratégique pas assez discutée avec l’administration Bulletin d’info interne Conseil consultatif de diagnostic (*) (*) Réunissant Chefs des groupes politiques, Exécutif, Présidence du Législatif, Direction Générale, comité de pilotage
Maladresses en terme de communication Mise en œuvre (trop) rapide Méfiance Inquiétude Démotivation CAP = Restructuration Manque d’impulsion Pas de synergie Politique - administration Pas d’adéquation objectifs- ressources Contexte délicat : situation financière inquiétante et rupture de dialogue administration-politique
Première évaluation intermédiaire Autoévaluation réalisée par les responsables de service et Processus validé par un consultant externe Elaboration avec le consultant externe d’une méthodologie, de deux questionnaires d’évaluation (comité de pilotage et responsables de service) Champ de l’évaluation: toutes les activités (fiches opérationnelles) Constats majeurs de départ: manque d’impulsion et démarche CAP pas suffisamment intégrée
Etc pour chaque objectif …
Présentation à l’administration TOUS les services ont participé à l’évaluation mais l’adhésion reste précaire et dépend du bon suivi des recommandations… Rapports et recommandations validés par l’Exécutif et la Direction générale Présentation à l’administration et au Législatif
Portage par la hiérarchie Mise en œuvre du CAP: Portage d’intensité variable mais manque d’impulsion et pas de prioritisation des objectifs Suivi de la mise en œuvre du CAP: Manque d’impulsion - aucun suivi sur l’avancement 1ère évaluation intermédiaire du CAP: Intensification de l’impulsion au cours de l’évaluation sur demande du comité de pilotage Suivi des recommandations - seconde évaluation: Manque d’impulsion et de suivi
Nuançons… Si l’impulsion s’est à chaque étape avérée insuffisante, l’Exécutif a tout de même osé prendre le risque des évaluations et d’une remise en question Par ailleurs, une grande liberté d’action a été octroyée au comité de pilotage qui a travaillé en toute transparence et objectivité
Leçons tirées de la 1ère évaluation intermédiaire Ne pas confondre vitesse et précipitation Appréhender et ne pas subir le changement Rassembler plutôt qu’opposer Mettre en adéquation les ressources et les objectifs Agir sur le long terme plutôt que sur le court terme
2ème évaluation intermédiaire Poursuite des formations Meilleure adéquation Objectifs / Ressources Objectifs affinés et enrichis d’indicateurs Validation des fiches opérationnelles revues par un consultant et l’IWEPS Définition des objectifs sectoriels Mise en œuvre des recommandations de la 1ère évaluation Validation par le Collège
2ème évaluation Portage Evaluation de la mise en œuvre des recommandations de la 1ère évaluation négative Perception d’un exercice théorique sans valeur ajoutée (un rapport de plus…) Mauvaise communication adéquation objectifs-ressources
3ème évaluation (finale) 2 volets: Mesure du degré d’atteinte des objectifs finaux + Mesure de la valeur ajoutée de certaines actions provinciales
Méthodologie Valeur ajoutée Diffère selon les secteurs d’activités: Culture et médico-social: enquête auprès des communes et des partenaires Services d’appui: questionnaire de satisfaction à l’ensemble des services Service technique (aide aux communes): questionnaire de satisfaction aux communes Enseignement et formation: mise en avant des particularités provinciales en matière d’enseignement et formation
Constats 3ème évaluation Niveau d’atteinte des objectifs: 54% atteints 28,5 % atteints partiellement 18,5 % non atteints Les recommandations des deux évaluations précédentes restent pertinentes Trop de focalisation sur les objectifs opérationnels
Dépenses – Poids des services
Diagnostic territorial Orienter l’action future Renforcer les liens avec : Les acteurs provinciaux (communes, intercommunales, associations, …) Les autorités régionale et communautaire CAP.2
CONCLUSIONS GENERALES Travail à l’envers … comme les autres! Manque de communication et de concertation avec l’administration Manque d’impulsion de la hiérarchie Pas de suivi des recommandations… or les constats se confirment par un autre biais Perception de l’évaluation comme un exercice théorique Processus d’apprentissage à long terme Les objectifs et la logique temporelle de l’action publique divergent de ceux du politique
CONCLUSIONS GENERALES Les résultats du CAP (recentrage sur les métiers forts) et du diagnostic outil décisionnel Les demandes augmentent, il y est répondu dans une large mesure avec moins de moyens La définition d’objectifs, d’indicateurs assortis d’évaluations périodiques ont permis à la Province de gagner en visibilité (plus de transparence)
Mais … Valeur Ajoutée du CAP Renforce la gouvernance Outil de gestion interne, démarche qualité Balise, ce à quoi l’administration s’engage avec les moyens fixés (idéalement) Démarche valorisée/exploitée par rapport à la tutelle, aux pouvoirs subsidiants ou aux partenaires: repositionnement de la province en tant que pouvoir intermédiaire Occasion de rencontre, dialogue au sein de l’administration et aussi entre les 2 sphères
Perspectives Conclusions du diagnostic prospectif Migrer vers un Plan Stratégique Transversal mais garder la gestion par objectifs Concrétiser la stratégie dans un plan ou un contrat d’objectifs entre les deux sphères Portage par le Top Management Responsabilisation: capacité de piloter / redevabilité Formations Développer la cohérence transversale et l’esprit de partenariat
Comment assurer le suivi des décisions? Démarche intégrée et pas parallèle! Vision discutée et partagée déclinée par l’administration en objectifs sectoriels et opérationnels validés Comités de direction: évocation des freins/avancées (1x/mois – COP +IG+Dir) Réunions DG: idem (Greffier/IG - 2 x/mois) Réunion annuelle COP/Dir Evaluations intermédiaires + finale !Efficience du suivi!
Comment sensibiliser les élus à la nécessité du suivi? Engagements du contrat d’objectifs précis élus concernés + Obligation décrétale de réaliser un plan stratégique opportunité pour l’administration de sensibiliser les élus à l’intérêt du suivi
A qui confier cette tâche? Comité de pilotage? Comité de pilotage mixte: Favorise la transversalité Joue le rôle d’interface entre les deux sphères Assure la circulation de l’information Facilite la mise en œuvre et assure la continuité
Outils Utiliser le même « jargon » : lexique Vision stratégique Diagnostic interne et externe Fiches opérationnelles Questionnaires d’évaluation Rapports d’évaluation service/secteur Rapport du comité de pilotage Tableau de suivi Formations
Qui évalue et pour qui? Evaluation de: - de la méthodologie et du suivi : le comité de pilotage (+ consultant éventuellement) - du fond: l’administration
Quid de la prise en compte des recommandations? Validation des recommandations Communication Implémentation Impulsion et suivi
Participation citoyenne dans les dynamiques d’évaluation? Enquêtes réalisées lors de l’évaluation finale auprès des: - communes - partenaires - usagers
Merci de votre attention! Province de Namur Service Audit et Aide à la Gestion David VERHOEVEN Place Saint-Aubain 2 5000 NAMUR david.verhoeven@province.namur.be 081/77 55 37