La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

La décision collective et ses pièges

Présentations similaires


Présentation au sujet: "La décision collective et ses pièges"— Transcription de la présentation:

1 La décision collective et ses pièges
Management La décision collective et ses pièges Christian Morel XIes Assises – Lille – 11 & 12 décembre 2008

2 PLAN Les pièges cognitifs Les pièges collectifs La perte de sens
XIes Assises – Lille – 11 & 12 décembre 2008

3 1E PARTIE : LES PIEGES COGNITIFS
1. Les erreurs de représentation 2. Les a priori 3. Les erreurs sur les probabilités 4. Le biais de la chose saillante 5. Le biais de l’imitation 6. La difficulté de raisonner sur 2 variables simultanément

4 1E PARTIE : LES PIEGES COGNITIFS
Caractère très rudimentaire Y compris dans des environnements scientifiques

5 1. LES ERREURS DE REPRÉSENTATION
1E PARTIE : LES PIEGES COGNITIFS 1. LES ERREURS DE REPRÉSENTATION On réinterprète la réalité en considérant que tout est normal (ex de l’erreur de réacteur) Refus quasi-inconscient de voir l’évidence (ex des ingénieurs des joints des boosters de Challenger, voir diapo) L’erreur est considérée comme impossible (ex de la banque Barings : le management a considéré qu’il était exclu qu’un directeur soit un escroc) Difficulté d’en sortir. Expliquent la persévérance

6 Floride sujet à des vagues de froid intense
Lors d’un essai : températures très basses Les joints ont mal fonctionné (voir schéma) Les ingénieurs ont dit : une vague de froid en Floride pas possible, donc cela ne se reproduira pas Ont continué à concevoir des joints ne fonctionnant pas à basses températures.

7

8 1E PARTIE : LES PIEGES COGNITIFS
2. LES A PRIORI L’idée fausse sur les hivers en Floride chez des ingénieurs de Challenger Floride sujet à des vagues de froid intense Les ingénieurs ont raisonné comme l’homme de la rue : Floride = hivers doux

9 1E PARTIE : LES PIEGES COGNITIFS
3. LES ERREURS SUR LES PROBABILITÉS

10 Idée fausse des responsables de la NASA sur le taux d’échec d’une fusée
Probabilité d’échec = 1 pour 100 Croyance = 1 pour ou 1 pour Exactement même illusion en chirurgie orthopédique Probabilité d’erreur = 1 pour 100 Croyance des jeunes chirurgiens = jamais d’erreur

11 Non prise en compte de l’incertitude due aux faibles tailles d’échantillon
Ex : Entreprise X haute technologie  importance illégitime donnée à une enquête d’opinion fondée sur des échantillons de petite taille

12 1E PARTIE : LES PIEGES COGNITIFS
4. LE BIAIS DE LA CHOSE SAILLANTE On attribue une importance injustifiée à ce qu’on voit en premier ou ce à quoi on pense d’abord. Erreur beaucoup plus fréquente qu’on pourrait le penser

13

14 1E PARTIE : LES PIEGES COGNITIFS
5. LE BIAIS DE L’IMITATION On reproduit dans la solution une situation précédente, bien que cela ne soit pas justifié.

15

16 1E PARTIE : LES PIEGES COGNITIFS
6. LA DIFFICULTE DE RAISONNER SUR 2 VARIABLES EN MÊME TEMPS Ex du crash de Portland Ex d’une réunion sur la négociation et l’information d’accompagnement d’une fermeture d’usine

17 crash

18 2E PARTIE : LES PIEGES COLLECTIFS
1. Les échecs de la communication silencieuse 2. La non-expression des problèmes 3. Les pièges interactifs 4. L’étanchéité des erreurs

19 1. Les échecs de la communication silencieuse
2E PARTIE : LES PIEGES COLLECTIFS 1. Les échecs de la communication silencieuse La communication silencieuse est un moyen de coordination très efficace - Ex du couple qui se perd dans un grand magasin C’est aussi une source fréquente d’absurde - Ex des collisions de navire sur des routes de non collision

20 Collisions de navires sur des routes de non collisions
Dans Le Grand Atlas de la Mer Dans Perrow Normal Accidents

21 Les échecs de la communication silencieuse expliquent
Le paradoxe du spectateur Le paradoxe des gardiens du prisonnier

22 Exemple d’échec de la communication silencieuse :
l’unanimité apparente Groupe de 20 personnes 16 pensent A 4 pensent B Chaque partisan de B pense qu’il est le seul à penser B Chaque partisan de B se tait Le groupe en déduit qu’il y a unanimité en faveur de A

23 2. La non expression des problèmes
2E PARTIE : LES PIEGES COLLECTIFS 2. La non expression des problèmes Exemple de la promenade à Abilene Exemple de la panne de carburant de l’avion d’Avianca le 25 janvier 1990 devant l’aéroport de New-York Exemple de la téléconférence la veille du lancement de la navette Challenger Exemple des réunions autour de Kennedy pour préparer l’expédition de la Baie des Cochons à Cuba Exemple du comité de direction de Coca Cola pour décider d’une nouvelle formule

24 La promenade à Abilene Dans un ranch, au Texas, un dimanche, par une chaleur étouffante. Un couple de retraités, leur fils et leur belle fille jouent à un jeu de société sur la terrasse du ranch au frais, avec des boissons désaltérante. Ils prennent ensemble la décision de se rendre à Abilene.

25 Ils parcourent 80 km dans une vieille Buick sans air conditionné, dans la chaleur et le vent de sable.

26 Ils visitent Abilene sans intérêt
Ils visitent Abilene sans intérêt. Il n’y a pas de bons restaurants et le déjeuner est très décevant.

27 Ils font le chemin du retour dans les mêmes conditions inconfortables.

28 De retour chez eux, les quatre membres de la famille s’affalent fatigués et maussades dans les fauteuils du salon Ils finissent par se rendre compte qu’aucun des quatre n’avaient envie de faire cette promenade

29 Les raisons du silence Groupthink (Irving Janis)
Les normes de communication dans les organisations - Le style bureaucratique (froid et retenu) - Le style professionnel (pilotes) Les limites des méthodes de travail en groupe - L’abondance des post-it et les regroupements peuvent masquer un problème Ne pas surestimer la pression hiérarchique

30 3. Les pièges interactifs
2E PARTIE : LES PIEGES COLLECTIFS 3. Les pièges interactifs L’agrégation de petites décisions médiocres provoque, par un processus exponentiel, un résultat absurde

31 Exemple de piège interactif : la décision de lancer Challenger

32 Donc ils n’étudient pas le fonctionnement des joints quand il fait très froid et donc n’ont pas de données Les ingénieurs constatent le mauvais fonctionnement des joints lors d’une vague de froid Mais ils pensent que les hivers en Floride sont toujours doux Mais comme ces ingénieurs n’ont pas étudié le fonctionnement des joints quand il fait très froid, ils n’ont pas ces données Le jour du lancement ces ingénieurs sont inquiets car il fait très froid et se souviennent du problème Les directeurs de la NASA demandent aux ingénieurs de prouver leur inquiétude par des données Les directeurs de la NASA de plus sont très confiants car ils se trompent complètement sur la probabilité d’échec des fusées Les directeurs de la NASA répondent qu’il ne peuvent pas arrêter le lancement à cause d’une inquiétude qui n’est pas étayée par des données L’ordre est donné de lancer la navette

33 Ouverture épaule gauche pour la suture d’un tendon de l’épaule droite
Témoignage du Professeur Laurent Sedel, chirurgien orthopédique Ouverture épaule gauche pour la suture d’un tendon de l’épaule droite 1. Erreur de côté dans la signalétique de la radio. 2. Patient rasé et coloré à juste titre du côté droit. 3. Au vu de la radio, la panseuse corrige à tort : patient rasé et coloré du côté gauche. 4. Au moment de l’installation du patient sur la table, le chirurgien est appelé en urgence dans un autre bloc pour une intervention fatigante physiquement. 5. En l’absence du chirurgien, un interne ne vérifie pas et installe le patient du côté gauche. 6. Le chirurgien, éprouvé par son intervention en urgence, ouvre l’épaule gauche.

34 Exemple de piège interactif :
le paradoxe du débat producteur de conformisme Réunion 60% en faveur de la position A 40% en faveur de la position B La réunion va renforcer l’opinion majoritaire Solution : organiser la réunion comme un procès = donner à B des ressources et du temps

35 4. L’étanchéité des erreurs
2E PARTIE : LES PIEGES COLLECTIFS 4. L’étanchéité des erreurs Les erreurs sont très résistantes aux corrections venant de l’extérieur L’impossible avocat du diable Le candide n’ose pas (exemple de l’erreur de réacteur). L’expert officieux n’est pas reconnu. L’expert extérieur à la direction ne se sent pas autorisé. La difficile traduction Il est difficile d’expliquer une erreur car il faut la traduire dans la rationalité de l’autre Ex de la navette Challenger : l’avis des ingénieurs était intuitif, donc illégitime

36 3E PARTIE : LA PERTE DE SENS

37 3E PARTIE : LA PERTE DE SENS

38 Etape 1 de la perte de sens
Croyance qu’un objectif est d’emblée précis Disponibilité insuffisante des responsables au niveau stratégique Démultiplication par simple reproduction Objectifs contradictoires

39 Etape 2 de la perte de sens
La société valorise le fait d’être actif Réticence à admettre que des situations soient provisoirement sans solutions Il est plus facile de produire des solutions que de réfléchir à ce qu’on veut Management axé sur les processus

40 Etape 3 de la perte de sens
Contrôle d’éléments secondaires par rapport à l’objectif (ex : évaluation des formations) Contrôle de l’existence d’une action et non du contenu lui-même de l’action Ex : classement des hôpitaux en fonction de la consommation de composés hydro-alcooliques et non du nombre d’opérés infectés

41 Etape 4 de la perte de sens
Rattachement de l’action à un objectif fourre-tout (le changement par ex.) Rattachement de l’action à un objectif intouchable (responsabilisation, qualité, …)

42 CONCLUSION

43 Les pièges cognitifs Les pièges collectifs La perte de sens sont des mécanismes tellement puissants qu’on n’est jamais à l’abri d’une erreur absurde

44 Les anticorps des erreurs
Sources d’information sur la fiabilité : les Organisations Hautement Fiables (HRO) Programme SUBSAFE des sous-marins de l’US Navy Naval Nuclear Propulsion safety programs (127 millions de miles parcourus par des navires nucléaires sans accident de réacteur) L’étude de cas des porte-avions nucléaires USS Carl Vinson et USS Enterprise (1 mauvais réglage du système d’arrêt sur ) Une unité pédiatrique de soins intensifs Etc.

45 Les anticorps des erreurs
1. La connaissance  Les formations CRM (crew resources management) dans l’aviation civile  La formation en équipe sur le terrain en permanence « The ship appears to us as one gigantic school »  Les retours d’expérience sur les erreurs Formation intensive sur les naufrages des sous-marins Thresher et Scorpion  L’image totale

46 Les anticorps des décisions absurdes
2. L’interaction permanente et généralisée Le dialogue permanent dans tous les sens, partout Une structure fluide (ex des accidents répétés dans la compagnie Korean Airlines : le copilote trop silencieux) Un équipe soudée, qui se connaît

47 Les anticorps des décisions absurdes
3. L’erreur est considérée comme un moyen de progresser Ex : politique de non-punition d’Air France Déclaration du DG en 2001 : « Pour favoriser ce retour d’expérience, je m’engage à ce que Air France n’entame pas de procédure à l’encontre d’un agent qui aura spontanément et sans délai révélé un manquement aux règles de sécurité dans lequel il est impliqué et dont Air France n’aurait pas eu connaissance autrement. »

48 Les anticorps des décisions absurdes
4. Une certaine redondance (contrôles croisées, polyvalence, …) A contrario, les structures suivantes sont des sources de fragilité organisationnelle : L’outsourcing (c’est aux interfaces que les organisations sont les plus fragiles) La mutualisation excessive des supports (qui rompt l’équipe : cf brancardiers ou stérilisation centralisés dans hôpitaux) Le downsizing (risque de perte du capital de connaissances : départ des anciens, réduction de la formation) Les unités laissées séparées ( ex des centres de la NASA qui se comportent comme des unités rivales)

49 Les anticorps des décisions absurdes
5. La solution ne réside pas dans la multiplication des règles et procédures Ex du transport aérien

50 Les anticorps des erreurs
Cela implique une gestion fine Ex : la redondance La double surveillance = problème La surveillance unique complétée par une vigilance au second plan = OK Ex : le débat Le débat renforce l’opinion majoritaire Le débat avec une place importante accordée à l’opinion minoritaire = OK

51 Fiabilité des organisations *
selon qu’elles considèrent ou non l’erreur comme opportunité de progrès Certainesbanques Justice Sous-marins Santé NASA 80-90’s Porte-avions Construction automobile Arbitrage foot Presse Aviation civile * Document de travail nécessitant d’être approfondi et qui n’engage que son auteur

52 FIN DE LA PRESENTATION


Télécharger ppt "La décision collective et ses pièges"

Présentations similaires


Annonces Google