L’idée que l’erreur n’est pas seulement un processus aléatoire, mais systématique est sans doute ancienne et s’ancre au moins dans la distinction que fait Kant entre l’erreur et l’illusion. Elle a franchi un pas décisif avec l’article de Tversky et Kahneman (1974). Les deux auteurs montrent que trois heuristiques (c’est-à-dire les procédés qui nous servent à trouver des solutions dans la vie quotidienne) produisent des erreurs systématiques : l’heuristique de représentativité (representativeness heuristic), l’heuristique de ce qui vient à l’esprit (availability heuristic) et l’ancrage heuristique (anchoring heuristic). Le drame est que nous employons ces techniques en permanence quand nous pensons dans la vie courante, et qu’elles fonctionnent dans la plupart des cas extrêmement bien. Or, parfois, elles conduisent à une erreur sans qu’on sache a priori dans quels cas. Dans leur article, Tversky et Kahneman (1974, p. 1130) expliquent que les chercheurs commettent ces erreurs aussi bien que tout un chacun : « The reliance on heuristics and the prevalence of biases are not restricted to laymen. Experienced researchers are also prone to the same biases –when they think intuitively. » Pour les chercheurs en gestion procédant par études de cas, les biais cognitifs posent un double problème : on devrait les retrouver dans les cas, sous la forme d’erreurs de diagnostic commises par les acteurs, et on devrait les éviter dans l’analyse des cas – éviter de commettre soi-même une erreur de diagnostic sur le cas. Le mot diagnostic renvoie à une métaphore médicale. Prenons-là au sérieux : des médecins se sont intéressés à l’erreur de diagnostic dans leur propre pratique et ont prolongé, avec une approche pragmatique, les travaux de Tversky et Kahneman. C’est par exemple le cas de Croskerry (2000) et de Groopman (2007). Nous suivrons ici Redelmeier (2005).

Auteur: Hervé Dumez

Télécharger cet article