Temps de lecture: 16 minutes

Quand le hockey devient un cours de statistiques

Mon cœur saigne quand j’écoute un match de hockey. Non, ce n’est pas à cause du score ou d’un mauvais coup, c’est à cause des commentateurs qui nous servent des statistiques farfelues en direct ! Mon chum rit, mais moi, je grommelle en direction de la télé : « Attention, erreur statistique en vue ! »

On voit des corrélations sorties de nulle part, des conclusions tirées sur seulement trois parties, ou des « crises » qui ne sont que du bruit normal, qui rentrent parfaitement dans la variation normale d’un processus. Le pire ? Ce que ces analystes font avec les stats du hockey, vos équipes le font probablement chaque semaine avec VOS indicateurs de gestion, dans VOS réunions.

Et ça, c’est beaucoup plus grave que Marc Denis qui sort des chiffres de son chapeau.

Dans cet article, nous allons décortiquer les cinq erreurs statistiques universelles les plus fréquentes — illustrées avec des exemples tirés des séries éliminatoires de la LNH — et je vous donne les outils concrets pour ne plus tomber dans le piège.

Parce que ce n’est pas un problème de données. C’est juste un problème d’interprétation.

Erreur #1 : Corrélation, Causalité et Coïncidence. 

Non, mais sérieusement, c’est pas la même chose !

Ah, le hockey. Le Canadien passe 25 minutes sans décocher un seul tir au but… et il gagne 2-1. Magie !

Je vous parie que la prochaine fois qu’il y aura une longue période sans tir, un analyste va nous ressortir cette stat pour parler de « stratégie défensive payante » ou de « signe de bonne augure ».

C’est ça, la corrélation imaginaire. C’est le piège où votre cerveau tombe en premier : deux choses arrivent en même temps, donc elles sont liées. Le lien n’existe pas, mais on aime tellement se raconter une histoire ! C’est l’erreur statistique la plus fondamentale.

La vérité est simple :

  • Corrélation : Deux variables bougent ensemble.
  • Causalité : L’une cause réellement l’autre (le vrai Saint-Graal en amélioration).
  • Coïncidence : Les événements se rencontrent sans aucun lien de cause à effet.

En gestion, ça donne : « Les plaintes ont plongé ce mois-ci, c’est parce qu’on a changé le logiciel ! » Vous êtes sûr ? N’oubliez pas de vérifier les vacances d’été… Et si ça n’arrive qu’une seule fois, ce n’est pas une corrélation, c’est juste le hasard, une coïncidence ! Il vous faut un échantillon beaucoup plus gros pour confirmer quoi que ce soit.

La question à poser avant de crier à la causalité

Avant d’annoncer fièrement que votre intervention A a réglé le problème B (ou de paniquer parce qu’il y a un lien), faites cet exercice simple :

  • Le test du « Comment concrètement ? » Demandez-vous : « Par quel mécanisme concret et vérifiable le facteur A (le changement de logiciel, par exemple) a-t-il pu entraîner l’effet B (la baisse des plaintes) ? »
  • Si vous ne trouvez pas le lien physique ou logique : Attention, c’est votre imagination qui travaille, pas vos données. Vous avez une belle histoire à raconter, mais pas une statistique solide.

C’est le meilleur filtre pour éviter de vous faire prendre par votre propre cerveau (ou par les hallucinations que l’IA a, avouons-le, apprises de nous-mêmes).

Erreur #2 : 3 matchs (ou 8 répondants) ≠ une tendance. 

Stop aux conclusions hâtives !

Avouez que c’est tentant. Vous regardez le tableau de bord et, miracle, la moyenne des trois dernières semaines est meilleure que la précédente. « On a trouvé la solution ! » crie votre équipe. Mais attention, c’est souvent là que l’erreur statistique frappe le plus fort : on se base sur un échantillon minuscule.

En séries de la LNH, un gardien fait peut-être un taux d’efficacité de 0,961 sur 3 matchs. Oui, c’est spectaculaire. Mais c’est aussi un échantillon bien trop petit pour séparer la chance, le momentum ou un mauvais adversaire d’une vraie amélioration durable.

Transposons ça à votre bureau :

Votre taux de satisfaction client a bondi ce mois-ci. Vous êtes euphorique ! Puis, vous demandez : « C’est basé sur combien de répondants ? » Et là, la réponse : « Euh… huit. »

Huit répondants, c’est l’équivalent de trois matchs de hockey. C’est un jeu dangereux pour prendre des décisions, parce que ça ne dit absolument rien sur la vraie performance de votre processus.

Le test du « Suffisamment de données » (pour arrêter de paniquer)

Votre équipe est excitée parce que les trois derniers points de données sont meilleurs ? Excellent. Mais avant de déclarer la victoire et de changer toute votre stratégie, il faut mettre ce mini-échantillon à l’épreuve de la réalité.

Voici les deux règles à suivre pour être certain que vous ne confondez pas coup de chance et vraie tendance :

  1. La question qui tue : Demandez-vous toujours : « Si j’avais pris cette mesure une semaine avant ou une semaine après, est-ce que j’arriverais à la même conclusion ? »
    • Si la réponse est « probablement pas », c’est que votre échantillon est trop petit. Ce n’est pas une tendance, c’est juste un instantané.
  2. La règle du 20-30 : Pour confirmer que vous regardez une vraie tendance stable, visez un minimum de 20 à 30 points de données. En dessous de ça, vous prenez des décisions basées sur une histoire que vos données ne peuvent pas encore raconter.

Erreur #3 : Réagir au bruit

Faut-il réagir au bruit ou au signal ?

Cole Caufield. Un des meilleurs marqueurs de l’équipe avec 51 buts en saison régulière. Puis, il arrive en séries et… 1 seul but en 8 matchs.

Panique générale. Les analystes s’emballent : Faut-il le changer de trio ? Est-ce qu’il est « dans sa tête » ? Peut-il encore livrer la marchandise ?

Après seulement 8 matchs.

Un analyste glisse quand même : « Après 2-3 matchs de plus, si c’est pareil, là on pourra conclure. » Exactement. Parce que 8 matchs, c’est ridicule. C’est un échantillon trop petit pour distinguer une vraie tendance d’une simple variation normale de son processus de performance.

C’est l’erreur statistique que les commentateurs font avec le hockey, et que vos équipes font avec vos données :

  • Les ventes ont baissé ce mois-ci ? Réunion de crise ! Analyse d’urgence ! Nouveau plan d’action !

Peut-être. Ou peut-être que c’est juste la variation normale de votre processus et que vous venez de perdre 3 heures à stresser pour rien.

La règle : avant de sonner l’alarme, demandez-vous toujours si cet écart sort vraiment de votre variation normale.

C’est quoi la variation normale?

Imaginez la scène : vous regardez les stats de Suzuki aux mises en jeu sur 16 matchs. Un jour, c’est 41,9 % ; le lendemain, 35,7 %. Les commentateurs paniquent : « Il a perdu le contrôle ! Il faut faire quelque chose ! »

Moi, pendant ce temps, j’ai mes graphiques ouverts. Et là, surprise : match suivant, 70 %. Puis 75 %. Personne n’est intervenu, c’est le même joueur. Qu’est-ce qui s’est passé ? Rien. C’était juste du bruit. Juste de la variation normale.

Je l’ai fait pour me calmer (oui, je compile les stats de hockey quand je suis fâchée) : sur 16 matchs, la moyenne est à 56,5 %, mais ça varie entre 35,7 % et 75 %. Ça, c’est le look parfait d’un processus qui fait… son affaire.

En gestion, on appelle ça la variation commune — c’est le pouls normal de votre processus. La plupart des « crises » pour lesquelles vos équipes tiennent des réunions d’urgence sont en réalité juste ce bruit-là.

Trois questions simples avant de paniquer (et convoquer une réunion inutile)

On réagit souvent au bruit, mais le bruit n’a jamais besoin de votre intervention. Seul le signal — la variation spéciale — le mérite.

Pour ne pas perdre votre temps, posez ces trois questions à chaque fois que votre indicateur bouge :

  1. Le point OVNI : Est-ce qu’un point de donnée sort clairement de son pattern habituel ? (Il traverse les limites naturelles du processus).
  2. La série de 8 : Est-ce qu’il y a 8 résultats consécutifs qui sont tous du même côté de la moyenne ? (Ça indique un décalage permanent).
  3. La tendance forcée : Est-ce qu’il y a 6 résultats consécutifs qui ne font que monter ou que descendre ? (C’est un changement de tendance très fort).

Réponse : Si c’est Non à tout, c’est du bruit. Circulez, y’a rien à voir !

Ces règles, appelées règles de contrôle statistique des procédés (SPC), sont vos meilleurs outils pour distinguer les variations qui méritent votre attention de celles que vous devez ignorer. Fini les réunions d’urgence pour rien.

Erreur #4 : Manipuler ou analyser ? 

Attention aux dates de départ, sinon on se fait avoir !

« Les Sabres de Buffalo ? Meilleure équipe de la ligue… depuis la mi-décembre ! »

Ça sonne tellement bien. Pourquoi la mi-décembre, au juste ? Parce que c’est pile le moment où leur nouveau DG est arrivé et où les victoires ont commencé.

Mais si vous choisissez octobre comme point de départ ? Ou février ? L’image est complètement différente. Même équipe, mêmes joueurs, mêmes résultats. Seule la date de départ change l’histoire. C’est la preuve qu’en manipulant la fenêtre d’analyse, on peut raconter n’importe quoi.

En entreprise, on voit ça partout : « Notre production a bondi de 23 % depuis janvier ! »

C’est sûr que si la moitié de l’équipe était en vacances en décembre et janvier, comparer avec février-mars va toujours donner une belle progression. Regardez l’année complète, et la courbe vous racontera une histoire bien plus honnête.

Ce n’est pas toujours de la mauvaise foi, c’est souvent notre cerveau qui cherche l’histoire la plus sexy dans les données. Le hic, c’est que les décisions prises sur ces jolies fictions, elles, sont terriblement réelles. C’est une erreur statistique facile à éviter si l’on est rigoureux.

La règle d’or pour ne plus se faire piéger par les dates de départ

Le danger, c’est de choisir le point de départ qui raconte l’histoire que vous voulez entendre. Pour contrer cette erreur statistique, l’outil Lean vous impose une rigueur simple : la standardisation de vos fenêtres d’analyse.

Voici ce qu’il faut faire pour des analyses honnêtes :

  1. Standardisez les fenêtres : Utilisez toujours la même période et la même durée d’un rapport à l’autre. Si vous analysez un mois, comparez-le au mois précédent ou au même mois l’année dernière, pas aux trois pires semaines de l’histoire.
  2. Regardez large : Affichez au minimum 12 mois de données en tout temps. Pourquoi 12 mois ? Pour capter la saisonnalité (vacances d’été, fêtes de fin d’année, etc.). Si vous ne tenez pas compte de l’impact des saisons, vous ne mesurez rien de réel.
  3. Méfiez-vous du « depuis que… » : Toute analyse qui commence par « depuis qu’on a fait X » est suspecte. Elle est souvent biaisée pour justifier une décision déjà prise. Comparez plutôt la période « avant » avec la période « après », en respectant les 12 mois.

Erreur #5 : Attention aux indicateurs indirects 

Ils nous font regarder à côté de la cible!

3 mai 2026. Tirs au but : Canadiens 9, Lightning 29.

Quand on voit ces chiffres, on a l’impression que le Canadien se fait sol-i-de-ment démolir, non ? Les commentateurs étaient déjà en mode catastrophe.

Mais on oublie la question la plus importante : qu’est-ce qu’on veut vraiment ? Des tirs, c’est un indicateur indirect. Ce qu’on veut, c’est des buts. Résultat du match : 2-1 pour Montréal. Une équipe qui tire deux fois et marque une fois a plus de chance de gagner que l’équipe qui tire six fois et rate tout.

C’est l’erreur statistique classique : se concentrer sur la métrique facile à mesurer, au lieu du résultat réel.

Laissez-moi vous raconter une histoire vécue. J’ai déjà été mandatée dans une usine pour comprendre pourquoi il y avait plus de problèmes de qualité… le mercredi. On a cherché dans tous les coins : les machines, les matériaux, les équipes de travail. Le mercredi avait-il un pouvoir maléfique ?

La qualité était pareille tous les jours. Ce qui changeait le mercredi, c’est que l’inspecteur qualité côté client était particulièrement motivé à trouver des problèmes.

Finalement, notre indicateur — le nombre de retours clients — ne mesurait pas la qualité de la production. Il mesurait le zèle d’un inspecteur ! L’indicateur indirect avait complètement masqué la vraie variable.

Une mesure indirecte, c’est utile… si vous connaissez ses limites et que vous ne la laissez pas devenir la cible principale.

La question qui sauve pour ne pas rater votre cible

Votre tableau de bord est rempli de métriques, c’est bien. Mais la question cruciale à se poser pour éviter l’erreur statistique de l’indicateur indirect est celle-ci : « Qu’est-ce qu’on mesure vraiment ? »

Imaginez que vous améliorez votre taux d’ouverture d’emails (l’indicateur indirect), mais que vos ventes (le résultat final) stagnent. Vous n’avez pas réussi. Vous avez juste optimisé une métrique secondaire.

Pour vous assurer de mesurer la bonne chose :

  • Le test du Résultat Final : Chaque fois qu’un indicateur s’améliore, vérifiez immédiatement si votre résultat final bouge en conséquence. Si le résultat final reste le même, vous travaillez à côté de la vraie variable.
  • Trace la Causalité : Utilisez des outils comme la méthode Hoshin Kanri ou une carte de métriques pour tracer clairement la connexion entre vos indicateurs indirects (les activités) et vos résultats réels (les objectifs stratégiques). Ça vous aidera à visualiser la chaîne de valeur et à vous assurer que chaque mesure compte.

Conclusion

Le problème, c’est votre cerveau !

Les données, elles, ne mentent jamais. C’est notre interprétation qui dérègle absolument tout. Les erreurs statistiques qu’on vient de décortiquer, les commentateurs de hockey les font en direct à la télévision, devant des millions de personnes, et personne ne sourcille.

Pourquoi ? Parce qu’on est tous câblés pour chercher des patterns, des causes, des histoires. On aime tellement se raconter des fictions ! Mais en gestion, ce petit jeu d’imagination coûte horriblement cher quand on joue n’importe comment avec les chiffres.

Pour récapituler (et vous sauver des heures de réunion de crise inutiles) :

  • Corrélation, causalité, coïncidence : on ne mélange plus.
  • 3 matchs ≠ une tendance : ayez un échantillon solide.
  • Distinguer le bruit du signal : ne sonnez l’alarme que pour la variation spéciale.
  • Attention aux indicateurs indirects : vérifiez si vous mesurez la bonne chose.

Ce qui manque dans vos organisations, ce n’est pas le volume de données. C’est le cadre pour les lire correctement. Et ça, c’est une compétence qui s’apprend.

La vraie question : Si vos équipes n’ont pas les outils pour distinguer le bruit du signal, combien de réunions de crise inutiles tenez-vous chaque mois ? Et combien de vrais problèmes passent inaperçus parce qu’ils ressemblent juste à de la variation normale ?

Vous voulez développer la littératie des données dans votre organisation ?

Kaizen Radical accompagne les organisations québécoises dans l’amélioration de leurs processus de gestion — incluant la mise en place d’indicateurs pertinents, interprétés correctement, par des équipes autonomes.texte

Contactez-nous pour une conversation exploratoire sans engagement.


Photo de Julie Savage-Fournier de face et souriante

Par Julie Savage-Fournier
Ingénieure industrielle
Lean Six Sigma Master Black Belt

Catégories: ,



Est-ce que je dois être statisticien pour appliquer ces principes dans mon organisation ?

Pas du tout. Les cinq erreurs présentées dans cet article ne nécessitent aucun calcul avancé. Elles requièrent surtout de ralentir avant de conclure et de se poser les bonnes questions. Les règles pour distinguer le bruit du signal — un point hors norme, 8 points consécutifs du même côté, 6 points en hausse ou baisse continue — sont applicables sur n’importe quel graphique de tendance, sans formule mathématique.

Comment convaincre mon équipe ou ma direction de changer sa façon d’interpréter les données ?

La méthode la plus efficace que j’ai vue sur le terrain : prendre un exemple récent vécu dans votre organisation — une réunion de crise, une décision prise sur peu de données — et le montrer sous un éclairage différent. Pas pour pointer des erreurs, mais pour montrer qu’il existe un cadre qui permet de distinguer ce qui mérite attention de ce qui n’en mérite pas. La plupart des gestionnaires sont soulagés quand ils comprennent qu’ils n’ont pas à réagir à chaque écart.

Quelle est la différence entre un indicateur indirect et un vrai indicateur de performance ?

Un indicateur indirect mesure quelque chose supposé corréler avec ce qu’on veut vraiment atteindre. Le nombre de tirs au but en hockey est un indicateur indirect de la performance offensive… mais ce qui nous intéresse vraiment, ce sont des buts.
On utilise les indicateurs indirects quand c’est trop difficile de mesurer l’indicateur qui nous intéresse. Par exemple lorsqu’il s’agit d’un test de qualité destructif ou d’une mesure très compliquée à réaliser.
En entreprise, le taux d’ouverture d’emails est un indicateur indirect des ventes, le nombre de plaintes est un indicateur indirect de la qualité réelle. Le problème survient quand on optimise l’indicateur indirect au lieu du résultat réel. La question à se poser : si cet indicateur s’améliore mais que notre résultat final reste le même, est-ce qu’on a vraiment réussi ?

Combien de points de données faut-il pour tirer des conclusions fiables ?

En règle générale, en contrôle statistique des procédés, on recommande un minimum de 20 à 30 points de données pour établir les limites naturelles d’un processus. Pour les données mensuelles, ça représente environ deux ans d’historique — ce que peu d’organisations utilisent vraiment avant de tirer des conclusions. Pour les décisions à court terme, la question à se poser est la suivante : si j’avais mesuré une semaine plus tôt ou plus tard, aurais-je la même conclusion ?

Kaizen Radical offre-t-elle des formations sur la lecture des indicateurs de performance ?

Oui. Kaizen Radical accompagne les équipes de direction et les gestionnaires dans le développement d’une littératie des données adaptée à leur réalité organisationnelle. Cela inclut la mise en place de tableaux de bord pertinents, l’apprentissage des outils de contrôle statistique simples et l’accompagnement dans l’interprétation rigoureuse des résultats. Contactez-nous à kaizenradical.ca/contact pour discuter de vos besoins.