← Retour à l’accueil

Statistiques globales

Performance agrégée du modèle Dixon-Coles sur la saison 2024-25 (Big 5, 3017 matchs prédits).

Précision par championnat

Comparaison modèle vs marché (cotes football-data closing-avg). Validation ADR-011 : modèle dans ±3 % du marché sur les 5 championnats — confirmé en gros sur le tableau ci-dessous. Log-loss et Brier mesurent la qualité de calibration : plus bas = mieux. Référence pure-hasard sur 1X2 : log-loss ≈ 1.099, Brier ≈ 0.667.

ChampionnatNAcc. ModèleAcc. MarchéÉcartLog-lossBrier
Big 5 (toutes)301752.8%54.5%-1.8 pt0.99510.5935
Ligue 156055.2%55.5%-0.4 pt0.98740.5876
Premier League65650.0%53.5%-3.5 pt1.01950.6115
La Liga64853.5%55.9%-2.3 pt0.97750.5801
Serie A65753.3%53.4%-0.2 pt0.99260.5938
Bundesliga49652.0%54.4%-2.4 pt0.99780.5938

Calibration 1X2

Une probabilité est bien calibréesi, quand le modèle dit 70 %, l'événement arrive vraiment ~70 % du temps. Chaque point bleu représente un bin de 10 % de proba prédite ; la taille du point est proportionnelle au nombre de matchs dans ce bin (label n=...). La diagonale pointillée = calibration parfaite.

  • Au-dessus de la diagonale : modèle sous-confiant (réalité dépasse la proba prédite).
  • Sur la diagonale : calibration parfaite.
  • En-dessous : modèle sur-confiant (proba prédite plus haute que la fréquence réelle).
0%0%25%25%50%50%75%75%100%100%n=210n=1285n=3444n=1560n=1071n=721n=467n=236n=56n=1Proba prédite par le modèleFréquence observée

Distribution des erreurs sur les matchs prédits

Pour chaque match, on calcule un score d'erreur : log-loss (= -ln de la proba modèle au résultat réel) et Brier 1X2(= somme des écarts proba/indicateur au carré). Plus le score est bas, mieux le modèle a prédit. La ligne pointillée marque le score d'un modèle pur-hasard ; tout ce qui est à gauche = mieux que le hasard.

Log-loss par match

29385974288218841102pur hasard (1.10)0.001.002.003.004.00Log-loss du match

Brier 1X2 par match

38259156757061720761202pur hasard (0.67)0.000.501.001.502.00Brier 1X2 du match

Lecture : la queue droite (log-loss > 2 ou Brier > 1) regroupe les vraies surprises de la saison. Tu peux les trouver via le leaderboarddans la section "Le modèle s'est trompé".

Top/flop équipes prédites

Pour chaque équipe ayant joué au moins 20 matchs prédits sur la saison 2024-25, on calcule le log-loss moyen et le Brier moyen sur leurs matchs. Une équipe avec un log-loss bas est bien modélisée par Dixon-Coles ; une équipe avec un log-loss haut surperforme ou sous-performe ses fondamentaux (équipe en reconstruction, joueurs clés blessés en série, dynamique imprévue, etc.). C'est précisément le genre de signal contextuel que le baseline N1 ignore — voir les niveaux N2/N3 dans la méthodologie.

Top 5 — équipes les mieux modélisées

Log-loss moyen le plus bas. Le modèle sait à quoi s'attendre quand elles jouent.

#ÉquipeComp.NAcc.Log-lossBrier
1BarcelonaSP16874%0.7130.394
2SouthamptonE03683%0.7130.399
3ValladolidSP13678%0.7160.398
4Bayern MunichD16077%0.7240.391
5Paris SGF16473%0.7580.435

Top 5 — équipes les moins bien modélisées

Log-loss moyen le plus haut. Candidates idéales pour bénéficier du contexte N2/N3.

#ÉquipeComp.NAcc.Log-lossBrier
1LorientF13033%1.2230.758
2BournemouthE06939%1.1750.712
3ParmaI16942%1.1660.717
4LeedsE03336%1.1530.717
5GironaSP16837%1.1500.704

Méthode

Toutes ces métriques sont calculées out-of-sample: le modèle a été entraîné sur les saisons 2020-21 → 2023-24 et testé sur 2024-25 qu'il n'avait jamais vue. Pour la définition complète et le rationale du critère de validation, voir la page méthodologie et l'ADR-011 dans le repo.