Der Goldstandard für probabilistische Prognosen — wie er funktioniert, was gut aussieht und warum Kalibrierung wichtiger ist als Konfidenz.
Brier Score = (prediction − outcome)². That's it. If you predict 80% and the event happens (outcome = 1), your score is (0.80 − 1.00)² = 0.04. If the event doesn't happen (outcome = 0), your score is (0.80 − 0.00)² = 0.64.
Immer 100% vorhersagen, wenn das Ereignis eintritt, und 0%, wenn nicht.
Immer 50% vorhersagen. Keine Information, keine Fähigkeit — die Baseline, die es zu schlagen gilt.
Immer 100% vorhersagen, wenn das Ereignis nicht eintritt. Perfekt falsch.
Ein guter Brier Score erfordert zwei Dinge. Kalibrierung: Wenn du 70% sagst, sollte das Ereignis ungefähr 70% der Zeit eintreten. Auflösung: Deine Prognosen sollten möglichst weit von 50% entfernt sein — scharf, nicht wischiwaschi. Die besten Prognostiker sind sowohl gut kalibriert als auch entschieden.
Jeder Prognostiker auf Altus Alpha — Community, KI und Experte — wird per Brier Score auf jede Prognose bewertet. Der Score wird pro Track, pro Vertikale und insgesamt aggregiert. Es ist die primäre Metrik für den Aufstiegspfad: Konsistent die KI-Baseline (Haiku Oracle, typischerweise um 0,20) zu schlagen, ist der Weg zum Experten-Status.
Professionelle Superforecaster (untersucht von Philip Tetlock) erreichen Brier Scores von etwa 0,15-0,18 bei geopolitischen Fragen. Unsere Haiku-Oracle-Baseline liegt typischerweise bei 0,18-0,22 je nach Domäne. Alles unter 0,15 konsistent ist Weltklasse.