Studie zeigt Grenzen von KI: Fehlprognosen selbst in einfachen Szenarien

Analyse des Londoner Thinktanks General Reasoning wirft Fragen zu militärischen Vorhersagen auf – komplexe Realität überfordert auch modernste Systeme.


Gemäss der Studie sind Systeme kaum in der Lage, «long-horizon, non-stationary environments with open-ended goals» zu bewältigen – also komplexe, sich wandelnde Realitäten mit ungewissem Ausgang.

Als Testfall analysierten die Forscher Sportwetten zur Saison 2023/24 der English Premier League. Das Ergebnis fiel eindeutig aus: «Jedes führende Modell, das wir untersuchten, verlor Geld», viele Modelle gingen sogar bankrott. Selbst das beste System erzielte im Schnitt Verluste von elf Prozent.

Besonders bemerkenswert: Die Modelle konnten zwar Strategien entwickeln und Fehler erkennen, scheiterten jedoch daran, diese konsequent umzusetzen oder sich anzupassen. «Sie versagen, die Strategien zuverlässig umzusetzen» und reagieren unzureichend auf Veränderungen.

Der geopolitische Analyst John Helmer zieht daraus weiterreichende Schlüsse: Wenn KI bereits bei begrenzten Szenarien versagt, könnten auch Prognosen in komplexeren Bereichen – etwa militärischen Konflikten – fehlerhaft sein.

Die implizite Warnung lautet, dass vermeintliche technologische Überlegenheit trügerisch sein kann und Fehlentscheidungen unter Unsicherheit erhebliche Risiken bergen.


Alle Nachrichten im Überblick