ai-2027

AI 2027 — Ein Jahr später: Die kühnste KI-Prognose im Reality-Check

Im April 2025 sagten fünf Forscher Superintelligenz bis 2027 voraus. Ein Jahr später haben sie ihre eigenen Vorhersagen benotet — und drücken die Bremse. Was wirklich eingetroffen ist, was nicht, und was das für dich heißt.

Ein Bericht, der Twitter gespalten hat

Im April 2025 haben fünf Leute ein 50-Seiten-Dokument ins Netz gestellt und damit für ein paar Wochen die KI-Welt aufgeschreckt. Daniel Kokotajlo, früher OpenAI. Scott Alexander, der Mann hinter Astral Codex Ten. Thomas Larsen, Eli Lifland, Romeo Dean.

Der Titel: AI 2027.

Das Format: kein Whitepaper, kein Forecast-Report. Eine Erzählung. Monat für Monat, von Mitte 2025 bis Ende 2027. Wie ein Thriller geschrieben, aber mit Zahlen, Charts, technischen Deep-Dives und zwei alternativen Endings — slowdown und race.

Die These: Superintelligenz bis Ende 2027. Nicht “vielleicht”. Nicht “irgendwann in den 2030ern”. Konkret. Mit Datum.

Die Reaktionen waren genau, was du erwarten würdest. Die eine Hälfte des Internets schrieb “wahnsinniger Hype, wir reden hier über eine Erzählung, keine Forschung”. Die andere Hälfte schrieb “endlich sagt es jemand laut, das ist sogar noch zu konservativ”.

Beide Lager hatten ein bisschen recht.

Heute, ein Jahr später, kann ich dir etwas Besseres anbieten als noch eine Meinung dazu: die Autoren haben ihre eigenen Vorhersagen vor wenigen Wochen selbst benotet. Und das Ergebnis ist nicht das, was die meisten erwartet haben.

Die harten Zahlen aus einem Jahr Realität

65 %
Tempo eingetroffen
quantitative Metriken im Schnitt
74,5 %
SWEBench erreicht
vorhergesagt waren 85 %
2x
Coding-Speedup
Anthropic-Survey intern gemessen
500 Mrd
OpenAI-Bewertung
Okt 2025 — vier Monate nach Plan

Wenn du die quantitativen Metriken durchschnittlich nimmst, lag die Realität bei rund 65 % des Tempos, das AI 2027 vorhergesagt hatte. Qualitativ — also “passieren diese Dinge prinzipiell?” — war fast alles auf Kurs. Quantitativ — “wie schnell?” — etwa zwei Drittel des prognostizierten Speeds.

Das ist, ehrlich gesagt, beeindruckend genau für ein Szenario. Forecasting ist ein hartes Handwerk.

Die wichtigste Vorhersage im Detail

AI 2027 hat gesagt, der SWEBench-Benchmark — der Standard-Test für autonomes Code-Schreiben — würde bis Mitte 2025 auf 85 Prozent steigen. Startwert war 72 Prozent.

AI 2027 Vorhersage

85 % auf SWEBench-Verified bis Mitte 2025.

Das hätte bedeutet: Coding-Agenten ersetzen den Großteil aller Junior-Entwickler-Aufgaben. Eine Eskalation, die die ganze Kurve neu zeichnet.

Realität März 2026

74,5 % erreicht. Ein Anstieg von 2,5 Punkten statt 13.

Klingt nach kleinem Unterschied. Ist es nicht. Die letzten Prozentpunkte auf diesen Benchmarks sind exponentiell härter als die ersten.

Das Tempo der KI — Jahr für Jahr

Bevor wir zur wirklichen Story kommen, scroll dich durch die letzten und nächsten Jahre. Jedes Jahr ein eigener Reality-Check, jedes Jahr eine konkrete Zahl zu verdrängten Jobs. Quellen (alle verlinkt): WEF Future of Jobs 2025, Goldman Sachs The Potentially Large Effects of AI (März 2023), IMF Gen-AI and the Future of Work (Jan 2024).

Was passiert da gerade

Das Tempo der KI — Jahr für Jahr.

Scroll dich durch. Jedes Jahr ist ein neuer Reality-Check. Die Zahlen sind konservativ und stammen aus seriösen Quellen (WEF), Goldman Sachs und IMF.

  1. 2022 eingetreten

    ChatGPT geht live. Erstmals fühlt sich ein Sprachmodell wie ein Gespräch an.

    Jobs verdrängt (kumuliert) ~3 Mio

    kumuliert weltweit (vorwiegend Übersetzung, Texterstellung, Basis-Support)

    Was du tun solltest

    Frühstarter testen, der Rest hält es für eine Spielerei.

  2. 2023 eingetreten

    GPT-4 und Claude 2 — Modelle bestehen Anwaltsexamen, schreiben produktionsreifen Code.

    Jobs verdrängt (kumuliert) ~8 Mio

    kumuliert; erste Stellenstreichungen in Marketing, Junior-Coding, Customer Support

    Was du tun solltest

    IT-affine Berufe beginnen ernst zu nehmen, was hier passiert.

  3. 2024 eingetreten

    Multimodale Modelle, Tool-Use, erste autonome Agenten. KI fängt an zu *handeln*, nicht nur zu *antworten*.

    Jobs verdrängt (kumuliert) ~14 Mio

    kumuliert; ~14 % der globalen Arbeitsplätze sind laut WEF "AI-exponiert"

    Was du tun solltest

    Wer jetzt anfängt zu lernen, holt die Frühstarter ein.

  4. 2025 eingetreten

    Coding-Agenten ersetzen Junior-Entwickler-Aufgaben. MCP-Server vernetzen Tools mit Modellen. Anthropic misst 2x Coding-Speedup intern.

    Jobs verdrängt (kumuliert) ~25 Mio

    kumuliert; Goldman Sachs: 300 Mio Stellen weltweit zu mind. 25 % AI-exponiert

    Was du tun solltest

    KI-Skill im Lebenslauf wird zum *Default*, nicht mehr Bonus.

  5. 2026 heute

    Multi-Agent-Systeme arbeiten autonom an Projekten. Open-Weight Modelle aus China holen die Frontier ein. KMU integrieren erste produktive AI-Workflows.

    Jobs verdrängt (kumuliert) ~40 Mio

    kumuliert; IMF: in Industrieländern bis zu 60 % der Jobs AI-exponiert

    Was du tun solltest

    Wer hier noch zuschaut statt baut, hat die nächsten 3 Jahre verloren.

  6. 2027 Prognose

    Prognose: Coding fast vollständig automatisierbar. Forschungs-Assistenz erreicht Senior-Niveau. Erste KI-First Unternehmen ohne menschliche Zwischenschicht.

    Jobs verdrängt (kumuliert) ~60 Mio

    projiziert; WEF Future of Jobs 2025 — Net-Effekt kompliziert, aber Verdrängung messbar

    Was du tun solltest

    Spätestens jetzt: eigene KI-Workflows, eigene Skills, eigene Datenbasis.

  7. 2028 Prognose

    Prognose: Forschungs-Multiplikator 5–10x. Kreative Berufe (Design, Komposition, Storywriting) müssen sich neu definieren.

    Jobs verdrängt (kumuliert) ~75 Mio

    projiziert; WEF erwartet 92 Mio verdrängte vs 170 Mio neu geschaffene Stellen bis 2030

    Was du tun solltest

    Die "in der Mitte" Berufe sind am stärksten betroffen — wer differenziert ist, gewinnt.

  8. 2030 Prognose

    Prognose: Allgemeine KI-Fluency wird zur Grundkompetenz wie Lesen und Rechnen.

    Jobs verdrängt (kumuliert) ~92 Mio

    projiziert; WEF: aber +170 Mio neue Stellen — Netto positiv, wenn man umlernt

    Was du tun solltest

    Die Gewinner sind, die heute angefangen haben.

Wer jetzt nicht startet, holt es nicht mehr auf. Die Kurve ist exponentiell — nicht weil Modelle plötzlich klüger werden, sondern weil jeder Monat des Nicht-Lernens dich relativ weiter zurückwirft.

Die Kurve ist nicht steiler geworden, weil die Modelle plötzlich klüger sind. Sie ist steiler geworden, weil jeder Monat des Nicht-Lernens dich relativ weiter zurückwirft.

Die wirkliche Story: Die Autoren drücken die Bremse

Hier wird’s spannend, und hier hat es im deutschsprachigen Raum bisher fast niemand wirklich aufgeschrieben.

Der Originalplan: Vollständige Code-Automatisierung 2026, Übergang zu Superintelligenz im Lauf von 2027, alles vorbei bis Ende 2027.

Der aktuelle Stand der Autoren — März/April 2026 — sieht so aus:

  • Daniel Kokotajlos Median: Vollständige Code-Automatisierung jetzt bei 2029
  • Eli Lifland: Anfang 2030er Jahre, Übergangsphase weitere zwei Jahre
  • Aktualisierte Takeoff-Spanne: Mitte 2028 bis Mitte 2030 statt 2027

Mit anderen Worten: Die Leute, die im April 2025 gesagt haben “Superintelligenz 2027”, sagen jetzt im April 2026 “Vielleicht 2029, vielleicht 2030, vielleicht 2034”. Kokotajlo hat seine Median-Prognose für Superintelligenz öffentlich auf 2034 verschoben.

Was wirklich passiert ist, das im Szenario nicht stand

Forecasts haben einen blinden Fleck. Sie extrapolieren das, was sichtbar ist. Sie verpassen das, was zwischen den Zeilen entsteht.

AI 2027 hat in 50 Seiten fast nichts über drei Dinge gesagt, die 2025 und 2026 wirklich Bewegung gebracht haben:

1. Tool-Use als Game-Changer

Model Context Protocol — Anthropics Standard für strukturierte Tool-Nutzung — kam Ende 2024 raus und hat 2025 die ganze Landschaft umgekrempelt. Plötzlich konnten Modelle nicht nur Text generieren, sondern dauerhaft mit der Welt interagieren — APIs aufrufen, Datenbanken lesen, Files schreiben, andere Modelle ansteuern. Das ist kein “Capability-Sprung”, das ist ein Architektur-Sprung. AI 2027 hat das praktisch nicht gesehen.

2. Multi-Agent-Architekturen

2025 ist das Jahr geworden, in dem ernsthaft mehrere Modelle zusammenarbeiten — Coding-Agent ruft Test-Agent ruft Review-Agent. Mein eigenes Projekt ConnectAgents ist genau auf diese Welle aufgesprungen. AI 2027 hatte einen einzelnen “Agent-X”, der irgendwann mächtig wird. Real ist es ein Netzwerk aus spezialisierten, kleineren Agents geworden.

3. Open-Weight Modelle aus China

DeepSeek, Qwen, Kimi — die haben 2025 mehrfach demonstriert, dass die Lücke zwischen Frontier und Open viel kleiner ist als das Szenario annahm. Das verändert die Geopolitik komplett, und es war im Original nur am Rand erwähnt.

Was dich das jetzt im Frühjahr 2026 angeht

Du betreibst kein KI-Labor. Du baust einen Webshop, eine Klinik, eine Tischlerei, eine Steuerkanzlei. Was nimmst du aus diesem Reality-Check mit?

Erstens: Hör auf, auf die “große Disruption” zu warten

Wer im April 2025 gewartet hat, weil “in zwei Jahren ist eh alles anders”, hat zwölf Monate verloren. Wer wartet, weil “in zwei Jahren ist eh alles anders”, hat die nächsten zwölf auch schon verloren. Die Disruption ist nicht ein Knall. Sie ist ein gleichmäßiger Strom kleiner Verbesserungen, der genau diejenigen begünstigt, die jetzt anfangen.

Zweitens: Glaub keinem Datum mehr

Nicht 2027, nicht 2029, nicht 2034. Wer dir sagt, “in X Jahren ist das oder das vorbei”, lügt — auch wenn er sich selbst nicht bewusst ist, dass er lügt. Forecasts in dem Bereich sind Werkzeuge zum Nachdenken, keine Fahrpläne.

Drittens: 2x ist real, aber nur mit Setup

Die Anthropic-Zahl von 2x Coding-Speedup ist echt. Aber sie gilt nur, wenn du das Tool wirklich beherrscht. “Ich hab ChatGPT drei Mal gefragt” reicht nicht. Du brauchst:

  • Einen klaren Prozess (Ziele definieren, testen, dokumentieren)
  • Ein System, das deinen Kontext kennt (Memory, Skills, Rules)
  • Geduld in den ersten Wochen, bis es klickt

Das ist kein Hexenwerk, aber es ist eine Investition. Mehr dazu in meinem Post zu Personal AI Infrastructure.

Viertens: Tool-Use schlägt Modellgröße

Wenn du heute ein KI-System baust, ist die Frage nicht “welches Modell?” sondern “welche Tools darf das Modell benutzen?”. Ein mittelgroßes Modell mit Zugriff auf deine Datenbank, dein Mailpostfach und deine Buchhaltung ist mehr wert als das größte Modell, das nur Text generiert.

Fünftens: Schau auf Bewegung, nicht auf Schlagzeilen

Die ehrlichste Quelle für KI-Trends sind nicht Pressemitteilungen. Es sind:

  • Benchmarks (SWEBench, GPQA, MATH) und ihre quartalsweise Bewegung
  • Compute-Schätzungen von Epoch AI
  • Reality-Checks wie der von AI Futures — das ist seriöse Selbstkritik
  • Was Praktiker tatsächlich bauen — Dev-Twitter ist mehr wert als 50 Branchen-Reports

Was ich persönlich daraus mitnehme

Ich habe AI 2027 im April 2025 gelesen und drei Tage lang seltsam geschlafen. Es hat mich aufgerüttelt, weil es konkret war. Nicht “irgendwann passiert was”, sondern “im Februar 2027 stiehlt China die Weights von Agent-2”.

Im Rückblick war meine Reaktion nicht dumm. Sie war nur kalibriert auf das falsche Tempo.

Was ich jetzt weiß:

Und der wichtigste Punkt: Die Frage ist nicht “wann kommt AGI”, sondern “was baust du heute, das in jedem Szenario nützlich ist?”. Ein automatisierter Belegworkflow für deine Buchhaltung. Ein KI-Agent, der deine Inbox vorsortiert. Ein Skript, das deine Wettbewerber-Preise täglich vergleicht. Das sind die Dinge, die in 2026, in 2029 und in 2034 immer noch relevant sind.

Während die anderen über Timelines streiten, baust du Sachen, die laufen.

Was du jetzt tun solltest

Dein Reality-Check-Fahrplan

  • Akzeptiere, dass niemand das Datum kennt — weder die Hype-Prediger noch die Doom-Prediger. Dein Handeln darf nicht von einem Datum abhängen.
  • Fang mit EINEM produktiven KI-Workflow an — automatisiere eine einzige Routine-Aufgabe in deiner Woche. Belegerfassung, Inbox-Sortierung, Meeting-Zusammenfassungen. Eins. Diese Woche.
  • Lerne Tool-Use statt Prompting — der Hebel liegt darin, der AI Zugriff auf deine Daten und deine Tools zu geben, nicht darin, bessere Prompts zu schreiben.
  • Baue dir eine Memory-Schicht — auch wenn es nur eine .md-Datei ist, in der du deine Präferenzen, deinen Stack und deine wiederkehrenden Fragen sammelst.
  • Setze dir alle drei Monate einen Reality-Check-Termin — 30 Minuten, in denen du prüfst: Welche meiner Annahmen sind noch gültig? Welche muss ich korrigieren? Forecasting ist ein Muskel.

Wenn du wissen willst, wie ein produktives KI-System konkret aussieht — das ich für mich selbst gebaut habe, mit dem Algorithm, den Hooks, den Skills — lies meinen Post zu Personal AI Infrastructure. Da ist das Template drin, kostenlos, zum Selbermachen.

Wenn du wissen willst, was bei KI-Systemen 2026 schief gehen kann, lies meinen Sicherheits-Post. Mit Checkliste für KMU.

Und wenn du die Originalquellen prüfen willst (was du immer tun solltest):