Claude Code Update-Strategie, ohne dass Dein Workflow plotzlich kaputt ist
Anthropic hat im April 2026 ein Postmortem zu einer Quality-Regression veroeffentlicht. Hier sind 10 Schritte wie Du Updates so einspielst dass Dein Workflow nicht ploetzlich schlechter wird, mit Pinning, Eval-Set und Rollback-Pfad.
Am 23. April 2026 hat Anthropic ein Postmortem veroeffentlicht. Eine Verbosity-Reduktion im System-Prompt von Claude Code hatte die Code-Quality für einige User messbar verschlechtert. Anthropic fuehrt seitdem Per-Model-Evals für jeden Prompt-Change ein. Auf Reddit (r/Anthropic, 125 Upvotes) und Hacker News (47878905) war das tagelang Top-Thema. Die wichtige Lektion: Du brauchst eine eigene Update-Strategie, weil "neuestes Update einspielen und hoffen" inzwischen nicht mehr reicht.
Dieses Playbook bringt 10 Schritte zur Update-Hygiene für Claude Code, Cursor und Codex. Du lernst wie Du eine Version pinnst, wie Du ein eigenes Eval-Set baust, wie Du nach einem Update merkst ob die Quality stabil ist, und wie Du ohne Drama zurueckrollst.
Ich gehe von Claude Code aus, das Pattern ubertraegt sich aber 1:1 auf andere Tools.
Schritt 1, aktuelle Version herausfinden und festhalten
Mach claude --version im Terminal. Du bekommst etwas wie 2.1.120. Schreib das in eine CLAUDE_VERSION.md in Deinem Hauptprojekt mit Datum dazu. Klingt simpel, ist aber Gold wert wenn nach drei Wochen "irgendwas anders" ist und Du wissen willst seit wann.
Bei Codex läuft das ueber codex --version, bei Cursor steht die Version unter Help → About. Auch dort: festhalten.
Schritt 2, Auto-Update abschalten
Per Default updated Claude Code sich beim Start. Das ist bequem aber heimtueckisch. Wenn Anthropic einen Build pusht der bei Dir Probleme macht, hattest Du keine Wahl. Schalt das ab in ~/.claude/config.json mit "autoUpdate": false.
Stattdessen updates Du wenn Du Zeit hast. Sonntag-Vormittag ist gut. Dann hast Du den ganzen Tag zum Testen ohne dass eine Live-Aufgabe darauf wartet.
Schritt 3, Release Notes lesen (wirklich)
Anthropic publiziert Releases auf github.com/anthropics/claude-code/releases. Vor dem Update einmal durchscrollen. Drei Sachen Du suchst: Breaking Changes (auch wenn sie nicht so heissen), neue Features die Dich betreffen, Bug-Fixes für Bugs die Du selber gemeldet hast.
Zwischen 2.1.119 und 2.1.120 gab es 51 plus 22 Aenderungen, das ist ein groesseres Update gewesen. Persistente /config, claude ultrareview, NO_PROXY-Fix für Bun. Wenn Du keinen Bun nutzt brauchst Du Dich für NO_PROXY nicht interessieren.
Externe Quelle als Backup: claudelog.com/claude-code-changelog/ aggregiert die Releases mit besserer Lesbarkeit als das Github-Format.
Schritt 4, Eval-Set anlegen
Das ist der wichtigste Schritt. Du brauchst eine kleine Liste von 5 bis 10 typischen Aufgaben die Du mit Claude Code regelmaessig machst. Bei mir sind das: "schreibe ein Prisma-Migration-Script", "review diesen Pull Request auf Security-Bugs", "build mir einen einfachen Express-Endpoint mit Validation", "fix diesen TypeScript-Type-Error".
Schreib jede Aufgabe in eine eigene Datei evals/01-prisma-migration.md, mit dem konkreten Prompt und der erwarteten Loesung. Das ist Dein Vergleichsmassstab.
Wer kein Eval hat, merkt eine Quality-Regression erst wenn ein echter Kunde-Job schiefgeht. Das ist zu spaet.
Schritt 5, Vor-Update-Baseline laufen lassen
Bevor Du updatest, einmal komplett durch das Eval-Set durch. Speichere die Outputs in evals/baselines/2.1.120/. Pro Eval die Antwort, die Token-Anzahl, ob die Loesung funktionierte (Du als Mensch entscheidest), und subjektiv wie gut.
Das dauert 30 Minuten. Macht man nicht oft, aber wenn man's einmal hat, hat man's.
Schritt 6, Update einspielen
Jetzt erst das Update. Bei Claude Code claude update oder npm install -g @anthropic-ai/claude-code@latest je nach Installationsweg. Bei Codex codex update. Bei Cursor ueber das eigene Update-System.
Direkt nach dem Update wieder claude --version und in CLAUDE_VERSION.md ergaenzen. Datum, alte Version, neue Version.
Schritt 7, Nach-Update Eval laufen lassen
Genau das gleiche Eval-Set wie in Schritt 5. Outputs in evals/baselines/<neue-version>/ speichern. Vergleichen.
Du achtest auf drei Sachen. Erstens, Funktioniert die Loesung noch (binaer). Zweitens, ist die Antwort kuerzer/länger geworden, und ist das gut oder schlecht (siehe das Aprilpostmortem, Verbosity-Reduktion war negativ). Drittens, hat sich der Stil verändert auf eine Art die Du nicht magst.
Wenn alles besser oder gleich ist: weitermachen. Wenn etwas schlechter ist: Schritt 8.
Schritt 8, Rollback-Pfad
Anthropic publiziert alte Versionen weiterhin auf npm. Du kannst auf eine alte Version zurück mit npm install -g @anthropic-ai/[email protected]. Notier Dir vor dem Update immer welche Version Du hast (siehe Schritt 1), dann ist der Rollback eine Sache von 30 Sekunden.
Wenn das Problem wirklich am Update liegt, schreib einen Issue auf github.com/anthropics/claude-code/issues. Mit Eval-Eingabe, alter Antwort, neuer Antwort. Anthropic reagiert auf gut belegte Reports, gerade nach dem Postmortem.
Schritt 9, Rest der Welt mitziehen
Wenn Dein Update sauber lief, ist da noch eine Schicht. Hooks, Skills, MCP-Server. Manche brechen mit neueren Claude Code Versionen weil sich APIs geaendert haben. Prüfe nach jedem Update ob Deine wichtigsten Hooks noch laufen (zum Beispiel mit einem claude hooks list), und ob Deine MCP-Server noch verbinden (claude mcp list).
Wenn ein MCP-Server nicht mehr verbindet, schau in seine Issues ob das ein bekannter Konflikt ist. Manchmal hilft ein einfaches npm update -g <mcp-server>. Manchmal warten bis der Maintainer reagiert.
Schritt 10, Update-Frequenz finden
Mein eigener Rhythmus. Patch-Releases (z.B. 2.1.119 → 2.1.120) uberspring ich oft eine Woche bis ich sehe ob jemand auf Reddit oder im Anthropic Discord meckert. Minor-Releases (2.0 → 2.1) update ich am Wochenende mit komplettem Eval-Lauf. Major-Releases (1.x → 2.x) plane ich bewusst, lese das Migration-Doc, und nehme mir einen halben Tag.
Der Hebel ist nicht "schnell sein", der Hebel ist "wissen was sich geaendert hat". Mit Eval-Set und Versions-Pinning kostet Dich ein Update 45 Minuten und gibt Dir Sicherheit. Ohne Disziplin kostet ein gescheitertes Update Dir einen ganzen Arbeitstag und das Vertrauen in das Tool.
Was als naechstes
Wenn Du noch keine Hooks hast, Lesson L4-04 "Hooks und Skills" plus Playbook "Hooks gegen Halluzinationen". Wenn Du tiefer in Eval-Driven-Development willst, Lesson L2-06 "Capstone" plus die L5-Lessons zu Multi-Agent-Reviews. Für den allgemeinen MCP-Server-Update-Loop siehe das Playbook "MCP-Server publishen" das auch Versionierung diskutiert.
Quellen: Anthropic Postmortem 23.04.2026 (anthropic.com/engineering/april-23-postmortem), r/Anthropic Diskussion 125 Upvotes, HN 47878905, claude-code Releases auf GitHub, claudelog.com Changelog-Aggregator.