Advisor Tool, Opus als Berater und Sonnet als Executor in einem API-Call
Die Advisor Strategy seit April 2026 in der Claude API. Sonnet 4.6 oder Haiku 4.5 fahren die Aufgabe, Opus 4.7 wird nur konsultiert wenn der Executor nicht weiterkommt. Beta-Header, Tool-Schema, Cost-Modell, drei Use-Cases.
Anthropic hat am 9. April 2026 die Advisor Strategy released. Das ist kein neues Modell und keine neue API. Es ist ein Tool-Type den Du in eine ganz normale Messages-API-Anfrage steckst. Effekt: Dein Executor-Modell (Sonnet 4.6 oder Haiku 4.5) fährt die Aufgabe end-to-end, und ruft Opus 4.7 nur an wenn er an eine Wand läuft. Alles in einem einzigen API-Call.
Wenn Du überlegt hast Multi-Modell-Routing selbst zu bauen, lass es. Anthropic hat es Dir abgenommen. Hier ist wie es geht und wann sich das für Dich lohnt.
1. Was die Advisor Strategy macht
Du gibst dem Modell eine ganz normale Messages-API-Anfrage. In den Tools fügst Du einen advisor-Eintrag ein. Sonnet oder Haiku als Executor lesen den User-Prompt und arbeiten daran. Der Tool-Description ist so geschrieben dass das Modell selbst entscheidet wann der Advisor sinnvoll wäre. Für 80 Prozent der Subtasks merkt Sonnet dass er klarkommt und arbeitet weiter. Bei den 20 Prozent wo es haarig wird, ruft er den Advisor.
Was passiert beim Advisor-Call ist transparent für Dich. Anthropic routet intern zu Opus 4.7, der den vollen Conversation-Context liest, einen kurzen Rat zurückschickt (typisch 400 bis 700 Output-Tokens), und der Sonnet-Executor fährt damit weiter. Das ganze Round-Trip-Ding sieht in Deiner API-Response wie ein normaler Tool-Call aus, nur dass Du das Ergebnis nicht selbst zurückspielen musst. Der Server hält den Loop für Dich.
2. Pflicht-Voraussetzungen
Du brauchst drei Dinge bevor das funktioniert.
Erstens: den Beta-Header anthropic-beta: advisor-tool-2026-03-01. Ohne den Header schickt die API einen Error zurück. Im Anthropic SDK steht der Header als betas=["advisor-tool-2026-03-01"] Parameter im client.beta.messages.create Aufruf. Stand Mai 2026 ist die Beta noch nicht GA, also achte beim Wechsel auf produktion auf Anthropic-Release-Notes.
Zweitens: Du musst client.beta.messages.create benutzen, nicht client.messages.create. Der Beta-Tool-Type lebt in einem eigenen Endpoint-Pfad.
Drittens: Dein Executor-Modell muss Sonnet 4.6 oder Haiku 4.5 sein. Der Advisor-Tool-Type macht nur Sinn mit einem schwächeren Executor und Opus als Advisor. Wenn Du Opus als Executor laeufst, bezahlst Du sowieso schon Opus-Preise und brauchst keinen Advisor.
3. Minimal-Beispiel in Python
import anthropic
client = anthropic.Anthropic()
response = client.beta.messages.create(
model="claude-sonnet-4-6",
max_tokens=4096,
betas=["advisor-tool-2026-03-01"],
tools=[
{
"type": "advisor_20260301",
"name": "advisor",
"model": "claude-opus-4-7",
}
],
messages=[
{
"role": "user",
"content": "Bau einen Worker-Pool in Go mit graceful shutdown.",
}
],
)
print(response)
Der Tool-Block hat nur drei Felder: type ist fix advisor_20260301, name ist Dein Label für den Tool-Call (advisor ist Konvention), model ist welches Advisor-Modell konsultiert wird. Aktuell macht nur claude-opus-4-7 Sinn. Andere Werte sind technisch erlaubt, aber Sinn der Strategie ist Opus-Beratung.
Beim Multi-Turn-Conversation-Pattern haengst Du das response.content (inkl. eventueller advisor_tool_result Bloecke) an die messages Liste an, fügst die nächste User-Nachricht hinzu, und rufst die API erneut auf. Der Advisor-Context wird kumulativ aufrechterhalten.
4. Wann der Advisor sich lohnt
Die Faustregel: lange Agentic-Tasks mit ein paar wenigen kniffligen Entscheidungspunkten. Code-Generation über 10+ Dateien, wo nur 2 oder 3 Stellen wirklich Architektur-Brain brauchen. Research-Synthese über lange Dokumente, wo der Executor nur am Endpunkt eine schwierige Bewertung braucht. Multi-Tool-Workflows wo das Tool-Routing meistens trivial ist aber an Verzweigungen tiefes Reasoning braucht.
Nicht sinnvoll für kurze, einmalige Anfragen. Wenn Du ohnehin nur einen 1-Turn-Call hast, nimm direkt Opus oder direkt Sonnet, je nach Anspruch. Der Advisor wird Dir bei einem Single-Turn-Call vermutlich nicht angerufen, weil Sonnet keine Wand findet wo er ihn braucht.
Auch nicht sinnvoll wenn Du Sonnet-Quality-Probleme hast die in jedem Sub-Step auftauchen. Dann ist Sonnet das falsche Werkzeug, kein Advisor-Call rettet Dich. Prüfe vorher ob Sonnet-Solo Deine Quality-Bar wirklich nicht hält.
5. Cost-Modell und Spend-Controls
Der Trick ist hier dass Du fast Sonnet-Preise bezahlst aber Opus-Quality für die kritischen Punkte bekommst. Der Executor produziert die meisten Output-Tokens (zu Sonnet-Preisen, also $3 pro Million Output bzw $0.75 für Haiku). Der Advisor produziert pro Konsultation typisch 400 bis 700 Output-Tokens (zu Opus-Preisen, $25 pro Million Output).
Praktisch: bei einer 8000-Token-Generation mit drei Advisor-Konsultationen reden wir über etwa 6500 Sonnet-Tokens und 1500 Opus-Tokens. Das sind grob 2 Cent statt 20 Cent. Faktor 10 Ersparnis bei nahezu Opus-Quality.
Was Du achten solltest: das Modell entscheidet selbst über Advisor-Calls. Wenn Sonnet übervorsichtig wird und bei jedem Sub-Step den Advisor anruft, frisst das den Cost-Vorteil weg. Anthropic hat das in der Beta beobachtet und setzt einen impliziten Cap (ich konnte die exakte Zahl in der Doku nicht verifizieren, aber praktisch sieht man selten mehr als 5 Advisor-Calls pro Generation). Logge Deine Calls in den ersten Wochen, schau Dir die Frequenz an, und passe ggf. den User-Prompt an wenn der Executor zu oft konsultiert.
6. Drei konkrete Use-Cases die hart durchschlagen
Code-Generation mit Architektur-Punkten. Du gibst Sonnet einen 5-File-Refactoring-Auftrag. Sonnet macht den Loeven-Anteil. An zwei Stellen wo es um Concurrency-Pattern oder Schema-Design geht, ruft er Opus. Ergebnis: 80 Prozent der Tokens zu Sonnet-Cost, kritische Architektur-Entscheidungen mit Opus-Reasoning.
Long-Form Document Synthesis. Du analysierst 30 Research-Papers, Sonnet macht das Lesen und Zusammenfassen, Opus wird nur für den finalen Synthese-Schritt konsultiert wo Widersprüche aufgelöst werden müssen. Spart bei einem 50k-Token-Synthese-Job ungefaehr 35 USD pro Run.
Customer-Support-Bot mit Eskalations-Pfad. Haiku 4.5 als Executor antwortet auf Standard-Fragen. Bei kniffligen Faellen (Refund-Politik, Edge-Case-Bug) konsultiert er Opus statt zum menschlichen Support zu eskalieren. Saves human-time und liefert bessere Antworten als Haiku-Solo.
7. Was die Beta nicht kann
Du kannst aktuell nur Opus 4.7 als Advisor konfigurieren. Wenn Du andere Spezial-Modelle (z.B. ein eigenes Fine-Tune) als Berater haben willst, geht das hier nicht. Bau das in eigener Logik wenn Du das brauchst.
Du siehst nicht welches Sub-Promot der Executor an den Advisor schickt. Das ist Anthropic-internes Routing. Wenn Du für Audit-Logs den genauen Advisor-Prompt brauchst, ist das aktuell nicht ausgelesen. Workaround: in Deinem System-Prompt den Executor instruieren bei jedem Advisor-Call vorher kurz aufzuschreiben warum.
Cross-Region-Setups mit Bedrock oder Vertex sind im April 2026 noch in Pilot-Phase. Wenn Du auf AWS/GCP fahrst, prüfe vor dem Rollout ob die Beta auf Deinem Region-Endpunkt aktiv ist. Self-Serve auf platform.claude.com funktioniert überall sofort.
8. Migration-Pfad für Deinen existierenden Code
Wenn Du heute schon ein Multi-Modell-Setup hast (manuelles Routing zwischen Sonnet und Opus), kannst Du das schrittweise auf Advisor umstellen.
Schritt 1: pick Dir einen kleinen Workflow heraus wo Du heute Opus laufen lässt weil Sonnet manchmal an einer Stelle scheitert. Ersetze Opus durch Sonnet plus Advisor-Tool. Logge die Frequenz der Advisor-Calls.
Schritt 2: vergleiche Quality vs. Solo-Opus. Bei den meisten Workloads ist Advisor-mit-Sonnet 95 Prozent so gut wie Opus-Solo, bei 10 Prozent der Cost. Wenn Quality nicht hält, switch zurück.
Schritt 3: rolle auf weitere Workflows aus. Cost-Tracking über 2 bis 4 Wochen, dann Entscheidung ob Du Standard-Pattern Advisor-für-alles fahrst oder selektiv.
9. Die zwei Stolperfallen
Falsches Beta-Format. Der Header heißt anthropic-beta: advisor-tool-2026-03-01, nicht advisor-2026-03-01 und nicht advisor-tool-2026-04-09. Anthropic-Beta-Header werden nach Beta-Tool-Type-Schema benannt, der Tool-Type ist advisor_20260301. Datum im Header ist das Schema-Datum, nicht Release-Datum.
Falsches API-Endpoint. Beta-Tools laufen über client.beta.messages.create, nicht client.messages.create. Wenn Du den falschen Endpoint nimmst, bekommst Du unknown_beta Error und keine Advisor-Funktion.
10. Was als nächstes
Mein Tipp: nicht alle Workflows auf einmal umstellen. Pick Dir einen Multi-File-Code-Generation-Job aus, lass den 3 bis 5 mal mit Advisor laufen, vergleiche die Output-Quality mit Deiner aktuellen Sonnet-only oder Opus-only Baseline. Wenn der Vergleich passt, rolle auf andere Workflows aus.
Wenn Du tiefer in den Cost-Optimierungs-Teil willst, schau ins Playbook claude-code-cost-controls-für-daily-driver für das umfassendere Setup von Token-Budgets und Spend-Limits.
Wenn Du mit Multi-Agent-Setups arbeitest und Advisor in Deiner CEO-Worker-Architektur einbauen willst, lohnt der Lesson L5-04 Schritt zu Multi-Agent Patterns und L5-05 Human-in-the-Loop. Advisor ist im Prinzip ein automatisierter Human-in-the-Loop, wo das Human ein anderer LLM ist.
Source
Specs verifiziert via offizielle Anthropic-Dokumentation am 2026-05-07:
- platform.claude.com/docs/en/agents-and-tools/tool-use/advisor-tool (Tool-Schema, Beta-Header, Python-Beispiel, Multi-Turn-Pattern)
- platform.claude.com/docs/en/release-notes/overview (Public Beta seit 9. April 2026, Cost-Modell-Beschreibung)
Konsultierte Sekundaer-Quellen:
- buildfastwithai.com Anthropic-Advisor-Strategy-Guide (2026-04, Cost-Vergleich-Beispiele)
- testingcatalog.com Anthropic-Advisor-Tool-Coverage (2026-04-09, Release-Bericht)
Konsultierte Recipes in der Academy:
- Phase 5 Multi-Agent-Workflows
- Lesson L5-05 Human-in-the-Loop (analoger Pattern auf Mensch-Ebene)