Agentic Weekly #006 — Anthropic schaltet hoch: Dreaming, Doppellimits und 300 MW von SpaceX
Eine Konferenz, drei neue Agent-Bausteine und der Deal, der vor einer Woche noch undenkbar war — Anthropic kauft sich diese Woche aus dem Compute-Engpass frei.
Code with Claude 2026 — Agents lernen träumen, Limits fallen, Musk liefert Strom
Am 6. Mai hat Anthropic in San Francisco Code with Claude 2026 veranstaltet — die zweite Auflage der Entwicklerkonferenz und zugleich einer der dichtesten Produktrelease-Tage, die Anthropic bisher hatte.
Drei Achsen lohnen den Blick:
Managed-Agents-Features — die erste Achse:
Dreaming ist ein geplanter Hintergrund-Prozess, der zwischen Sessions die bisherigen Agent-Transkripte und den Memory-Store durchgeht. Harvey berichtet aus dem Pilot eine grobe Versechsfachung der Task-Completion-Rate — Anthropics Headline-Zahl, ohne externe Benchmark.
Outcomes legt einen eigenständigen Evaluator-Loop um den Agent: Eine getrennte Claude-Session bewertet den Output gegen ein Bewertungsraster und gibt zurück, was zu fixen ist — auf docx-Tasks +8,4 %, auf pptx +10,1 % Task-Success in Anthropics internen Tests.
Multiagent Orchestration lässt ein Lead-Agent-Modell parallel Subagenten auf einem gemeinsamen Filesystem aufspannen. Netflix nutzt das Pattern, um Build-Logs aus hunderten Quellen parallel zu analysieren.
Rate-Limits und Compute — die zweite Achse:
Die 5-Stunden-Limits in Claude Code wurden permanent verdoppelt für Pro, Max, Team und seat-basierte Enterprise-Pläne; die Peak-Hour-Drosselung, die seit Ende März auf Pro- und Max-Accounts lag, ist weg. API-Rate-Limits für Opus-Modelle wurden „erheblich” angehoben.
Dahinter steht ein Deal, der vor einer Woche noch undenkbar gewesen wäre: Anthropic mietet die gesamte Kapazität von SpaceX’ Colossus-1-Datacenter in Memphis — über 300 Megawatt und mehr als 220.000 Nvidia-GPUs, online innerhalb des Monats.
Warum diese drastische Kehrtwende?
Rechenkapazitätsengpässe: Anthropic verzeichnete eine massive Nachfrage nach seiner KI, stieß jedoch aufgrund begrenzter Rechenkapazitäten an erhebliche Grenzen.
Der Überschuss bei SpaceX: Musk hatte für sein eigenes xAI-Projekt überdimensionierte Infrastruktur aufgebaut und verfügte somit über sofort nutzbare Rechenzentrumskapazitäten.
Elon Musk, der Anthropic im Februar noch öffentlich als „evil” bezeichnet hatte, schrieb nach einem Meeting mit Anthropic:
„Everyone I met was highly competent and cared a great deal about doing the right thing. No one set off my evil detector.”
SpaceX habe sich vertraglich das Recht gesichert, Kapazität zurückzuziehen, falls Anthropics AI „Handlungen ausführt, die der Menschheit schaden”.
Claude Code, Code Review, Add-ins — die dritte Achse.
Anthropic stellt Code Review als Research Preview für Team- und Enterprise-Pläne vor: Ein Team von Agenten prüft jeden PR, token-basiert abgerechnet, 15–25 $ pro Review im Schnitt.
Eigener Use-Case-Beleg: Bei Anthropic intern bekamen vor dem Tool nur 16 % der PRs substanzielle Review-Kommentare — nach Rollout 54 %.
Dazu kommen Microsoft-365-Add-ins (Excel, PowerPoint, Word ; Outlook als Preview), Agent-Templates für Financial Services (Pitchbook-Builder, KYC-Screener, Month-End-Closer u. a.), und das Claude Agent SDK ist offiziell für externe Entwickler freigegeben — dasselbe SDK, auf dem IDE und Desktop-App gebaut sind.
Und der Vertikalisierungs-Push läuft direkt weiter.
Am 13. Mai folgt Claude for Small Business — 15 vorgefertigte Workflows, 15 Skills, Connectoren zu QuickBooks, PayPal, HubSpot, Canva, Docusign, Google Workspace und Microsoft 365 — flankiert von einer 10-Städte-Tour (Start in Chicago) mit halbtägigen AI-Fluency-Trainings für je 100 lokale Business-Leader.
Am 14. Mai dann zwei Schwergewichte parallel:
PwC kündigt einen breiten Claude-Einsatz an — für Tech-Entwicklung, Deal-Execution und Enterprise-Transformation.
Und Anthropic kündigt eine 200-Mio.-Dollar-Partnerschaft mit der Gates Foundation über vier Jahre an — Global Health, Bildung und Economic Mobility.
Warum das relevant ist:
Vor einem Monat hat Anthropic Routines vorgestellt; jetzt liefert die Konferenz die Schicht darunter — Dreaming als Memory-Konsolidierung zwischen Läufen, Outcomes als externe Evaluator-Loop, Multi-Agent-Orchestrierung als Lead/Subagent-Pattern.
Das ist nicht zufällig: Es ist exakt der Brain/Hands/Session-Split, den Addy Osmani vor zwei Wochen sortiert hat (siehe #005) — nur jetzt als geliefertes Produkt-Set, nicht mehr als Konvergenz-Beobachtung.
Mercado Libre, das mit 23.000 Engineers auf Code with Claude angekündigt hat, 90 % autonomes Coding bis Q3 2026 als Ziel zu setzen, gibt den Maßstab vor, an dem sich die nächsten Quartale messen lassen.
Und der SpaceX-Deal verschiebt die geopolitische Frage, ob ein einzelner Anbieter sich aus dem Compute-Engpass freikaufen kann, mit einem Schlag in die Gegenwart.
Quellen:
Claude Code: Die Highlights der Woche
Sieben Releases zwischen 8. und 14. Mai (v2.1.136 bis v2.1.142).
Für alle, die Claude Code täglich nutzen
claude agents — Agent View als CLI-Dashboard (Research Preview) — Eine einzige Übersicht für alle Sessions: laufend, wartend, fertig. Session-ID, Wartet-auf-User-Status, letzte Antwort, Timestamp. Via Linkspfeil aus aktiver Session erreichbar. Für alle, die parallele Worktrees managen, ist das der lange erwartete Supervisions-View.
Mein Fazit: Ich hab’s getestet. Extrem praktisch.
/goal — Completion-Conditions statt nur Prompts — Ein objektiv definiertes Ziel, das Claude über mehrere Turns hinweg verfolgt. Ein separater Evaluator prüft nach jedem Turn die Bedingung; entschieden wird nicht vom Modell, das gerade arbeitet. Funktioniert in Interactive, -p-Flag und Remote Control.
Plugin-Details — claude plugin details <name> listet Token-Kosten und Inventar pro Plugin. Plus: Transkript-Navigation per ?, {, }, v.
Für Hook- und MCP-Workflows
CLAUDE_PROJECT_DIR für MCP-Stdio-Server — Stdio-MCP-Server bekommen den Projekt-Pfad jetzt als Environment-Variable mitgereicht. Wer Server schreibt, die kontextabhängig arbeiten müssen, spart sich den Workaround.
Subagent-Header x-claude-code-agent-id und x-claude-code-parent-agent-id — API-Requests aus Subagents tragen jetzt ihre Identität und die ihres Parent-Agents im Header. Saubere Telemetrie und Audit-Trail über verschachtelte Agent-Bäume — Voraussetzung für Multi-Agent-Debugging, das jenseits eines Levels nicht mehr von Hand geht.
Für Sicherheit und Plattform
Fast Mode läuft jetzt auf Opus 4.7 (v2.1.142, 14. Mai) — Fast Mode in Claude Code nutzt standardmäßig Opus 4.7 statt 4.6; wer beim alten Verhalten bleiben will, setzt CLAUDE_CODE_OPUS_4_6_FAST_MODE_OVERRIDE=1.
Gleicher Release: acht neue Flags für claude agents (--add-dir, --settings, --mcp-config, --plugin-dir, --permission-mode, --model, --effort, --dangerously-skip-permissions), um die im Hintergrund angestoßenen Sessions zu konfigurieren.
MCP-Hygiene (v2.1.136 und Folge-Releases) — Server verschwinden nicht mehr stillschweigend nach /clear. OAuth-Refresh-Tokens gehen bei parallelen Servern nicht mehr verloren. HTTP/SSE-Server haben kein unbounded Memory-Growth mehr.
Code Review für Team/Enterprise — die größte Neuerung kommt nicht über den CLI-Changelog, sondern als eigenes Produkt: Multi-Agent-PR-Reviews, token-basiert abgerechnet, 15–25 $ pro Review, optimiert auf Tiefe statt Latenz. Direkter Wettbewerber zu Cursors Security Reviewer aus #005.
Quellen:
Agentic Coding: Cursor parallelisiert, Codex aufs Handy, xAI tritt in den CLI-Markt ein
Cursor 3.3 (7. Mai) — Drei spürbare Schritte: ein redesignter PR-Review-View mit getrennten Reviews/Commits/Changes-Tabs, Build in Parallel (async Subagenten arbeiten gleichzeitig an unabhängigen Plan-Slices) und PR-Splitting über den Chat-Kontext. Cursor kopiert hier nicht den Anthropic-Push, sondern parallelisiert primär die Ausführung — die Antwort eines IDE-zentrierten Hosts auf die Lead/Subagent-Konvergenz.
Cursor in Microsoft Teams (11. Mai) — @Cursor in jedem Teams-Channel: delegierter Cloud-Agent oder Pull aus Cursor in Teams. Repository- und Modellwahl automatisch. Liest den ganzen Thread für Kontext, erstellt einen PR zur Review. Damit ist Cursor der erste Coding-Agent-Host, der nativ in der primären Enterprise-Kollaborationsschicht sitzt.
Cursor Bugbot mit Effort-Levels (11. Mai) — Default/High/Custom für PR-Reviews, Usage-basierte Abrechnung. Bekanntes Muster: Tiefere Reviews kosten mehr, billigere reichen für offensichtliche Issues.
OpenAI Codex CLI v0.130.0 (8. Mai) — codex remote-control als simpler Entry-Point für einen headless app-server, der von anderen Prozessen aus gesteuert wird. v0.131.0 läuft seit 9. Mai in Alpha mit mehreren Builds pro Tag — Codex zieht bei Headless-Architektur sichtbar nach.
Codex in der ChatGPT Mobile App (14. Mai) — OpenAI bringt Codex in der ChatGPT-App auf iOS und Android, „in Preview, jetzt für alle Pläne”. Vom Handy aus alle Threads sehen, Outputs prüfen, Commands genehmigen, Modelle wechseln, Neues anstoßen. Mobile als Approval-Surface ist die Antwort auf die Lead/Subagent-Realität: Wer den ganzen Tag an verteilten Hintergrund-Agenten arbeitet, will nicht für jeden Approval ans Notebook.
xAI Grok Build — erster CLI-Coding-Agent von xAI (15. Mai, Beta) — Damit ist xAI der dritte Frontier-Lab-Player im Terminal-CLI-Markt nach Anthropic (Claude Code) und OpenAI (Codex CLI). Plan Mode mit Step-by-Step-Approval und Diffs vor jeder Änderung, parallele Sub-Agents für größere Tasks, Headless Mode (-p) für Skripte, Support für AGENTS.md, Plugins, Hooks und MCP-Server, /feedback-Command. Beta zunächst exklusiv für SuperGrok-Heavy-Abos. Inhaltlich keine Überraschung — die Konvergenz auf das Claude-Code-/Codex-Pattern ist bemerkenswert deutlich.
GitHub Copilot — vier Updates 14./15. Mai — Der Cloud-Agent unterstützt Auto-Modell-Auswahl (kein manuelles Vorgeben mehr), Team-Level-Usage-Metrics sind über die API verfügbar (Org-Visibility), die Copilot-Desktop-App geht in Tech Preview (Copilot löst sich aus der IDE), und Memory respektiert nun User-Preferences für Pro/Pro+. Plus weiterhin gültig aus #005-Linie: Cloud-Agent-Secrets auf Org-Ebene (8. Mai) — Geteilte Secrets und Variablen für Agents-Workflows, getrennt von normalen Actions-Secrets.
Quellen:
Trend der Woche
„Act 2” — GitLab restrukturiert sich um Agents, und der nächste Org-Umbau steht an
Am 11. Mai hat GitLab unter dem Titel „GitLab Act 2” einen Komplettumbau angekündigt: Verkleinerung des Country-Footprints um bis zu 30 %, Abbau von bis zu drei Management-Layern, Reorganisation in rund 60 kleinere R&D-Teams mit End-to-End-Ownership — plus eine Workforce-Reduktion, deren finaler Umfang erst auf dem Earnings-Call am 2. Juni bekanntgegeben wird (Bloomberg und mehrere Outlets berichten unter Verweis auf das SEC-8-K-Filing von rund 7 Prozent).
CEO Bill Staples begründet das nicht mit makroökonomischem Druck, sondern explizit mit „der agentischen Ära”: Interne Reviews, Approvals und Handoffs sollen durch AI-Agents ersetzt, Rollen entsprechend zugeschnitten werden. Die Aktie verlor nach Bekanntgabe knapp zehn Prozent.
Das ist die erste börsennotierte Devtools-Firma, die ihre Restrukturierung offen als „Wir bauen uns um Agents herum neu” begründet — und es ist erst der Anfang.
Cloudflares interner Engineering-Stack aus #004, Anthropics Sprung der substanziellen PR-Review-Quote von 16 auf 54 Prozent, Mercado Libres 90-Prozent-Autonomous-Coding-Ziel — sie alle deuten in dieselbe Richtung: Es geht nicht mehr um „AI als Tool für bestehende Workflows”, sondern um die Frage, wie sich Org-Designs verändern, wenn weite Teile der Software-Wertschöpfungskette von Agents getragen werden.
Die unbequeme Seite ist ebenso wichtig. GitLab erntet bereits den Vorwurf des „AI Washings” — Layoffs in agentischer Sprache verpackt. Ob die 60 autonomen R&D-Teams in zwölf Monaten schneller liefern oder ob die Restrukturierung primär eine Margen-Story für Anleger ist, lässt sich heute nicht beantworten. Worauf Teams jetzt achten sollten: Welche Aufgaben automatisieren sich tatsächlich agentisch, welche bekommen nur einen neuen Namen — und welche Restrukturierung ist eigentlich nur eine herkömmliche Kostenkürzung mit Hochglanz-Vokabular.
Quellen:
Tipp der Woche
„Deliberate Skill Development” — gegen die Fluency-Illusion beim AI-Coding
Cat Hicks (Psychological Scientist mit Fokus auf Software-Teams) und Michael Mullarkey haben einen Skill für Claude Code und Codex veröffentlicht: learning-opportunities auf GitHub. Idee: während des AI-assisted Codings schiebt der Skill kurze, an Lerntheorie orientierte Übungen ein — Prediction, Retrieval Practice, Spaced Repetition. Optional als learning-opportunities-auto mit automatischem Trigger.
Warum das hier steht: Sauber generierter Code wird leicht als verstandener Code wahrgenommen — die klassische fluency illusion. Wer den ganzen Tag mit Coding-Agents arbeitet, baut sich darüber unbemerkt Wissenslücken in genau den Stellen, die später das Debug-Limit setzen. Das Skill ist die seltene Spezies eines AI-Tools, das nicht mehr Output verspricht, sondern verlangsamt — und das ist der Punkt.
Kurz notiert
Anthropic in Gesprächen über 30-Mrd.-Runde bei 900-Mrd.-Bewertung (12. Mai) — Frühe Investorengespräche, Abschluss möglicherweise noch im Mai. Die Vorrunde im Februar lag bei 350 Mrd. — eine knappe Verdreifachung in drei Monaten. Bloomberg
Akamai-Compute-Deal über 1,8 Mrd. $ (Bloomberg, 8. Mai) — Sieben Jahre, laut Akamai der größte Vertrag in Firmengeschichte. Akamai-Aktie sprang um 27 % auf 148 $. Revenue beginnt im Q4 2026 mit 20–25 Mio. $ anzulaufen. Bloomberg
Claude Platform auf AWS (13. Mai, GA) — Erster Cloud-Provider mit nativem Zugriff auf Anthropics Platform-Stack: Managed Agents (Beta), Skills (Beta), MCP-Connector, Files API, prompt caching — alles via AWS-IAM und CloudTrail-Audit. Verfügbar in acht Regionen inklusive Frankfurt, Dublin und London. AWS Machine Learning Blog
Simon Willison über Shopify River (11. Mai) — Internes Coding-Agent-Tool, das ausschließlich in öffentlichen Slack-Channels operiert; auf Direktnachrichten antwortet River mit dem Vorschlag, einen Channel zu erstellen. Such- und Lernbarkeit by design. Lesenswertes Gegenmodell zu „Agent läuft im stillen DM”. simonwillison.net
Anthropic Engineering: „How Claude Code works in large codebases” (14. Mai) — Best-Practices-Post zu Multi-Million-Line-Monorepos: CLAUDE.md-Hierarchie,
.ignore-Files,permissions.deny, fünf Extension-Points (CLAUDE.md, Hooks, Skills, Plugins, MCP-Server) plus LSP-Integration und Subagents. Kernsatz: „The harness matters as much as the model” — und: RAG-basierte Coding-Tools skalieren in großen Monorepos schlecht, weil die Embedding-Pipelines mit aktiven Engineering-Teams nicht mithalten. claude.com/blogMicrosoft schiebt Engineers von Claude Code zu GitHub Copilot CLI (14. Mai) — Tom Warren (The Verge) berichtet, dass Microsoft seine Entwickler von Claude Code auf die hauseigene GitHub Copilot CLI umzieht — Claude Code hatte intern hohe Verbreitung gefunden und untergrub den eigenen Tool-Push. Frist und betroffene Microsoft-Gruppe siehe Verge-Original; finanzielle Motivation laut Reporting. Kontrapunkt zur Code-with-Claude-Welle: Plattform-Politik schlägt Tool-Ergonomie. Windows Central
Bisher erschein der ‚Agentic Weekly‘ donnerstags. Ich bin am Überlegen, ob es besser wäre, ihn am Wochenende zu veröffentlichen.
Feedback? Einfach kommentieren/antworten.


