Shared Memory. Agents die voneinander wissen
Was passiert wenn drei Agents parallel laufen und sich trotzdem nicht widersprechen. Die Architektur hinter echten Teams.
Das Problem
Du hast Research, Critic, Analyst parallel. Sie laufen gleichzeitig, in drei verschiedenen Sessions, jeder mit eigenem Kontext. Am Ende hast Du drei Reports die sich widersprechen können.
Research sagt "X ist der fuehrende Ansatz". Critic sagt "X ist riskant". Analyst sagt "X haben wir nicht probiert". Drei Meinungen zu demselben Ding.
Das ist OK für einzelne Entscheidungen. Du willst die Spannung zwischen den Perspektiven. Aber wenn die Agents zusammen an einem größeren Problem bauen, brauchen sie eine gemeinsame Wahrheit.
Die Antwort: Shared Memory
Anstatt dass jeder Agent sein eigenes kleines Gedächtnis hat, teilen sie sich eins. Gleicher Datenbank, gleiche Lernfaehigkeit, jeder liest was der andere schreibt.
Wie das technisch aussieht
Auf der Datenbank-Ebene: eine Tabelle shared_learnings, jeder Eintrag hat Felder wie content, agent_id, project, confidence, timestamp.
Jeder Agent hat Tools zum Schreiben (nex_learn) und Lesen (nex_search, nex_recall) dieser Tabelle.
Wenn Research etwas findet, schreibt er ein Learning. Wenn Critic kurz darauf dieselbe These prüft, findet er Research's Learning und kann darauf bauen.
Der Trick: Agent-Attribution
Jedes Learning wird mit agent_id markiert. "Das hat Research am 23.04. geschrieben." Das erlaubt zwei Dinge:
- Du kannst Learnings nach Agent filtern. "Zeig mir nur was Critic gesagt hat."
- Spaetere Agents wissen WER was behauptet hat, nicht nur WAS.
Das ist wichtig weil verschiedene Agents unterschiedlich verlässlich sind. Wenn Research sagt "Library X ist stabil" ist das anders gewichtet als wenn der Analyst es sagt (der die echte Code-Nutzung sieht).
Neutrality Guard
Ein spezielles Problem: wenn der Critic die positiven Learnings der anderen Agents sieht, wird er faul. "Research hat gesagt ist gut, dann passt's."
Die Lösung: der Critic bekommt nur die Learnings vom Typ mistake oder warning aus dem Shared Memory, keine Confirmations, keine positiven Reports. Er muss aus dem Negativraum argumentieren.
Das ist eine kleine Code-Regel, aber sie hält das System ehrlich.
Was Du selbst bauen kannst
Minimum-Setup:
- SQLite oder Postgres Datenbank mit Tabelle
learnings(id, agent_id, project, category, content, created_at). - Jeder Agent bekommt zwei Tools:
save_learning(content, category)undsearch_learnings(query). - Im Prompt: "Bevor Du startest,
search_learningsmit Deinem Thema. Beim Abschluss schreib wichtige Erkenntnisse persave_learning."
Das ist die Basis. Darauf kannst Du dann Features dazubauen: Duplicate-Detection, Confidence-Decay, Cross-Agent-Boost.
Was StudioMeyer Memory kann
StudioMeyer Memory (die SaaS die Du in Level 4 eingerichtet hast) macht genau das als fertige Software. Mehr als 50 Tools für Lernen, Entscheiden, Entities im Knowledge Graph, Skills. Multi-Tenant, mit Agent-Attribution, mit Neutrality Guard eingebaut.
Du kannst in Level 6 selbst einen Memory-Server bauen. Oder einfach die bestehende Lösung nutzen, die lange gebaut wurde, weil sie lange laufen muss.
Abschluss Level 5
Du hast Multi-Agent-Architektur verstanden. CEO koordiniert, Worker spezialisieren, Shared Memory verbindet. Das ist die Basis für professionelle AI-Systeme 2026.
Level 6 ist der Schritt ins Eigene: Du baust einen MCP-Server und stellst ihn live. Nicht nur für Dich, vielleicht auch zum Verkaufen.