Das neue Framework ermöglicht es KI-Agenten, ihre eigenen Fähigkeiten neu zu schreiben, ohne das zugrunde liegende Modell neu zu trainieren
Eine große Herausforderung beim Einsatz autonomer Agenten besteht darin, Systeme zu erstellen, die sich an Veränderungen in ihrer Umgebung anpassen können, ohne dass die zugrunde liegenden großen Spra…
Eine große Herausforderung beim Einsatz autonomer Agenten besteht darin, Systeme zu erstellen, die sich an Veränderungen in ihrer Umgebung anpassen können, ohne dass die zugrunde liegenden großen Sprachmodelle (LLMs) neu trainiert werden müssen.
Memento-Skills, ein neues Framework, das von Forschern an mehreren Universitäten entwickelt wurde, behebt diesen Engpass, indem es Agenten die Möglichkeit gibt, ihre Fähigkeiten selbst zu entwickeln. „Es erweitert seine kontinuierlichen Lernfähigkeit zu den bestehenden Angeboten auf dem aktuellen Markt, wie etwa OpenClaw und Claude Code", Jun Wang, Co-Autor des Papiers, sagte gegenüber VentureBeat.
Memento-Skills fungiert als sich entwickelnder externer Speicher, der es dem System ermöglicht, seine Fähigkeiten schrittweise zu verbessern, ohne das zugrunde liegende Modell zu ändern. Das Framework bietet eine Reihe von Fähigkeiten, die aktualisiert und erweitert werden können, wenn der Agent Feedback aus seiner Umgebung erhält.
Für Unternehmensteams, die Agenten in der Produktion ausführen, ist das wichtig. Die Alternative – die Feinabstimmung der Modellgewichte oder der manuelle Aufbau von Fähigkeiten – bringt einen erheblichen betrieblichen Aufwand und Datenanforderungen mit sich. Memento-Skills umgeht beides.
Die Herausforderungen beim Aufbau sich selbst entwickelnder Agenten
Selbst entwickelnde Agenten sind von entscheidender Bedeutung, da sie die Einschränkungen eingefrorener Sprachmodelle überwinden. Sobald ein Modell bereitgestellt wird, bleiben seine Parameter unverändert und beschränken sich auf das während des Trainings kodierte Wissen und alles, was in sein unmittelbares Kontextfenster passt.
Wenn Sie dem Modell ein externes Speichergerüst geben, kann es ohne den kostspieligen und langsamen Prozess der Neuschulung verbessert werden. Aktuelle Ansätze zur Agentenanpassung basieren jedoch weitgehend auf manuell entwickelten Fähigkeiten zur Bewältigung neuer Aufgaben. Es gibt zwar einige Methoden zum automatischen Erlernen von Fertigkeiten, diese erzeugen jedoch meist reine Textleitfäden, die einer sofortigen Optimierung gleichkommen. Andere Ansätze protokollieren einfach die Trajektorien einzelner Aufgaben, die nicht auf verschiedene Aufgaben übertragen werden.
Wenn diese Agenten außerdem versuchen, relevantes Wissen für eine neue Aufgabe abzurufen, verlassen sie sich in der Regel auf semantische Ähnlichkeitsrouter, wie z. B. standardmäßige dichte Einbettungen; Eine hohe semantische Überlappung garantiert keinen Verhaltensnutzen. Ein Agent, der sich auf Standard-RAG verlässt, ruft möglicherweise eine „Passwort-Zurücksetzung“ ab. Skript zur Lösung einer "Rückerstattungsverarbeitung" Abfrage einfach deshalb, weil die Dokumente die Unternehmensterminologie teilen.
"Die meisten RAG-Systeme (Retrieval-Augmented Generation) basieren auf ähnlichkeitsbasiertem Abruf. „Wenn Fertigkeiten jedoch als ausführbare Artefakte wie Markdown-Dokumente oder Codeschnipsel dargestellt werden, kann es sein, dass Ähnlichkeit allein nicht die effektivste Fertigkeit auswählt“, sagt er. sagte Wang.
Wie Memento-Skills Fähigkeiten speichert und aktualisiert
Um die Einschränkungen aktueller Agentensysteme zu überwinden, haben die Forscher Memento-Skills entwickelt. Das Papier beschreibt das System als „ein generalistisches, kontinuierlich erlernbares LLM-Agentensystem, das als Agentendesigner fungiert.“ Anstatt ein passives Protokoll vergangener Gespräche zu führen, erstellt Memento-Skills eine Reihe von Fähigkeiten, die als dauerhaftes, sich entwickelndes externes Gedächtnis fungieren.
Diese Fähigkeiten werden als strukturierte Markdown-Dateien gespeichert und dienen dem Agenten als sich entwickelnde Wissensdatenbank. Jedes wiederverwendbare Fertigkeitsartefakt besteht aus drei Kernelementen. Es enthält deklarative Spezifikationen, die beschreiben, was die Fertigkeit ist und wie sie verwendet werden soll. Es enthält spezielle Anweisungen und Eingabeaufforderungen, die die Argumentation des Sprachmodells leiten. Und es enthält den ausführbaren Code und die Hilfsskripte, die der Agent ausführt, um die Aufgabe tatsächlich zu lösen.
Memento-Skills erreicht kontinuierliches Lernen durch seine „Read-Write-Reflective-Learning“-Methode. Mechanismus, der Speicheraktualisierungen als aktive Richtlinieniteration und nicht als passive Datenprotokollierung darstellt. Wenn der Agent vor einer neuen Aufgabe steht, fragt er einen speziellen Skill-Router ab, um den verhaltensrelevantesten Skill abzurufen – nicht nur den semantisch ähnlichsten – und führt ihn aus.
Nachdem der Agent den Skill ausgeführt und Feedback erhalten hat, denkt das System über das Ergebnis nach, um die Lernschleife zu schließen. Anstatt nur ein Protokoll darüber anzuhängen, was passiert ist, verändert das System aktiv sein Gedächtnis. Wenn die Ausführung fehlschlägt, wertet ein Orchestrator die Ablaufverfolgung aus und schreibt die Skill-Artefakte neu. Dies bedeutet, dass der Code direkt aktualisiert wird oder zum Patchen des spezifischen Fehlermodus aufgefordert wird. Im Bedarfsfall entsteht eine völlig neue Fähigkeit.
M