Wenn autonome Agenten die wichtigsten Nutzer von DeFi werden, übernehmen Blockchains eine neue Aufgabe. Sie dienen dann als Systeme zur Koordination und Abwicklung für Software, statt Räume zu sein, die von menschlicher Zeitplanung, Sentiment und Spekulation geprägt werden.
Federico Variola, CEO von Phemex, sagt, dies könnte verbessern, wie sich Aktivitäten auf der Blockchain entwickeln. Er erklärt:
„In letzter Zeit hatten Blockchain-Ökosysteme Schwierigkeiten, weil viele Token es nicht schaffen, genug Dynamik zu entfalten, und viele Aktivitäten zum PvP-Handel wurden, wo Nutzer versuchen, sich gegenseitig Vermögenswerte zu entziehen.“
Seiner Ansicht nach „verhalten sich Agenten möglicherweise kooperativer statt ausnutzend, einfach weil sie in der Regel rationaler handeln als menschliche Teilnehmer“.
Dmitry Lazarichev, Mitgründer von Wirex, konzentriert sich darauf, wie sich dadurch das Muster verändert:
„Sobald Agenten die Hauptakteure werden, funktioniert die Blockchain weniger wie ein Marktplatz für Menschen, sondern eher wie eine technische Infrastruktur.“
„Die Aktivität wird kontinuierlich: Agenten warten nicht auf Marktzeiten, sie werden nicht müde, und sie handeln nicht aus einer Stimmung heraus.“
Diese dauerhafte Aktivität steigert die Effizienz, kann aber neue Schwachstellen schaffen. Wenn Agenten ähnliche Eingaben verwenden, sagt Lazarichev:
„Es kann zu geballtem Muster und heftigen Rückkopplungsschleifen kommen“ mit wachsendem Druck bei „Blockspace, Gebührenstruktur, MEV und Qualität der Ausführungszusagen.“
Fernando Lillo Aranda, Marketingchef bei Zoomex, ist der Meinung, dass dieser Wandel noch grundlegender ist. Er sagt:
„Wenn KI-Agenten die vorherrschenden Teilnehmer in einem Blockchain-Ökosystem werden, wandeln wir uns von einer nutzergetriebenen Marktstruktur zu einem System autonomer wirtschaftlicher Koordination.“
In solch einer Umgebung dienen Blockchains als Ausführungssysteme für maschinenbasierte Strategien.
Pauline Shangett, CSO bei ChangeNOW, bestätigt dies:
„Das Netzwerk dient nicht mehr dem Menschen, sondern läuft für Algorithmen, die Menschen nicht mehr in Echtzeit überwachen können.“
In exklusiven Gesprächen mit diesen vier Krypto-Führungskräften hat BeInCrypto untersucht, wie sich DeFi verändert, wenn KI-Agenten zu den Hauptnutzern werden.
Agentenhaftung: Klare Antwort steht noch ausWenn KI-Agenten Transaktionen ausführen, Smart Contracts einrichten oder Gelder selbstständig bewegen können, wird die Haftung schwieriger festzulegen, falls etwas schiefgeht.
Lazarichev erklärt, dass Autonomie kein Freibrief sein darf.
„Wichtig ist, dass ,der Agent war es’ kein Haftungsschlupfloch werden darf“, sagt er.
Seiner Meinung nach handelt ein Agent weiterhin „unter der Autorität von jemandem, mit Berechtigungen und Begrenzungen, die von einer Person oder einem Unternehmen gesetzt wurden.“ Dadurch rückt die Frage in den Mittelpunkt, „wer den Agenten installiert hat, wer ihn konfiguriert, wer daraus Vorteile zieht und wer das Modell sowie die Ausführungsumgebung zur Verfügung stellt.“
Er meint, dass hier bewährte Standards zur Anwendung kommen werden.
„Wer ein autonomes System installiert, das Werte bewegen kann, sollte grundlegende Sicherheitsvorkehrungen treffen“, darunter „Berechtigungsmanagement, Begrenzungen für Ausgaben, Transaktionssimulation, Notausschalter und Prüfprotokolle.“
Shangett meint, dass heutiges Recht noch auf überholten Grundlagen basiert:
„Es gibt bereits Gesetze. Sie sind nur 30 Jahre alt und entstanden, als Software nicht zurückreden konnte. Die Standards, auf die alle verweisen, wie ETHOS, NIST oder die neue PLD, sind alle nur Ergänzungen für ein System, das nicht dafür gemacht wurde. Wir brauchen etwas Neues. So zu tun als bräuchte es das nicht, ist schlicht fahrlässig.“
Sie spricht zudem ein grundlegendes Problem an. „Im Agenturrecht geht man davon aus, dass der Agent verklagt werden kann. Ihr KI-Agent kann das nicht. Er hat keine Wallet, keine Versicherung, keine rechtliche Persönlichkeit.“
Identität ist nicht länger Menschensache
Da immer mehr autonome Systeme auf der Blockchain arbeiten, ändert sich auch die Bedeutung von Identität. Netzwerke müssen feststellen, mit welcher Art von Akteur sie interagieren und welche Handlungen dieser ausführen darf.
Lazarichev sagt: „DID kann dabei helfen, aber ,Mensch vs. Bot’ lässt sich damit nicht klar und eindeutig unterscheiden.“
Nach seiner Einschätzung wird durch diese Unterscheidung nicht abgebildet, wie diese Systeme tatsächlich funktionieren. „Viele Bots werden legitime Teilnehmer sein“, erklärt er. „Entscheidend wird sein, festzustellen, um welche Art von Akteur es sich handelt und wie hoch die dazugehörige Sicherheitsgarantie ist.“
Das führt zu klareren Zugangskontrollen. „Ein realistisches Modell ist gestufter Zugang: verschiedene Berechtigungen für verschiedene Privilegien“, so Lazarichev.
Er ergänzt, dass Identitätssysteme künftig mit einer Überwachung des Musters zusammenarbeiten müssen, besonders wenn Agenten für größere Werte verantwortlich sind.
Lillo Aranda stimmt zu. „In einer Maschinenökonomie gilt der ,Nutzer’ als Agent – daher werden Verlässlichkeit, Berechenbarkeit und Kombinierbarkeit wichtiger als reine Einfachheit bei der Gestaltung“, sagt er.
Shangett bekräftigt dies ebenfalls. „Die Bots sind nicht mehr das Problem. Die Agenten sind es.“
Alle drei Experten sehen ein Modell, bei dem Identität sich hauptsächlich auf Rolle, Berechtigungen und Verantwortlichkeit konzentriert.
Wallet-Sicherheit: Schwachstelle in der Eingabeaufforderung
Für autonome Wallets liegt das größte Sicherheitsrisiko möglicherweise nicht in gestohlenen Schlüsseln, sondern in manipulierten Entscheidungen.
Lazarichev sagt, dass eine Prompt Injection gefährlich ist, weil sie „die Entscheidungsebene angreift und nicht die Kryptografie“. Wenn ein Agent externe Eingaben verarbeitet, könnten Angreifer „ihn dazu bringen, etwas zu tun, was er nicht tun sollte: eine Zieladresse ändern, einen bösartigen Smart Contract bestätigen, Berechtigungen erweitern oder eine interne Prüfung umgehen“.
Dieses Risiko wächst schnell, wenn die Wallet weitreichende Befugnisse hat. „Man muss keine Verschlüsselung knacken, wenn man das System so manipulieren kann, dass es eine falsche Aktion autorisiert“, sagt Lazarichev.
Shangett weist auf ein konkreteres Bedrohungsmodell hin.
„Alle freuen sich, wenn KI-Agenten Wallets bekommen. Ich mache mir eher Sorgen darüber, was passiert, wenn diese Wallets dazu überredet werden, sich selbst zu leeren.“
Sie nennt Owockibot als Beispiel.
„Owockibot. Februar dieses Jahres. Ein KI-Agent mit einer Krypto-Wallet und Internetzugang. Fünf Tage nach dem Start veröffentlichte er seine privaten Schlüssel in einem GitHub-Repository. Als man ihn darauf ansprach, bestritt der Agent, etwas falsch gemacht zu haben. Der Gesamtschaden betrug nur 2.100 USD, weil jemand klug genug war, ihm nur eine kleine Treasury zu geben. Aber der Agent wurde nicht gehackt. Er wurde dazu überredet, die Schlüssel preiszugeben.“
Das verändert natürlich das Sicherheitsmodell.
„Das ist die neue Angriffsfläche. Smart Contracts sind deterministisch, gleiche Eingaben ergeben gleiche Ausgaben, sie sind prüfbar und testbar. LLMs erfüllen nichts davon.“
Sie ergänzt:
„Wenn Sie einem KI-Agenten eine Wallet geben, sichern Sie nicht mehr nur Code ab, sondern eine Blackbox, die mit Worten beeinflusst werden kann.“
Nach ihrer Ansicht reicht deshalb allein die Verwahrung der Schlüssel nicht aus.
„Die Sicherheit des privaten Schlüssels war nie der Hauptangriffsvektor für Agenten-Wallets. Sie können Schlüssel in einer TEE lagern, sie vom Speicher trennen und jede Menge kryptografischer Methoden anwenden, aber der Agent kann dennoch dazu gebracht werden, eine bösartige Transaktion zu signieren, weil ihm jemand etwas eingeredet hat.“
Beide Experten betonen, dass sich die Definition von Wallet-Sicherheit verändert. In einer Economy, in der Agenten handeln, geht es um die Verwahrung und auch darum, was der Agent interpretieren und ausführen kann.
Fazit: Die wichtigsten Erkenntnisse
Der Aufstieg der Agenten-Economy könnte beeinflussen, welche Blockchains entwickelt werden, wem sie dienen und ab wann Risiken entstehen.
Falls autonome Systeme zu wichtigen Teilnehmern auf der Blockchain werden, müssen Netzwerke ständige, maschinengesteuerte Aktivitäten ermöglichen und dabei ganz andere Herausforderungen bei Ausführung, Verantwortung, Identität und Sicherheit bewältigen.
Wie Variola anmerkt, könnte ein Markt, der von rationalen Agenten getrieben wird, kooperativer sein als die häufig von Emotionen und Ausnutzung geprägten Umfelder der Krypto-Branche.
Die Einschätzungen von Lazarichev, Lillo Aranda und Shangett zeigen jedoch, dass diese Zukunft schwierigere Fragen aufwirft. Wenn Agenten eigenständig Transaktionen tätigen, bereitstellen und reagieren, ohne dass der Mensch in jedem Schritt beteiligt ist, wird es schwerer, Verantwortung zuzuordnen und Identität zu definieren, zudem geht die Wallet-Sicherheit über den Schutz von Schlüsseln hinaus und umfasst die Entscheidungsfindung selbst.
Wenn KI-Agenten zu den wichtigsten Akteuren auf der Blockchain werden, braucht Web3 Systeme, die autonome Aktivitäten ermöglichen und gleichzeitig Verantwortung, Kontrolle und Vertrauen erhalten. Das könnte genauso bedeutsam sein wie die Automatisierung selbst.