KI-Agenten dominierten die ETHDenver 2026, von autonomer Finanzwirtschaft bis zu On-Chain-Robotik. Doch während die Begeisterung für „agentenbasierte Wirtschaftssysteme“ wächst, taucht eine schwierigere Frage auf: Können Institutionen nachweisen, worauf ihre KI-Systeme trainiert wurden?
Zu den Startups, die sich mit diesem Problem befassen, gehört Perle Labs, das argumentiert, dass KI-Systeme eine überprüfbare Kontrollkette für ihre Trainingsdaten benötigen, insbesondere in regulierten und risikoreichen Umgebungen. Mit dem Schwerpunkt auf dem Aufbau einer überprüfbaren, zertifizierten Dateninfrastruktur für Institutionen hat Perle bis heute 17,5 Millionen US-Dollar aufgebracht, wobei die jüngste Finanzierungsrunde von Framework Ventures angeführt wurde. Weitere Investoren sind CoinFund, Protagonist, HashKey und Peer VC. Das Unternehmen gibt an, dass mehr als eine Million Annotatoren über eine Milliarde bewertete Datenpunkte auf seiner Plattform beitragen.
BeInCrypto sprach am Rande der ETHDenver 2026 mit Perle Labs CEO Ahmed Rashad. Rashad hatte zuvor eine operative Führungsrolle bei Scale AI während dessen Hyperwachstumsphase inne. Im Gespräch diskutierte er Datenherkunft, Modellkollaps, gegnerische Risiken und warum er glaubt, dass souveräne Intelligenz eine Voraussetzung für den Einsatz von KI in kritischen Systemen werden wird.
BeInCrypto: Sie beschreiben Perle Labs als die „souveräne Intelligenzschicht für KI“. Was bedeutet das konkret für Leser, die nicht mit der Debatte um Dateninfrastruktur vertraut sind?
Ahmed Rashad: Das Wort „souverän” ist bewusst gewählt und hat mehrere Bedeutungen.
Die wörtlichste Bedeutung ist Kontrolle. Wenn Sie eine Regierung, ein Krankenhaus, ein Rüstungsunternehmen oder ein großes Unternehmen sind, das KI in einer Umgebung mit hohem Risiko einsetzt, müssen Sie die Intelligenz hinter diesem System selbst besitzen und dürfen sie nicht an eine Black Box auslagern, die Sie nicht überprüfen oder auditieren können. Souverän bedeutet, dass Sie wissen, worauf Ihre KI trainiert wurde, wer sie validiert hat, und dass Sie dies nachweisen können. Das kann heute der Großteil der Branche nicht von sich behaupten.
Die zweite Bedeutung ist Unabhängigkeit. Handeln ohne Einmischung von außen. Genau das benötigen Institutionen wie das Verteidigungsministerium oder ein Unternehmen, wenn sie KI in sensiblen Umgebungen einsetzen. Sie können Ihre kritische KI-Infrastruktur nicht von Datenpipelines abhängig machen, die Sie nicht kontrollieren, nicht überprüfen und nicht gegen Manipulationen schützen können. Das ist kein theoretisches Risiko. Die NSA und die CISA haben beide operative Leitlinien zu Schwachstellen in der Datenlieferkette als Frage der nationalen Sicherheit herausgegeben.
Die dritte Bedeutung ist Rechenschaftspflicht. Wenn KI von der Generierung von Inhalten zur Entscheidungsfindung übergeht, sei es im medizinischen, finanziellen oder militärischen Bereich, muss jemand in der Lage sein, folgende Fragen zu beantworten: Woher stammen die Informationen? Wer hat sie überprüft? Ist diese Aufzeichnung dauerhaft? Bei Perle ist es unser Ziel, dass jeder Beitrag jedes fachkundigen Annotators in der Blockchain aufgezeichnet wird. Er kann nicht überschrieben werden. Diese Unveränderlichkeit macht das Wort „souverän“ zu einem treffenden Begriff und nicht nur zu einem Wunschtraum.
Praktisch gesehen bauen wir eine Verifizierungs- und Zertifizierungsebene auf. Wenn ein Krankenhaus ein KI-Diagnosesystem einsetzt, sollte es in der Lage sein, jeden Datenpunkt im Trainingssatz zu einem zertifizierten Fachmann zurückzuverfolgen, der ihn validiert hat. Das ist souveräne Intelligenz. Das ist es, was wir meinen.
BeInCrypto: Sie waren Teil von Scale AI während seiner Hyperwachstumsphase, einschließlich großer Verteidigungsaufträge und der Meta-Investition. Was haben Sie aus dieser Erfahrung darüber gelernt, wo traditionelle KI-Datenpipelines versagen?
Ahmed Rashad: Scale war ein unglaubliches Unternehmen. Ich war dabei, als es von 90 Millionen US-Dollar auf jetzt 29 Milliarden Dollar wuchs, als sich all das entwickelte, und ich hatte einen Platz in der ersten Reihe, um zu sehen, wo die Risse entstehen.
Das grundlegende Problem ist, dass Datenqualität und Datenumfang in entgegengesetzte Richtungen ziehen.
Wenn man um das 100-Fache wächst, besteht immer der Druck, schnell voranzukommen: mehr Daten, schnellere Annotation, geringere Kosten pro Label. Und die Opfer sind Präzision und Verantwortlichkeit. Am Ende hat man undurchsichtige Pipelines: Man weiß ungefähr, was hineingegangen ist, man hat einige Qualitätsmetriken darüber, was herausgekommen ist, aber dazwischen liegt eine Black Box. Wer hat das validiert? Waren sie tatsächlich qualifiziert? War die Annotation konsistent? Diese Fragen lassen sich mit traditionellen Modellen in großem Maßstab kaum beantworten.
Das zweite, was ich gelernt habe, ist, dass der menschliche Faktor fast immer als Kostenfaktor behandelt wird, der minimiert werden muss, anstatt als Fähigkeit, die entwickelt werden muss. Das Transaktionsmodell: Bezahlung pro Aufgabe und anschließende Optimierung des Durchsatzes führt mit der Zeit zu einer Verschlechterung der Qualität. Es verschleißt die besten Mitwirkenden. Die Menschen, die Ihnen wirklich hochwertige Annotationen auf Expertenniveau liefern können, sind nicht dieselben, die sich für ein paar Cent durch ein gamifiziertes Mikroaufgaben-System quälen. Wenn Sie Input dieser Qualität wünschen, müssen Sie anders vorgehen.
Diese Erkenntnis ist die Grundlage von Perle. Das Datenproblem lässt sich nicht lösen, indem man mehr Arbeitskräfte darauf ansetzt. Es lässt sich lösen, indem man die Mitwirkenden als Fachleute behandelt, eine überprüfbare Zertifizierung in das System integriert und den gesamten Prozess von Anfang bis Ende überprüfbar macht.
BeInCrypto: Sie haben eine Million Annotatoren erreicht und über eine Milliarde Datenpunkte gesammelt. Die meisten Datenkennzeichnungsplattformen stützen sich auf anonyme Crowd-Arbeit. Was ist strukturell anders an Ihrem Reputationsmodell?
Ahmed Rashad: Der wesentliche Unterschied besteht darin, dass bei Perle Ihre Arbeitshistorie Ihnen gehört und dauerhaft ist. Wenn Sie eine Aufgabe erledigen, wird die Aufzeichnung dieses Beitrags, die erreichte Qualitätsstufe und der Vergleich mit dem Expertenkonsens in der Blockchain gespeichert. Sie kann nicht bearbeitet, gelöscht oder neu zugewiesen werden. Mit der Zeit wird dies zu einer beruflichen Qualifikation, die sich summiert.
Vergleichen Sie dies mit anonymer Crowd-Arbeit, bei der eine Person im Wesentlichen austauschbar ist. Sie haben kein Interesse an Qualität, da sie keinen Ruf haben und jede Aufgabe unabhängig von der vorherigen ist. Die Anreizstruktur führt genau zu dem, was man erwarten würde: minimaler Aufwand.
Unser Modell kehrt das um. Die Mitwirkenden bauen eine nachprüfbare Erfolgsbilanz auf. Die Plattform erkennt Fachwissen in bestimmten Bereichen an. Ein Radiologe, der etwa regelmäßig hochwertige Annotationen von medizinischen Bildern erstellt, baut ein Profil auf, das dies widerspiegelt. Dieser Ruf verschafft ihm Zugang zu höherwertigen Aufgaben, einer besseren Vergütung und einer sinnvolleren Arbeit. Es ist ein Flywheel-Effekt: Die Qualität steigt, weil sie durch Anreize belohnt wird.
Wir haben in unserem Annotator-Netzwerk eine Milliarde Punkte erreicht. Das ist nicht nur eine Volumenzahl, sondern eine Milliarde nachvollziehbarer, zugeordneter Datenbeiträge von verifizierten Menschen. Das ist die Grundlage für vertrauenswürdige KI-Trainingsdaten, und es ist strukturell unmöglich, dies mit anonymer Crowd-Arbeit zu replizieren.
BeInCrypto: Der Zusammenbruch von Modellen wird in Forschungskreisen viel diskutiert, schafft es aber selten in die Mainstream-KI-Gespräche. Warum ist das Ihrer Meinung nach so, und sollten sich mehr Menschen darüber Sorgen machen?
Ahmed Rashad: Es wird in Mainstream-Gesprächen nicht thematisiert, weil es sich um eine sich langsam entwickelnde Krise handelt, die nicht dramatisch ist. Der Modellzusammenbruch, bei dem KI-Systeme, die zunehmend mit KI-generierten Daten trainiert werden, anfangen, sich zu verschlechtern, Nuancen zu verlieren und sich in Richtung Mittelwert zu komprimieren, sorgt nicht für Schlagzeilen. Er führt zu einer allmählichen Erosion der Qualität, die leicht zu übersehen ist, bis sie schwerwiegend ist.
Der Mechanismus ist einfach: Das Internet füllt sich mit KI-generierten Inhalten. Modelle, die auf diesen Inhalten trainiert werden, lernen aus ihren eigenen Ergebnissen und nicht aus echtem menschlichem Wissen und Erfahrungen. Jede Trainingsgeneration verstärkt die Verzerrungen der vorherigen. Es ist eine Rückkopplungsschleife ohne natürliche Korrektur.
Sollten sich mehr Menschen Sorgen machen? Ja, insbesondere in Bereichen mit hohem Risiko. Wenn der Zusammenbruch eines Modells einen Algorithmus für Inhaltsempfehlungen beeinträchtigt, erhält man schlechtere Empfehlungen. Wenn er ein medizinisches Diagnosemodell, ein System zur juristischen Argumentation oder ein Werkzeug der Verteidigungsaufklärung beeinträchtigt, sind die Folgen ganz andere. Der Spielraum für Verschlechterungen verschwindet.
Daher ist die von Menschen verifizierte Datenschicht nicht optional, wenn KI in kritische Infrastrukturen Einzug hält. Man benötigt eine kontinuierliche Quelle echter, vielfältiger menschlicher Intelligenz, um darauf zu trainieren, und keine KI-Ergebnisse, die durch ein anderes Modell gewaschen wurden.
Wir haben über eine Million Annotatoren, die echte Fachkenntnisse in Dutzenden von Bereichen vertreten. Diese Vielfalt ist das Gegenmittel gegen Modellkollaps. Man kann ihn nicht mit synthetischen Daten oder mehr Rechenleistung beheben.
BeInCrypto: Wenn KI von digitalen Umgebungen auf physische Systeme ausgeweitet wird, was ändert sich dann grundlegend in Bezug auf Risiken, Verantwortung und die Standards, die für ihre Entwicklung gelten?
Ahmed Rashad: Die Unumkehrbarkeit ändert sich. Das ist der Kern der Sache. Ein Sprachmodell, das halluziniert, liefert eine falsche Antwort. Man kann es korrigieren, markieren und weitermachen. Ein robotergestütztes Chirurgiesystem, das auf einer falschen Schlussfolgerung basiert, ein autonomes Fahrzeug, das eine falsche Klassifizierung vornimmt, eine Drohne, die auf ein falsch identifiziertes Ziel reagiert – für solche Fehler gibt es keinen Rückgängig-Knopf. Die Kosten eines Fehlschlags reichen von peinlich bis katastrophal.
Das verändert alles, was die anzuwendenden Standards betrifft. In digitalen Umgebungen konnte die KI-Entwicklung weitgehend schnell voranschreiten und sich selbst korrigieren. In physischen Systemen ist dieses Modell unhaltbar. Die Trainingsdaten hinter diesen Systemen müssen vor dem Einsatz überprüft werden, nicht nach einem Vorfall.
Das verändert auch die Verantwortlichkeit. In einem digitalen Kontext ist es relativ einfach, die Verantwortung zu verteilen: War es das Modell? Die Daten? Der Einsatz? In physischen Systemen, insbesondere wenn Menschen zu Schaden kommen, werden Regulierungsbehörden und Gerichte klare Antworten verlangen. Wer hat das trainiert? Auf welchen Daten? Wer hat diese Daten validiert und nach welchen Standards? Die Unternehmen und Regierungen, die diese Fragen beantworten können, werden diejenigen sein, die operieren dürfen. Diejenigen, die dies nicht können, werden mit einer Haftung konfrontiert sein, die sie nicht erwartet haben.
Wir haben Perle genau für diesen Übergang entwickelt. Von Menschen verifiziert, von Experten erstellt, in der Blockchain überprüfbar. Wenn KI in Lagerhäusern, Operationssälen und auf dem Schlachtfeld zum Einsatz kommt, muss die darunter liegende Intelligenzschicht einen anderen Standard erfüllen. Dieser Standard ist das, worauf wir hinarbeiten.
BeInCrypto: Wie real ist die Gefahr von Datenvergiftung oder feindlicher Manipulation in KI-Systemen heute, insbesondere auf nationaler Ebene?
Ahmed Rashad: Sie ist real, sie ist dokumentiert und sie wird bereits von Personen, die Zugang zu geheimen Informationen darüber haben, als nationale Sicherheitspriorität behandelt.
Das GARD-Programm (Guaranteeing AI Robustness Against Deception) der DARPA hat jahrelang speziell Abwehrmaßnahmen gegen feindliche Angriffe auf KI-Systeme, einschließlich Datenvergiftung, entwickelt. Die NSA und die CISA haben 2025 gemeinsame Leitlinien herausgegeben, in denen ausdrücklich davor gewarnt wird, dass Schwachstellen in der Datenlieferkette und böswillig veränderte Trainingsdaten eine glaubwürdige Bedrohung für die Integrität von KI-Systemen darstellen. Dabei handelt es sich nicht um theoretische White Papers. Es sind operative Leitlinien von Behörden, die keine Warnungen über hypothetische Risiken veröffentlichen.
Die Angriffsfläche ist beträchtlich. Wenn Sie die Trainingsdaten eines KI-Systems kompromittieren können, das zur Erkennung von Bedrohungen, zur medizinischen Diagnose oder zur Logistikoptimierung eingesetzt wird, müssen Sie das System selbst nicht hacken. Sie haben bereits beeinflusst, wie es die Welt sieht. Das ist ein viel eleganterer und schwerer zu erkennender Angriffsvektor als herkömmliche Cybersicherheitsverletzungen.
Der 300-Millionen-Dollar-Vertrag, den Scale AI mit der CDAO des Verteidigungsministeriums abgeschlossen hat, um KI in geheimen Netzwerken einzusetzen, besteht zum Teil deshalb, weil die Regierung versteht, dass sie in sensiblen Umgebungen keine KI einsetzen kann, die auf unbestätigten öffentlichen Daten trainiert wurde. Die Frage nach der Herkunft der Daten ist auf dieser Ebene keine akademische Frage. Sie ist operativ.
Was in der Mainstream-Diskussion fehlt, ist, dass dies nicht nur ein Problem der Regierung ist. Jedes Unternehmen, das KI in einem wettbewerbsorientierten Umfeld einsetzt, sei es im Finanzdienstleistungssektor, in der Pharmaindustrie oder in kritischen Infrastrukturen, ist einer gegnerischen Datenexposition ausgesetzt, die es wahrscheinlich noch nicht vollständig erfasst hat. Die Bedrohung ist real. Die Abwehrmaßnahmen befinden sich noch im Aufbau.
BeInCrypto: Warum kann eine Regierung oder ein großes Unternehmen diese Verifizierungsebene nicht einfach selbst aufbauen? Was ist die echte Antwort, wenn jemand dagegen argumentiert?
Ahmed Rashad: Einige versuchen es. Und diejenigen, die es versuchen, lernen schnell, worin das eigentliche Problem besteht.
Die Technologie zu entwickeln ist der einfache Teil. Der schwierige Teil ist das Netzwerk. Verifizierte, qualifizierte Fachexperten, Radiologen, Linguisten, Rechtsspezialisten, Ingenieure und Wissenschaftler tauchen nicht einfach auf, nur weil man eine Plattform für sie aufgebaut hat. Man muss sie rekrutieren, ihre Qualifikationen überprüfen, Anreizstrukturen schaffen, die sie motivieren, und hochwertige Konsensmechanismen entwickeln, die ihre Beiträge in großem Maßstab sinnvoll machen.
Das dauert Jahre und erfordert Fachwissen, über das die meisten Behörden und Unternehmen einfach nicht verfügen.
Das zweite Problem ist die Vielfalt. Eine Behörde, die ihre eigene Verifizierungsebene aufbaut, wird per Definition aus einem begrenzten und relativ homogenen Pool schöpfen. Der Wert eines globalen Expertennetzwerks liegt nicht nur in der Qualifizierung, sondern auch in der Bandbreite an Perspektiven, Sprachen, kulturellen Kontexten und Fachgebieten, die man nur durch den Betrieb in realem Maßstab über reale geografische Gebiete hinweg erhalten kann. Wir haben über eine Million Annotatoren. Das lässt sich intern nicht replizieren.
Das dritte Problem ist die Gestaltung von Anreizen. Um hochqualifizierte Mitwirkende langfristig zu binden, bedarf es einer transparenten, fairen und programmierbaren Vergütung. Die Blockchain-Infrastruktur macht dies auf eine Weise möglich, die interne Systeme in der Regel nicht replizieren können: unveränderliche Beitragsaufzeichnungen, direkte Zuordnung und überprüfbare Zahlungen. Ein staatliches Beschaffungssystem ist nicht darauf ausgelegt, dies effizient zu tun.
Die ehrliche Antwort auf den Widerstand lautet: Sie kaufen nicht nur ein Tool. Sie erhalten Zugang zu einem Netzwerk und einem Authentifizierungssystem, dessen Aufbau Jahre gedauert hat. Die Alternative lautet nicht „selbst aufbauen”, sondern „das bereits Vorhandene nutzen oder das mit dem Fehlen dieses Systems verbundene Risiko für die Datenqualität akzeptieren”.
BeInCrypto: Wenn KI zur zentralen nationalen Infrastruktur wird, wo wird dann in fünf Jahren eine souveräne Intelligenzschicht in diesem Stack angesiedelt sein?
Ahmed Rashad: In fünf Jahren wird sie meiner Meinung nach so aussehen wie die Finanzprüfungsfunktion heute: eine unverzichtbare Verifizierungsebene zwischen Daten und Einsatz, mit regulatorischer Unterstützung und professionellen Standards.
Derzeit funktioniert die KI-Entwicklung ohne etwas, das einer Finanzprüfung entspricht. Unternehmen melden ihre Trainingsdaten selbst. Es gibt keine unabhängige Überprüfung, keine professionelle Zertifizierung des Prozesses, keine Bestätigung durch Dritte, dass die Intelligenz hinter einem Modell einem definierten Standard entspricht. Wir befinden uns in einer frühen Phase, die mit der Finanzwelt vor Sarbanes-Oxley vergleichbar ist und weitgehend auf Vertrauen und Selbstzertifizierung basiert.
Da KI zu einer kritischen Infrastruktur wird, die Stromnetze, Gesundheitssysteme, Finanzmärkte und Verteidigungsnetzwerke betreibt, wird dieses Modell unhaltbar. Regierungen werden die Überprüfbarkeit vorschreiben. Beschaffungsprozesse werden eine verifizierte Datenherkunft als Vertragsbedingung erfordern. Haftungsrahmen werden Konsequenzen für Fehler vorsehen, die durch eine ordnungsgemäße Überprüfung hätten verhindert werden können.
Perle befindet sich in diesem Stapel auf der Ebene der Verifizierung und Zertifizierung, also als die Instanz, die eine unveränderliche, überprüfbare Aufzeichnung darüber erstellen kann, worauf ein Modell trainiert wurde, von wem und nach welchen Standards. Das ist keine Funktion der KI-Entwicklung in fünf Jahren. Es ist eine Voraussetzung.
Der allgemeinere Punkt ist, dass souveräne Intelligenz kein Nischenanliegen für Rüstungsunternehmen ist. Sie ist die Grundlage, die KI in jedem Kontext einsetzbar macht, in dem Fehler reale Konsequenzen haben. Und je mehr KI in solche Kontexte vordringt, desto wertvoller wird diese Grundlage.