Zurück

Sollten Nutzer zentraler Börsen Deepfake-Fortschritte jetzt ernst nehmen?

author avatar

Geschrieben von
Camila Grigera Naón

editor avatar

Redigiert von
Phil Haunhorst

15 Januar 2026 10:30 CET
  • AI-generierte Deepfakes breiten sich rasant aus – weltweit wächst der Ruf nach Regulierung und digitale Vertrauensfragen nehmen zu
  • Echtzeit-Synthetikvideos bedrohen Selfie- und Liveness-Checks bei KYC auf zentralen Krypto-Börsen
  • Ohne stärkere Sicherheitsmaßnahmen droht automatisiertes Onboarding zentralen Börsen mehr Betrug und Identitätsmissbrauch.
Promo

Die zunehmende Nutzung von KI-gesteuerten Werkzeugen zur Erstellung von Deepfake-Inhalten führt zu mehr Sorgen um die öffentliche Sicherheit.

Weil die Technik immer besser und für viele Menschen verfügbar wird, gibt es zudem Fragen zur Zuverlässigkeit von Systemen zur visuellen Identitätsprüfung, die zentrale Krypto-Plattformen verwenden.

Sponsored
Sponsored

Regierungen greifen gegen Deepfake durch

Täuschende Videos verbreiten sich schnell auf sozialen Netzwerken. Das verstärkt die Sorge vor einer neuen Welle aus Falschinformationen und gefälschten Inhalten. Der zunehmende Missbrauch solcher Technik gefährdet immer mehr die öffentliche Sicherheit und die persönliche Integrität.

Das Problem hat eine neue Stufe erreicht. Regierungen auf der ganzen Welt erlassen nun Gesetze, die Deepfakes unter Strafe stellen.

In dieser Woche haben Malaysia und Indonesien als erste Länder den Zugriff auf Grok, den KI-Chatbot von Elon Musks xAI, eingeschränkt. Die Behörden erklärten, der Schritt geschehe wegen Bedenken hinsichtlich des Missbrauchs zur Erzeugung von sexuellen und nicht einvernehmlichen Bildern.

Kaliforniens Generalstaatsanwalt Rob Bonta kündigte eine ähnliche Maßnahme an. Am Mittwoch sagte er, sein Büro untersuche mehrere Berichte über die Verbreitung von nicht einvernehmlichen, sexualisierten Bildern echter Menschen.

„Dieses Material zeigt Frauen und Kinder in Nackt- oder Sexszenen und wurde genutzt, um Menschen im Internet zu belästigen. Ich fordere xAI dringend auf, jetzt zu handeln, damit sich das nicht weiter ausbreitet”, sagte Bonta in einer Erklärung.

Im Gegensatz zu älteren Deepfakes können neue Tools auf Eingaben reagieren. Sie ahmen zudem echte Gesichtsbewegungen und synchronisierte Sprache sehr glaubhaft nach.

Sponsored
Sponsored

Deshalb helfen einfache Tests wie Blinzeln, Lächeln oder Kopfdrehen oft nicht mehr sicher, um eine Person zu erkennen.

Diese Fortschritte betreffen direkt zentrale Krypto-Plattformen, die bei der Anmeldung auf eine optische Prüfung setzen.

Zentralisierte Börsen geraten unter Druck

Die finanziellen Folgen von Betrug mit Deepfakes sind inzwischen Realität.

Fachleute aus der Branche und Technik-Forscher warnen, dass KI-Bilder und Videos immer öfter in Bereichen wie Versicherungsansprüchen und Gerichtsverfahren auftauchen.

Krypto-Plattformen, die weltweit arbeiten und oft auf automatische Anmeldung setzen, könnten besonders gefährdet sein, falls ihre Sicherheitsmaßnahmen nicht mit der Technik Schritt halten.

Weil KI-basierte Inhalte leichter zugänglich sind, reicht Vertrauen allein durch Video-Erkennung möglicherweise nicht mehr aus.

Krypto-Plattformen stehen nun vor der Aufgabe, sich schnell anzupassen, bevor neue Technik die Sicherheitsmaßnahmen überholt und Nutzer sowie Systeme gefährdet werden.

Haftungsausschluss

In Übereinstimmung mit den Richtlinien des Trust Project verpflichtet sich BeInCrypto zu einer unvoreingenommenen, transparenten Berichterstattung. Dieser Artikel zielt darauf ab, genaue und aktuelle Informationen zu liefern. Den Lesern wird jedoch empfohlen, die Fakten unabhängig zu überprüfen und einen Fachmann zu konsultieren, bevor sie auf der Grundlage dieses Inhalts Entscheidungen treffen.

Gesponsert
Gesponsert