Eine AI-Fotomontage verbreitet sich in den sozialen Medien wie ein Lauffeuer und sorgt für Angst und Schrecken – auch auf den Krypto- und Finanzmärkte. Zu sehen ist eine Explosion in der Nähe des Pentagons, Washington D.C, aber wer denkt sich sowas aus?
Wie der am 22. Mai verbreitete Deepfake zeigt, wird AI zu einer wachsenden Bedrohung für die Stabilität von Demokratie und Märkten. Nicht zuletzt deswegen ist die neue Technologie Gegenstand vieler kontroverser Diskussionen.
AI-generiertes Bild täuscht die Krypto- und Finanzmärkte
Das Bild der Explosion am Pentagon verbreitete sich blitzartig in den sozialen Medien und sorgte sogar auf dem Aktienmarkt für einen kurzzeitigen Abschwung. Umso größer war die Erleichterung, als das Arlington Police Department über Twitter bekannt gab, dass es sich bei dem Bild um eine Fälschung handelte.
Dennoch, dieser Vorfall unterstreicht die Wichtigkeit von entsprechenden Präventivmaßnahmen, um derartige AI-Attacken künftig rechtzeitig abzufangen. Solche Fälschungen könnten nicht nur das öffentliche Vertrauen nachhaltig schädigen, auch Wahlen und demokratische Prozesse könnten Opfer gezielter Manipulation werden.
Nach dem Auftauchen des Bildes in den sozialen Medien gab der S&P 500 kurzzeitig um 0,3 % nach. Laut Kobeissi Letter soll der Rückgang um 30 Punkte durch eine Schwankung von schätzungsweise 500 Milliarden US-Dollar verursacht worden sein. Glücklicherweise erholten sich die Märkte schnell wieder, nicht zuletzt, weil die Wall Street ein entscheidendes Treffen über die Schuldenobergrenze erwartete.
Nach Börsenschluss am Montagabend blieb der S&P 500 stabil und die Kryptomarktkapitalisierung erholte sich nach Angaben von CoinGecko um 1,4 %.
Bis zuletzt war nicht bekannt, woher das Bild stammt und welche AI-Technologien bei der Erstellung Verwendung fand.
Gibt es eine Lösung für derartige Herausforderungen?
Mehrere verifizierte Twitter-Konten griffen dieses Bild auf und verbreiteten die Falschmeldung weiter, was die Situation logischerweise verschärfte.
AI-generierte Inhalte können die Grenzen zwischen Realität und Fiktion weiter verschwimmen lassen und das öffentliche Vertrauen untergraben. Samuel Altman, CEO von OpenAI und Entwickler von ChatGPT, äußerte seine Besorgnis über das gefährliche Potenzial von künstlicher Intelligenz. Erst kürzlich sprach er bei einer Anhörung des US-Senats über die neuen Herausforderungen, die mit dieser Technologie einhergehen.
Angesichts der bevorstehenden US-Präsidentschaftswahlen 2024 sind die Sorgen über die Auswirkungen von Deepfakes auf die Demokratie groß. Experten warnten bereits vor der Manipulation der öffentlichen Meinung durch diese ausgeklügelten Technologien. Sie ermöglichen es, das Vertrauen in Institutionen ohne großen Aufwand zu untergraben und Wahlprozesse zu sabotieren. BeInCrypto berichtete bereits über diese und weitere Risiken.
Auch das traditionelle Finanzwesen läuft Gefahr, durch die neuen Programme in Mitleidenschaft gezogen zu werden. Doch innovative Ansätze, wie die Blockchain-Technologie, könnten dabei helfen, den Wahrheitsgehalt von Fotos und Videos zu bewerten.
Folge uns für noch mehr Informationen rund um Krypto auf:
Twitter oder tritt unserer Gruppe auf Telegram bei.
Haftungsausschluss
In Übereinstimmung mit den Richtlinien des Trust Project verpflichtet sich BeInCrypto zu einer unvoreingenommenen, transparenten Berichterstattung. Dieser Artikel zielt darauf ab, genaue und aktuelle Informationen zu liefern. Den Lesern wird jedoch empfohlen, die Fakten unabhängig zu überprüfen und einen Fachmann zu konsultieren, bevor sie auf der Grundlage dieses Inhalts Entscheidungen treffen.