AI Unternehmen OpenAI sieht sich mit Vorwürfen wegen verschiedener Verstößen gegen Verschriften und die Datengenauigkeit konfrontiert. Das European Center for Digital Rights (NOYB), mit Sitz in Wien, Österreich, sah sich daher veranlasst, eine Beschwerde bei der österreichischen Datenschutzbehörde (DSG) einzureichen.
In der Tat hat die Datensammlung von OpenAI bei Aufsichtsbehörden und Datenschützern Besorgnis ausgelöst. Dieser Schritt von NOYB könnte eine größere Diskussion über die ethische Nutzung von Daten in der Technologie auslösen.
Du möchtest wissen, welches die besten Krypto Unternehmen zum Investieren sind? Hier kommst du zu einem Artikel von uns!
Die Datenprobleme von OpenAI offenbaren die ethischen Herausforderungen der AI
Der Kern der Beschwerde liegt in den jüngsten Eingeständnissen von OpenAI in Bezug auf die Einschränkungen von ChatGPT bei der Datenverarbeitung. Laut OpenAI ist das AI-Modell nicht in der Lage, die Richtigkeit der Informationen, die es über Personen generiert, zu überprüfen. Darüber hinaus kann es auch die Herkunft seiner Dateneingaben nicht offenlegen.
Inmitten des zunehmenden AI-Hypes, der durch die Einführung von ChatGPT im November 2022 ausgelöst wurde, hat die breite Akzeptanz des Tools kritische Schwachstellen aufgedeckt. ChatGPT funktioniert, indem es wahrscheinliche Antworten auf Benutzeraufforderungen vorhersagt, ohne dass ein inhärenter Mechanismus vorhanden ist, um die sachliche Richtigkeit zu gewährleisten.
Dies hat zu Fällen geführt, in denen die KI Daten “halluziniert” und Antworten fabriziert, die irreführend oder völlig falsch sein können. Während solche Ungenauigkeiten in einigen Zusammenhängen unbedeutend sein können, stellen sie erhebliche Risiken dar, wenn es um personenbezogene Daten geht.
Die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union schreibt die Richtigkeit personenbezogener Daten vor und gewährt Einzelpersonen das Recht, auf unrichtige Informationen über sich selbst zuzugreifen und diese zu berichtigen. Die derzeitigen Fähigkeiten von OpenAI erfüllen diese gesetzlichen Anforderungen nicht und lösen eine Debatte über die ethischen Implikationen von KI im Umgang mit sensiblen Daten aus.
Maartje de Graaf, Datenschutzanwältin bei noyb, betont den Ernst der Lage.
“Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT bei der Verarbeitung von Daten über Einzelpersonen mit EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht verwendet werden, um Daten über Einzelpersonen zu generieren. Die Technologie muss den gesetzlichen Vorgaben folgen, nicht umgekehrt.”
Maartje de Graaf, Datenschutzanwältin bei noyb
Die Probleme erstrecken sich nicht nur auf technische Hürden, sondern auch auf umfassendere regulatorische Herausforderungen. Generative AI-Tools, einschließlich ChatGPT, stehen seit ihrer Einführung unter intensiver Beobachtung durch europäische Datenschutzwächter.
So hat die italienische Datenschutzbehörde Anfang 2023 die Datenverarbeitung durch ChatGPT unter Berufung auf Ungenauigkeiten eingeschränkt.
Darauf folgte eine koordinierte Anstrengung des Europäischen Datenschutzausschusses, um die mit solchen AI-Plattformen verbundenen Risiken zu bewerten und zu mindern .
Besonders bemerkenswert ist der Zeitpunkt dieser rechtlichen Anfechtungen. Gleichzeitig befand sich OpenAI in Gesprächen über eine strategische Allianz mit Worldcoin, einem Projekt, das von Sam Altman, der auch OpenAI leitet, mitbegründet wurde.
Die mögliche Zusammenarbeit von OpenAI mit Worldcoin könnte jedoch zusätzliche Ebenen rechtlicher und ethischer Dilemmata mit sich bringen. Der Ansatz von Worldcoin bei der Verwendung biometrischer Daten überschneidet sich mit den Herausforderungen von OpenAI bei der Gewährleistung des Datenschutzes und der Datengenauigkeit.
Darüber hinaus wurde Worldcoin von Justizbehörden auf der ganzen Welt, darunter Kenia, Spanien und Argentinien, in Bezug auf seine Datenerfassung unter die Lupe genommen. Daher könnte diese Synergie entweder den Weg für innovative Technologieanwendungen ebnen oder einen Präzedenzfall für verstärkte regulatorische Eingriffe schaffen.
Haftungsausschluss
In Übereinstimmung mit den Richtlinien des Trust Project verpflichtet sich BeInCrypto zu einer unvoreingenommenen, transparenten Berichterstattung. Dieser Artikel zielt darauf ab, genaue und aktuelle Informationen zu liefern. Den Lesern wird jedoch empfohlen, die Fakten unabhängig zu überprüfen und einen Fachmann zu konsultieren, bevor sie auf der Grundlage dieses Inhalts Entscheidungen treffen.