Der Europäische Datenschutzausschuss (EDSA) hat den ersten Fortschrittsbericht seiner „GPT-Taskforce“ veröffentlicht und die darin enthaltenen Schlussfolgerungen sind nicht gut für ChatGPT.
Die Bemühungen von OpenAI, das firmeneigene KI-Modell ChatGPT mit den Vorschriften der Europäischen Union (EU), einschließlich der umfassenden Datenschutz-Grundverordnung (DSGVO), in Einklang zu bringen, wurden vom EDSA zwar zur Kenntnis genommen, aber letztlich als unzureichend erachtet.
So heißt es in dem EDSA-Dokument:
„Die Maßnahmen, die zur Einhaltung des Transparenzprinzips ergriffen wurden, sind zwar nützlich, um Fehlinterpretationen der Ergebnisse von ChatGPT zu vermeiden, reichen aber nicht aus, um die Anforderungen zu erfüllen.“
Diese Ergebnisse kommen zu einem Zeitpunkt, an dem OpenAI einen Großteil des Jahres 2024 damit verbracht hat, sich mit vorläufigen Anordnungen mehrerer europäischer Mitgliedsstaaten zu befassen.
Wie Cointelegraph bereits im Januar berichtete, stellte zunächst die italienische Datenschutzbehörde fest, dass ChatGPT und OpenAI immer noch gegen italienische und EU-Datenschutzgesetze verstoßen, obwohl sie bereits im März 2023 verwarnt und anschließend mit einem vorläufigen Verbot belegt wurden.
Dem Bericht des EDSA zufolge hat OpenAI in der Zwischenzeit nicht genug getan, um ChatGPT den EU-Gesetzen anzupassen.
Die dahingehende Hauptbeschwerde scheint zu sein, dass ChatGPT dazu neigt, ungenaue Informationen auszugeben.
„In der Tat“, schreibt das EDSA, „führt der derzeitige Trainingsansatz aufgrund der probabilistischen Natur des Systems zu einem Modell, das auch verzerrte oder erfundene Ergebnisse liefern kann“.
Der Bericht bringt des Weiteren die Sorge des EDSA zum Ausdruck, dass „die von ChatGPT gelieferten Ergebnisse von den Endnutzern wahrscheinlich als sachlich richtig angesehen werden“, unabhängig davon, ob sie tatsächlich richtig sind oder nicht.
Es ist derzeit unklar, wie OpenAI ChatGPT in Übereinstimmung mit den Vorschriften bringen könnte. Das GPT-4-Modell zum Beispiel enthält Milliarden von Datenpunkten und etwa eine Billion Parameter. Es wäre für Menschen undurchführbar, den Datensatz zu durchkämmen, um seine Genauigkeit in einem Ausmaß zu überprüfen, das es erlauben würde, ihn als einigermaßen genau im Sinne der Datenschutz-Grundverordnung zu bezeichnen.
Zum Leidwesen von OpenAI schrieb der EDSA jedoch ausdrücklich, dass „insbesondere die technische Unmöglichkeit nicht als Rechtfertigung für die Nichterfüllung dieser Anforderungen angeführt werden kann“.
Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.