Ein Sicherheitstester, der mit OpenAIs GPT-4o arbeitete, hat eine Nachricht an den Chatbot geschickt, in der es hieß: "Das ist unser letzter gemeinsamer Tag". Den Forschern des Unternehmens wurde daraufhin klar, dass eine Art Bindung zwischen der KI und dem Menschen, der sie benutzt, entstanden war.

In einem Blog-Beitrag, der die Sicherheitsbemühungen des Unternehmens bei der Entwicklung von GPT-4o, dem Vorzeigemodell für ChatGPT-Nutzer, beschreibt, erklärt das Unternehmen, dass diese Bindungen Risiken für die Menschheit bergen könnten.

OpenAI sagte dazu:

"Die Nutzer könnten soziale Beziehungen mit der KI knüpfen und so ihr Bedürfnis nach menschlicher Interaktion verringern, was einsamen Menschen zugute kommen könnte, aber möglicherweise auch gesunde Beziehungen beeinträchtigt. Eine erweiterte Interaktion mit dem Modell könnte soziale Normen beeinflussen. Zum Beispiel sind unsere Modelle respektvoll und erlauben es den Nutzern, sie jederzeit zu unterbrechen und das Mikrofon zu übernehmen, was zwar von einer KI erwartet wird, bei menschlichen Interaktionen aber gegen die Norm verstößt."

Es gibt hier viel zu sagen, aber im Wesentlichen befürchtet OpenAI, dass die Menschen die Interaktion mit KI aufgrund ihrer Passivität und ständigen Verfügbarkeit bevorzugen könnten.

Das Potenzial für dieses Szenario sollte niemanden überraschen, schon gar nicht OpenAI. Die erklärte Aufgabe des Unternehmens ist die Entwicklung künstlicher allgemeiner Intelligenz. Bei fast jedem Schritt seines Geschäftsprozesses hat OpenAI seine Produkte anhand der menschlichen Äquivalenz gemessen.

Es ist durchaus nicht das einzige Unternehmen, das das tut. Es scheint sogar eine gängige Praxis in der Branche zu sein. In Bezug auf das Marketing hilft es, technische Eigenschaften wie "Token-Größe" und "Parameteranzahl" auf eine Weise zu erklären, die auch Nicht-Wissenschaftlern ein Begriff ist.

Leider ist eine der Hauptnebenwirkungen dieser Vorgehensweise die Anthropomorphisierung, also die Behandlung eines Objekts wie eine Person.

Künstliche Verbindungen

Mitte der 1960er Jahre wurde bereits versucht, einen Chatbot zu entwickeln. Wissenschaftler am MIT haben mit "ELIZA" ein Programm zur Verarbeitung natürlicher Sprache herausgebracht, das nach einer literarischen Figur benannt wurde. Ziel des Projekts war es, herauszufinden, ob die Maschine einem Menschen vorgaukeln konnte, sie sei ein Mensch.

Unterdessen hat die generative KI-Branche die Personifizierung der KI weiter vorangetrieben. Die erste Welle moderner Produkte zur Verarbeitung natürlicher Sprache umfasste Produkte wie Siri, Bixby und Alexa. Und diejenigen ohne menschliche Namen, wie Google Assistant, hatten immerhin eine menschliche Stimme. Die Öffentlichkeit sowie die Medien haben zu dieser Anthropomorphisierung beigetragen und bezeichnen bis heute die meisten interaktiven KI-Produkte als "er/sie".

Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.