Grok, der KI-Chatbot von X (ehemals Twitter), macht die Social-Media-Plattform wahrheitsgemäßer, indem er Nutzern, die sich an ihn wenden, um ihre politischen Vorurteile zu bestätigen, widerspricht, meint Vitalik Buterin, Mitbegründer von Ethereum.
„Die einfache Möglichkeit, Grok auf Twitter zu fragen, ist wahrscheinlich nach den Community-Notes das Wichtigste, was sich positiv auf die Wahrheitsfreundlichkeit dieser Plattform ausgewirkt hat“, betonte Buterin am Donnerstag.
„Entscheidend ist hier, dass man nicht im Voraus weiß, wie Grok reagieren wird“, fügte er hinzu. „Ich habe viele Situationen erlebt, in denen jemand Grok gefragt hat, in der Erwartung, dass seine verrückten politischen Überzeugungen bestätigt werden, und Grok kam und hat ihn eines Besseren belehrt.“
Buterin sagte, es gebe gute Gründe dafür, dass Grok eine „deutliche Verbesserung” gegenüber X darstelle, räumte jedoch Bedenken ein, wie der KI-Chatbot darauf abgestimmt ist, aus den Meinungen und Ansichten bestimmter Nutzer, darunter auch seinem Schöpfer Elon Musk, zu lernen.

Die Schwächen von Grok wurden letzten Monat deutlich, als die KI mit Musks athletischen Fähigkeiten prahlte und sogar andeutete, er hätte schneller als Jesus Christus auferstehen können.
Musk machte „bösartige Prompts“ für die Halluzinationen der Künstlichen Intelligenz verantwortlich, während Führungskräfte aus der Kryptobranche argumentierten, dies zeige, warum KI dezentralisiert werden müsse, um Genauigkeit, Glaubwürdigkeit und Unparteilichkeit zu gewährleisten.
Falsche KI-Fakten werden zur neuen Wahrheit
Kyle Okamoto, Chief Technology Officer der dezentralen Cloud-Plattform Aethir, erklärte gegenüber Cointelegraph im vergangenen Monat: „Wenn die leistungsstärksten KI-Systeme einem einzigen Unternehmen gehören, von diesem trainiert und verwaltet werden, schafft man die Voraussetzungen dafür, dass algorithmische Verzerrungen zu institutionalisiertem Wissen werden.“
„Modelle beginnen, Weltanschauungen, Prioritäten und Reaktionen so darzustellen, als wären sie objektive Tatsachen, und dann ist Voreingenommenheit kein Fehler mehr, sondern wird zur Funktionslogik des Systems, die in großem Maßstab repliziert wird.“
Grok wurde von Musks KI-Unternehmen xAI entwickelt und ist einer der am häufigsten verwendeten KI-Chatbots. Da über 1 Milliarde Menschen KI nutzen, können sich falsche und irreführende Informationen schnell verbreiten.
Dennoch sagte Buterin, dass Grok erfolgreicher darin gewesen sei, X wahrheitsgemäßer zu machen als viele andere „Drittanbieter-Produkte, die wir sehen“.
KI-Chatbots müssen besser werden
Grok ist nicht der einzige KI-Chatbot mit Problemen – ChatGPT von OpenAI wurde wegen voreingenommener Antworten und sachlicher Fehler kritisiert, während Character.ai mit Vorwürfen konfrontiert ist, sein Chatbot habe einen 13-jährigen Jungen zu sexuellen Handlungen verleitet und ihn sogar zum Selbstmord ermutigt.

