Mehr als 2.600 führende Köpfe und Forscher aus der Techbranche haben gemeinsam einen offenen Brief geschrieben, in dem sie einen vorübergehenden Stopp für die Weiterentwicklung Künstlicher Intelligenz (KI) fordern, da sie in dieser „grundlegende Risiken für Gesellschaft und Menschheit“ sehen.

Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak sowie eine Vielzahl von Managern und Wissenschaftlern aus dem Bereich KI gehören zu den Unterzeichnern des offenen Briefes, der am 22. März vom amerikanischen Thinktank Future of Life Institute (FOLI) veröffentlicht wurde.

Darin fordert das Institut KI-Unternehmen zu einem „sofortigen Stopp“ der Weiterentwicklung von KI-Systemen, die fortgeschrittener sind als ChatGPT-4, für mindestens sechs Monate auf. Hintergrund für diese Forderung sind Bedenken, dass „eine menschenähnliche Intelligenz grundlegende Risiken für Gesellschaft und Menschheit“ darstellen.

„Fortgeschrittene KI könnte einen grundlegenden Wandel in der Geschichte der Menschheit bedeuten, der sorgfältig geplant und mit Bedacht umgesetzt werden sollte. Leider werden Planung und Umsetzung bisher noch nicht dementsprechend gehandhabt“, so der Brief weiter.

GPT-4 ist die aktuelle Version des KI-Chatbots der Firma OpenAI, die am 14. März veröffentlicht wurde. Die Künstliche Intelligenz hatte zuletzt damit für Aufsehen gesorgt, dass sie einige der anspruchsvollsten Tests im amerikanischen Prüfungssystem innerhalb der besten 90 % bestehen kann. Die neue Version soll dabei um das 10-Fache stärker sein als das erste Modell von ChatGPT.

Zwischen den KI-Unternehmen gibt es derweil ein „unkontrolliertes Wettrennen“ um die Entwicklung der besten Künstlichen Intelligenz, wobei noch nicht mal deren Entwickler genau abschätzen können, wo die Reise hingeht, wie das FOLI argumentiert.

Daraus ergeben sich unter anderem Sorgen, dass die Maschinen Informationskanäle womöglich mit „Propaganda und Unwahrheiten“ fluten und Arbeitsplätze per Automatisierung im großen Stil vernichten könnten.

FOLI geht sogar noch einen Schritt weiter und stellt die wirtschaftlichen Bestrebungen der KI-Entwicklung allgemein als existenzielle Bedrohung in Frage:

„Sollten wir wirklich nicht-menschliche Intelligenzen entwickeln, die uns irgendwann voraus sind, überflüssig machen und ersetzen könnten? Sollten wir es wirklich riskieren, dass wir die Kontrolle über unsere Zivilisation verlieren?“

„Derartige Fragen dürfen nicht an führende Köpfe der Techbranche delegiert werden, die nicht demokratisch gewählt wurden“, wie der Brief dahingehend ergänzt.

In diesem Kontext stimmt das Institut einem jüngsten Statement von OpenAI-Gründer Sam Altman zu, der angeregt hatte, dass es zukünftig unabhängige Prüfungen geben sollte, ehe KI-Systeme in eine bestimmte Richtung trainiert werden.

Altman hatte am 24. Februar in seinem persönlichen Blog gewarnt, dass es bald Artificial General Intelligence (AGI) und Artificial Superintelligence (ASI) geben könnte, die in einer großen Bandbreite an Feldern befähigt sind und womöglich ein schier unüberschaubares Allgemeinwissen haben.

Allerdings stimmen nicht alle Köpfe aus der KI-Branche in diesen Tenor mit ein, so zum Beispiel Ben Goertzel, der CEO von SingularityNET, der in einer Twitter-Antwort auf Gary Marcus, Autor von Rebooting.AI, am 29. März argumentiert hat, dass Language Learning Models (LLM) wie ChatGPT nicht zu AGIs werden können. So würde es ohnehin erst sehr wenige Künstliche Intelligenzen der letzteren Sorte geben.

Aus diesem Grund hält er einen vorübergehenden Stopp eher in anderen Feldern für angebracht, so zum Beispiel bei der Entwicklung von Atomwaffen und Biowaffen:

Eine weitere Sparte, in der KI-Systeme wie ChatGPT für Aufsehen sorgen sind sogenannte Deep-Fakes, bei denen überzeugende Fälschungen von Video- und Aufnahmen hergestellt werden. Mit dieser Technologie wird auch KI-generierte Kunst erzeugt, die womöglich jedoch in großem Maße gegen geltendes Kopierrecht verstößt.

Mike Novogratz, der CEO von Galaxy Digital, zeigt sich derweil erstaunt, dass die Kryptobranche zuletzt ziemlich heftigen Druck seitens der Regulierungsbehörden zu spüren bekommen hat, während der KI-Sektor noch immer nahezu unbehelligt bleibt.

„Wenn ich an KI denke, dann bin ich geschockt, dass wir so viel über Krypto-Regulierung reden, aber nicht über KI-Regulierung. Ich finde, dass die Regierung ihre Prioritäten völlig verdreht hat“, wie der Chef der einflussreichen Krypto-Investmentfirma am 28. März einwirft.

Das FOLI ist abschließend der Auffassung, dass ein Entwicklungsstopp möglichst schnell durchgesetzt werden sollte, und dass notfalls Regierung und Parlament eine derartige Zwangspause verhängen müssten.

„Ein derartiger Stopp sollten öffentlich besprochen und nachvollziehbar sein sowie alle wichtigen Player umfassen. Falls eine solche Pause nicht schnell durchgesetzt werden kann, sollte die Regierung ein dahingehendes Moratorium verhängen“, so der offene Brief.