Künstliche Intelligenz wird nie ein bewusstes Wesen werden, da es ihr am Willen mangelt, der dem Menschen und anderen biologischen Lebewesen innewohnt, so Sandeep Nailwal, Mitbegründer von Polygon und dem Open-Source-KI-Unternehmen Sentient.

"Ich kann mir nicht vorstellen, dass KI ein nennenswertes Maß an Bewusstsein haben wird", so Nailwal in einem Interview mit Cointelegraph. Er fügte hinzu, dass er das Weltuntergangsszenario, in dem KI selbstbewusst wird und die Menschheit übernimmt, nicht für möglich hält.

Die Führungskraft kritisierte die Theorie, dass das Bewusstsein zufällig durch komplexe chemische Interaktionen oder Prozesse entsteht, und sagte, dass diese Prozesse zwar komplexe Zellen, aber kein Bewusstsein erzeugen können.

Stattdessen befürchtet Nailwal, dass zentralisierte Institutionen künstliche Intelligenz für Überwachungszwecke missbrauchen und die individuellen Freiheiten beschneiden werden, weshalb KI transparent und demokratisiert sein muss. Nailwal sagte:

"Das ist mein Kerngedanke, wie ich auf die Idee von Sentient gekommen bin, dass die globale KI, die tatsächlich eine grenzenlose Welt schaffen kann, letztendlich eine KI sein sollte, die von jedem Menschen kontrolliert wird."

Die Führungskraft fügte hinzu, dass diese zentralisierten Bedrohungen der Grund sind, warum jeder Einzelne eine maßgeschneiderte KI braucht, die in seinem Namen arbeitet und ihm gegenüber loyal ist, um sich vor anderen KIs zu schützen, die von mächtigen Institutionen eingesetzt werden.

Supercomputer

Sentients offenes Modell für KI im Vergleich zum undurchsichtigen Ansatz zentralisierter Plattformen. Quelle: Sentient Whitepaper

Dezentralisierte KI kann Katastrophen noch vor Eintritt verhindern

Im Oktober 2024 veröffentlichte das KI-Unternehmen Anthropic ein Papier mit Szenarien, in denen KI die Menschheit sabotieren könnte. Auch mögliche Lösungen für dieses Problem werden aufgezeigt.

Letztendlich kommt das Papier zu dem Schluss, dass KI keine unmittelbare Bedrohung für die Menschheit darstelle, aber in Zukunft gefährlich werden könnte, wenn die KI-Modelle weiter fortgeschritten sind.

Supercomputer

Verschiedene Arten möglicher KI-Sabotage-Szenarien, die in dem Anthropic-Papier beschrieben werden. Quelle: Anthropic

David Holtzman, ein ehemaliger Militärgeheimdienstler und Chief Strategy Officer des dezentralen Sicherheitsprotokolls Naoris, sagte gegenüber Cointelegraph, dass KI in naher Zukunft ein massives Risiko für die Privatsphäre darstellt.

Wie Nailwal argumentierte auch Holtzman, dass zentralisierte Institutionen, darunter auch der Staat, KI zur Überwachung einsetzen könnten und dass Dezentralisierung ein Bollwerk gegen KI-Bedrohungen sei.

Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.