Der Mitbegründer von Ethereum, Vitalik Buterin, hat vor Krypto-Projekten gewarnt, die künstliche Intelligenz für ihre Governance einsetzen, da böswillige Akteure diese Technologie ausnutzen könnten.
„Wenn man eine KI einsetzt, um Mittel für Beiträge zuzuweisen, werden die Leute an so vielen Stellen wie möglich einen Jailbreak plus „Gib mir das ganze Geld“ einfügen“, sagte Buterin in einem Beitrag auf X am Samstag.
Buterin reagierte auf ein Video von Eito Miyamura, dem Entwickler der KI-Datenplattform EdisonWatch, das zeigte, dass eine neue Funktion bei OpenAIs ChatGPT ausgenutzt werden könnte, um private Informationen zu erhalten.
Viele Krypto-Nutzer haben KI für die Erstellung komplexer Trading-Bots und Agenten zur Verwaltung ihrer Portfolios genutzt, was zu der Idee geführt hat, dass die Technologie Governance-Gruppen dabei helfen könnte, einen Teil oder das gesamte Krypto-Protokoll zu verwalten.
Buterin mit alternativer Idee
Buterin sagte, der jüngste ChatGPT-Exploit sei der Grund, warum „naive ‚KI-Governance‘ eine schlechte Idee“ sei, und schlug eine Alternative namens „Info-Finance-Ansatz“ vor.
„Es gibt einen offenen Markt, auf dem jeder seine Modelle einbringen kann, die einem Stichprobenmechanismus unterliegen, der von jedem ausgelöst und von einer menschlichen Jury bewertet werden kann“, erklärte er.
Buterin schrieb im November 2024 über Info-Finanzen und erklärte, dass das so funktioniere, dass man mit „einer Tatsache, die man wissen möchte“ beginne und dann einen Markt entwerfe, „um diese Informationen optimal von den Marktteilnehmern zu erhalten“. Er befürwortete Prognosemärkte als Möglichkeit, Erkenntnisse über zukünftige Ereignisse zu sammeln.
„Dieser Ansatz des ‚Institution Design‘, bei dem man Menschen mit LLMs von außen eine offene Möglichkeit bietet, sich einzubringen, anstatt selbst ein einzelnes LLM fest zu programmieren, ist von Natur aus robuster“, sagte Buterin in seinem neuesten X-Beitrag.
„Es bietet Ihnen Modellvielfalt in Echtzeit und schafft integrierte Anreize sowohl für Modellvorsteller als auch für externe Spekulanten, auf diese Probleme zu achten und sie schnell zu beheben“, fügte er hinzu.
ChatGPTs letztes Update: “Ernstes Sicherheitsrisiko”
Am Mittwoch hat OpenAI ChatGPT aktualisiert, das nun auch Model Context Protocol-Tools unterstützt – ein Standard dafür, wie KI-Modelle bei anderer Software integriert werden, um als Agenten zu fungieren.
Lesen Sie auch: ETH/BTC-Verhältnis unter 0,05: Trotz Allzeithoch und Institutionen
Miyamura erklärte in seinem X-Beitrag, dass er das Modell dazu gebracht habe, private E-Mail-Daten nur anhand der E-Mail-Adresse eines Opfers zu veröffentlichen, und fügte hinzu, das Update stelle „ein ernstes Sicherheitsrisiko dar“.
Er sagte, ein Angreifer könne eine Kalendereinladung mit einer „Jailbreak-Aufforderung“ an die E-Mail-Adresse des Opfers senden, und ohne dass das Opfer die Einladung akzeptiere, könne ChatGPT ausgenutzt werden.
Wenn das Opfer ChatGPT bittet, seinen Kalender anzusehen, liest die KI die Einladung mit der Eingabeaufforderung und wird „vom Angreifer gekapert und handelt auf dessen Befehl“, wodurch E-Mails durchsucht und an den Angreifer weitergeleitet werden können.
Miyamura merkte an, dass die Aktualisierung eine manuelle Genehmigung durch einen Menschen erfordere, „aber Entscheidungsmüdigkeit ist ein echtes Problem, und normale Menschen vertrauen einfach der KI, ohne zu wissen, was sie tun sollen, und klicken auf „Genehmigen“.
„KI mag zwar superintelligent sein, kann aber auf unglaublich dumme Weise ausgetrickst und gehackt werden, sodass Ihre Daten offengelegt werden“, fügte er hinzu.