Paolo Ardoino, CEO der Blockchain-Plattform Tether, behauptet, dass nur lokalisierte KI-Modelle Menschen und die Privatsphäre schützen.

Ardoino sagte, dass lokal ausführbare KI-Modelle auch die Widerstandsfähigkeit und Unabhängigkeit der Modelle gewährleisten würden.

Quelle: Paolo Ardoino

Er wies auf die neuesten Technologien hin, die den Nutzern zur Verfügung stehen, wie z. B. Smartphones und Laptops, und sagte, dass diese über genügend Leistung verfügen, um "allgemeine große Sprachmodelle (LLMs) mit den eigenen Daten des Nutzers fein abzustimmen, wobei Verbesserungen lokal auf dem Gerät erhalten bleiben".

Der X-Post endete mit "WIP", einem üblichen Akronym für "Work in progress", also "Wir arbeiten daran".

Im Gespräch mit Cointelegraph sagte Ardoino, dass lokal ausführbare KI-Modelle einen "Paradigmenwechsel" in Bezug auf den Datenschutz und die Unabhängigkeit der Nutzer darstellen würden:

"Da diese Modelle direkt auf dem Gerät des Nutzers, sei es ein Smartphone oder ein Laptop, ausgeführt werden, entfällt die Notwendigkeit von Servern Dritter. Das stellt nicht nur sicher, dass die Daten lokal bleiben, was die Sicherheit und den Datenschutz verbessert, sondern ermöglicht auch eine Offline-Nutzung.

Er sagte, dass Nutzer so "leistungsstarke KI-gesteuerte Erfahrungen und Datenanalysen" genießen und gleichzeitig die vollständige Kontrolle über ihre Informationen behalten können.

Tether hat vor kurzem seine Expansion in den KI-Bereich angekündigt, woraufhin Ardoino sagte, dass das Unternehmen die Integration von lokal ausführbaren Modellen in seine KI-Lösungen "aktiv erforscht".

Das ist eine Reaktion auf einen kürzlichen Hack, den der ChatGPT-Entwickler OpenAI erlebt hat.

Berichten zufolge verschaffte sich ein Hacker Anfang 2023 Zugang zu den internen Nachrichtensystemen von OpenAI. Durch diesen Zugang konnten sie die Details des KI-Designs des Unternehmens kompromittieren.

Zwei Quellen aus dem Umfeld der Firma sagten, dass der Hacker Details aus sensiblen Diskussionen zwischen OpenAI-Mitarbeitern über die Technologien des Unternehmens gestohlen hat.

Außerdem wurden die Nutzer von ChatGPT aufgeschreckt, als sich herausstellte, dass die Unterhaltungen von macOS-Nutzern nicht verschlüsselt, sondern in Klartextdateien gespeichert waren.

Kurz zuvor hat Apple angekündigt, ChatGPT in seine neue "Apple Intelligence"-Reihe von KI-gestützten Produkten und Diensten integrieren zu wollen.

Das Problem wurde Berichten zufolge bereits behoben, obwohl sich die Community immer noch fragt, warum es überhaupt dazu kam. Einige Hypothesen lauteten, dass es für OpenAI ein Leichtes gewesen wäre, auf die Chatprotokolle zuzugreifen, um ChatGPT weiterzuentwickeln und zu trainieren.

OpenAI ist neben Google, Meta und Microsoft einer der wichtigsten KI-Entwickler, der derzeit hochentwickelte KI-Modelle herausbringt. Branchenanalysten und sogar Regierungen auf der ganzen Welt sind besorgt darüber, was ein Monopol von großen Tech-Unternehmen über KI-Modelle für die Nutzer in Bezug auf Datenschutz und Datenkontrolle bedeuten könnte.

Viele haben sogar eine Dezentralisierung von KI gefordert. Initiativen wie 6079 wollen dabei die Dominanz von Big Tech in der KI-Industrie einschränken, um für eine gerechtere Zukunft zu sorgen.

Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.