Meta, der Mutterkonzern von Facebook und Instagram, hat seine Strategie zur Bekämpfung des Missbrauchs von generativer künstlicher Intelligenz (KI) dargelegt, um die Integrität der Wahlen auf seinen Plattformen im Vorfeld der Wahlen zum Europäischen Parlament im Juni 2024 zu gewährleisten.

In einem Blog Post am 25. Februar sagte Metas Leiter für EU-Angelegenheiten Marco Pancini, dass die Prinzipien hinter den "Community Standards" und "Ad Standards" der Plattform auch für KI-generierte Inhalte gelten werden.

"KI-generierte Inhalte können auch von unseren unabhängigen Fact-Checking-Partnern überprüft und bewertet werden", erklärte er, wobei eine der Bewertungen zeigen soll, ob der Inhalt "verändert" wurde, d.h. "gefälschte, manipulierte oder umgewandelte Audio-, Video- oder Fotodateien" vorhanden sind.

Die Richtlinien der Plattform verlangen bereits jetzt schon, dass fotorealistische Bilder, die mit den KI-Tools von Meta erstellt wurden, als solche gekennzeichnet werden.

Diese Ankündigung zeigt, dass Meta auch neue Funktionen zur Kennzeichnung von KI-Inhalten entwickelt, die von anderen Tools wie Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock erstellt wurden und von Nutzern auf einer der Plattformen eingestellt werden.

Außerdem plant Meta, eine Funktion hinzuzufügen, mit der Nutzer angeben können, wann sie ein KI-generiertes Video oder Audio geteilt haben, damit es markiert und gekennzeichnet wird. Tun sie das nicht, drohen Strafen.

Werbetreibende, die politische, soziale oder wahlbezogene Anzeigen schalten, die mit Hilfe von KI verändert oder erstellt wurden, müssen den Einsatz dieser Technologie ebenfalls offenlegen. In dem Blogbeitrag heißt es, dass Meta zwischen Juli und Dezember 2023 430.000 Anzeigen in der Europäischen Union entfernt habe, weil sie keinen Hinweis enthielten.

Dieses Thema wird immer wichtiger, da im Jahr 2024 auf der ganzen Welt wichtige Wahlen stattfinden. Vor diesem kürzlichen Update haben sich Meta und Google zu Regeln bezüglich KI-generierter politischer Werbung auf ihren Plattformen geäußert.

Am 19. Dezember 2023 erklärte Google, es werde die Beantwortung von Wahlanfragen auf seinem KI-Chatbot Gemini, der damals noch Bard hieß, und seiner generativen Suchfunktion im Vorfeld der Präsidentschaftswahlen 2024 in den Vereinigten Staaten einschränken.

OpenAI, der Entwickler des KI-Chatbots ChatGPT, hat ebenfalls versucht, die Sorge vor einer Einmischung der KI in globale Wahlen zu zerstreuen, indem er interne Standards zur Überwachung der Aktivitäten auf seinen Plattformen geschaffen hat.

Am 17. Februar haben 20 Unternehmen, darunter Microsoft, Google, Anthropic, Meta, OpenAI, Stability AI und X, eine Verpflichtung zur Eindämmung der Einmischung von KI in Wahlen unterzeichnet und damit die potenzielle Gefahr der Situation anerkannt, wenn sie nicht kontrolliert wird.

Regierungen auf der ganzen Welt haben ebenfalls Maßnahmen ergriffen, um den Missbrauch von KI im Vorfeld von Kommunalwahlen zu bekämpfen. Die Europäische Kommission hat eine öffentliche Konsultation zu vorgeschlagenen Leitlinien für die Sicherheit von Wahlen lanciert, um demokratische Bedrohungen durch generative KI und Deepfakes zu verringern.

In den USA wurden KI-generierte Stimmen in automatisierten Telefonbetrügereien verboten und für illegal erklärt, nachdem solche bei betrügerischen Robocalls eingesetzt wurden. Damals kam ein Deepfake von Präsident Joe Biden in Umlauf und führte die Öffentlichkeit in die Irre.

Melde dich bei unseren Sozialen Medien an, um nichts zu verpassen: X, YouTube, Instagram und Telegram – aktuelle Nachrichten, Analysen, Expertenmeinungen und Interviews mit Fokus auf die DACH-Region.