Große Technologieunternehmen verpflichten sich zum Schutz vor KI-Manipulation bei Wahlen

Kategorie
Technologie und Sicherheit

Keywords
KI-Manipulation, Deepfakes, Wahlen, Technologieunternehmen, Sicherheitskonferenz

Jahr
2024

Am Freitag unterzeichneten führende Technologieunternehmen eine Vereinbarung, um freiwillig “angemessene Vorsichtsmaßnahmen” zu ergreifen, um zu verhindern, dass KI-Tools dazu verwendet werden, demokratische Wahlen weltweit zu stören.

Führungskräfte von Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI und TikTok versammelten sich auf der Münchner Sicherheitskonferenz, um einen neuen Rahmen dafür zu verkünden, wie sie auf KI-generierte Deepfakes reagieren werden, die Wähler absichtlich täuschen. Zwölf weitere Unternehmen, darunter auch Elon Musks X, unterzeichnen das Abkommen.

Die Unternehmen verpflichten sich nicht dazu, Deepfakes zu verbieten oder zu entfernen. Stattdessen skizziert das Abkommen die Methoden, die sie verwenden werden, um betrügerische KI-Inhalte zu erkennen und zu kennzeichnen, wenn sie auf ihren Plattformen erstellt oder verbreitet werden. Es wird darauf hingewiesen, dass die Unternehmen bewährte Verfahren miteinander teilen und “schnelle und angemessene Reaktionen” bieten werden, wenn solcher Inhalt zu verbreiten beginnt.

Versuche der KI-generierten Wahlbeeinflussung haben bereits begonnen, wie etwa KI-Robocalls, die die Stimme des US-Präsidenten Joe Biden imitierten und versuchten, Menschen von der Teilnahme an den Vorwahlen in New Hampshire des letzten Monats abzuhalten.

Tage vor den Wahlen in der Slowakei im November imitierten KI-generierte Audioaufnahmen einen Kandidaten, der über Pläne sprach, die Bierpreise zu erhöhen und die Wahl zu manipulieren. Faktenprüfer eilten, um sie als falsch zu identifizieren, als sie sich in sozialen Medien verbreiteten.

Auch Politiker haben mit der Technologie experimentiert, von der Verwendung von KI-Chatbots zur Kommunikation mit Wählern bis hin zur Hinzufügung von KI-generierten Bildern zu Anzeigen.

Die Vereinbarung ruft die Plattformen dazu auf, “auf den Kontext zu achten und insbesondere die Bildung, Dokumentation, Kunst, Satire und politischen Ausdruck zu schützen”.

Sie besagt, dass sich die Unternehmen auf Transparenz gegenüber den Benutzern bezüglich ihrer Richtlinien konzentrieren und daran arbeiten werden, die Öffentlichkeit darüber aufzuklären, wie sie vermeiden können, auf KI-Fälschungen hereinzufallen.

Die meisten Unternehmen haben zuvor erklärt, dass sie Sicherheitsvorkehrungen für ihre eigenen generativen KI-Tools treffen, die Bilder und Töne manipulieren können, und gleichzeitig daran arbeiten, KI-generierte Inhalte zu identifizieren und zu kennzeichnen, damit Social-Media-Benutzer wissen, ob das, was sie sehen, real ist. Die meisten dieser vorgeschlagenen Lösungen wurden jedoch noch nicht umgesetzt, und die Unternehmen stehen unter Druck, mehr zu tun.

Die Bundeskommunikationskommission hat kürzlich bestätigt, dass KI-generierte Audio-Clips in Robocalls gegen das Gesetz verstoßen, aber das deckt keine Audio-Deepfakes ab, wenn sie in sozialen Medien oder in Wahlwerbespots zirkulieren.

Neben den Unternehmen, die die Vereinbarung am Freitag ausgehandelt haben, haben sich weitere Unterzeichner verpflichtet, darunter die Chatbot-Entwickler Anthropic und Inflection AI; das Voice-Clone-Startup ElevenLabs; der Chip-Designer Arm Holdings; die Sicherheitsunternehmen McAfee und TrendMicro; und Stability AI, bekannt für den Bildgenerator Stable Diffusion.

Weitere Artikel

Google’s Treibhausgasemissionen steigen dank KI

New York (CNN) – Während Google eifrig daran arbeitet, künstliche Intelligenz in seine Kernprodukte zu integrieren – mit teilweise weniger als beeindruckenden Ergebnissen – braut sich hinter den Kulissen ein Problem zusammen: Die Systeme, die zur Unterstützung der KI-Tools erforderlich sind, haben die Treibhausgasemissionen des Unternehmens erheblich erhöht.

Weiterlesen