Adobes Rolle bei der Integrität von Wahlen

Neue wie vielversprechende Möglichkeiten von künstlicher Intelligenz liegen vor uns. Wir bei Adobe sind davon überzeugt, dass KI dazu beitragen kann, Kreativität zu steigern, zu demokratisieren und die Art und Weise, wie wir arbeiten und lernen, nachhaltig zu verändern. Mit generativen KI-basierten Modellen wie Adobe Firefly lassen sich erträumte Visionen in die Realität holen.

Doch mit dieser Macht kommt auch große Verantwortung. Wir alle haben schon erleben müssen, wie sich KI-Fälschungen von Bildern, Audio- und Videodateien heimtückisch in unseren Alltag eingeschlichen haben. Ob sie dazu benutzt werden, eine*n Kandidat*in bei einer Wahl zu verunglimpfen, einen ausgeklügelten Finanzbetrug zu begehen oder absichtlich negative Emotionen hervorzurufen - missgünstige Akteur*innen finden immer wieder Wege, unser Vertrauen in Bezug auf Inhalte, die wir online sehen und hören, zu beeinträchtigen.

Die Folgen für die Demokratie sind tiefgreifend. Wie wir unlängst bei der Verwendung von KI-generierten Audiodateien von Präsident Biden gesehen haben, die Wähler*innen in New Hampshire von den Wahllokalen wegzulocken versuchten, können selbst schlechte digitale Fälschungen maßgebliche Verwirrung stiften. Und die Gefahr von Deepfakes besteht nicht nur in der Täuschung, sondern auch in den Zweifeln, die sie als Folge hervorrufen. Das Vertrauen in Inhalte, die wir digital sehen und hören, schwindet dadurch enorm. Im Jahr 2024, in dem über vier Milliarden Menschen an mehr als 40 Wahlen weltweit teilnehmen werden, sind Fakten wichtiger denn je. Das Vertrauen in digitale Inhalte muss wiederhergestellt werden.

Ich freue mich deshalb sehr, heute zu verkünden, dass Adobe zusammen mit gleichgesinnten Unternehmen am Tech Accord to Combat Deceptive Use of AI in 2024 Elections teilnimmt und sich den Unterzeichnern wie Google, Microsoft, Meta, TikTok, OpenAI, IBM, Amazon und Anthropic neben anderen anschließt. Diese Unternehmen haben sich heute in München dazu verpflichtet, konkrete und unmittelbare Schritte zur Stärkung der Integrität von Wahlen durchzuführen. Mit dieser Gruppe von Teilnehmern und den vielen Stakeholdern aus Regierung und Zivilgesellschaft sind wir optimistisch, dass wir den Menschen einen kritischen Kontext gegenüber digitalen Inhalten eröffnen, um so das Vertrauen in diese Inhalte wieder zu stärken.

Hier bei Adobe freuen wir uns besonders über das gemeinsame Engagement für die Entwicklung und Umsetzung technologischer Lösungen wie Provenienz, Wasserzeichen und Klassifikatoren zur Kennzeichnung und Bereitstellung von Metadaten für KI-generierte Inhalte. Transparenz schafft Vertrauen, und der Aufbau einer durchgängigen Kette der Inhaltsauthentizität wird dazu beitragen, die Macht missgünstiger Akteur*innen bei der Manipulation von Inhalten einzuschränken. Die Öffentlichkeit wird eine nachprüfbare Möglichkeit haben, Fakten von Fiktion zu unterscheiden, wenn wir Werkzeuge bereitstellen, die uns dabei helfen zu beweisen, was wahr ist.

Darüber hinaus unterstützen wir auch die Verpflichtung des Abkommens, die Öffentlichkeit durch Aufklärungskampagnen über die Risiken von Deepfakes und die Möglichkeiten, sich zu schützen, aufzuzeigen – ein wichtiger Schritt, den wir alle gemeinsam gehen müssen. Der wesentlichste Beitrag, den wir sofort leisten können, um die Gefahren von Deepfakes einzudämmen, liegt in der Aufklärung in den Medien. Die Öffentlichkeit muss dafür sensibilisiert werden, nicht allem zu trauen, was im Web publiziert wird.

Diese Vereinbarung baut auf jahrelanger Arbeit auf, die Adobes Engagement für verantwortungsvolle Innovation widerspiegelt. Als weltweit führender Anbieter von Tools zur Erstellung digitaler Medieninhalte haben wir uns schon lange vor dem Aufkommen von Deepfakes im Internet intensiv mit den Gefahren der Manipulation von Medien durch betrügerische Akteur*innen beschäftigt. Im Jahr 2019 haben wir die Content Authenticity Initiative gegründet, um Technologie, Medien, NGOs, Wissenschaftler*innen und andere zusammenzubringen, mit dem Ziel, eine auf Transparenz und Herkunft basierende Lösung zu entwickeln und zu vereinbaren. Gemeinsam mit einer Gruppe gleichgesinnter Unternehmen haben wir außerdem die Coalition for Content Provenance and Authenticity (C2PA) gegründet, das Normungsgremium hinter der offenen technischen Spezifikation für Content Provenance, den Content Credentials. Content Credentials haben sich schnell zum Industriestandard für die Implementierung der Provenienz als Nährwertkennzeichnung für digitale Inhalte entwickelt. Erst diesen Monat haben OpenAI, Meta und Google verkündet, dass sie den C2PA-Standard übernehmen werden, um die Kennzeichnung von KI-generierten Inhalten auf ihren Plattformen und die Provenance-Bemühungen zu unterstützen.

Die Vereinbarung setzt einen neuen Maßstab für die umfassenden und globalen Bemühungen zur Bekämpfung von Desinformation. Wir müssen uns gemeinsam dafür engagieren, damit wir das Versprechen und Potenzial von KI erfolgreich nutzen können.