Ausblick auf den AI Action Summit: Die Chancen von KI nutzen
Der bevorstehende AI Action Summit in Paris markiert einen entscheidenden Moment für den öffentlichen und privaten Sektor, um gemeinsam einen verantwortungsbewussten und ethischen Ansatz für Artificial Intelligence (AI) zu gestalten. Nach den vorherigen Summits in Bletchley Park und Seoul liegt der diesjährige Schwerpunkt darauf, die Chancen, die KI durch eine verantwortungsvolle Entwicklung und Implementierung bietet, zu nutzen.
Der bevorstehende AI Action Summit bietet eine entscheidende Gelegenheit für Regierungen weltweit und die Industrie, gemeinsam an einer nachhaltigen und fairen Weiterentwicklung von AI-Innovationen zu arbeiten.
Kreative schützen – ihren Stil und ihre Existenz sichern
Bei Adobe sind wir überzeugt, dass KI Kreative in ihrer Arbeit unterstützen sollte anstatt ihnen zu schaden. Ein häufiges Anliegen aus der kreativen Community ist der Schutz individueller Stilrichtungen: Wenn KI genutzt wird, um den einzigartigen Stil einer*s Künstlers*in nachzuahmen und das Ergebnis als Original auszugeben, entsteht eine unfaire Wettbewerbssituation. Mit nur wenigen Klicks können KI-Modelle heute Kunstwerke in einem bestimmten Stil erstellen und als Originale vermarkten –das führt dazu, dass Künstler*innen ungewollt mit ihrem eigenen Stil konkurrieren müssen.
Adobe setzt sich daher für ein Anti-Imitationsrecht in den USA ein, das Kreative vor dem Missbrauch durch KI-Modelle schützt, die absichtlich dazu genutzt werden, ihren Stil kommerziell nachzuahmen. Ein wichtiger Schritt in diese Richtung ist der Preventing Abuse of Digital Replicas Act (PADRA) in den USA, der sicherstellen soll , dass KI-generierte Inhalte verantwortungsvoll genutzt werden.
Ein weiteres wichtiges Thema für Kreative ist der Urheberrechtsschutz für Werke, die mit Hilfe von KI entstehen. Die aktuelle Gesetzgebung schützt menschliche Kreativität, weshalb KI-generierte Inhalte allein nicht urheberrechtsfähig sind. Wir sind jedoch der Meinung, dass die Kombination aus menschlicher Kreativität und KI sehr wohl urheberrechtlich geschützt sein sollte. Die U.S. Copyright Office hat dazu kürzlich eine Richtlinie veröffentlicht, die diesen Standpunkt unterstützt: Werke, die mit Hilfe von KI erstellt oder bearbeitet wurden, können urheberrechtlich geschützt sein, während rein KI-generierte Inhalte oder solche, die nur auf Text Prompts basieren, nicht schutzfähig sind. Wir ermutigen Regierungen weltweit, klare Leitlinien dafür zu schaffen, wie Kreative Urheberrechte für ihre mit KI entwickelten Werke erhalten können.
„Wir alle tragen Verantwortung dafür, dass KI-Innovationen im Interesse aller entwickelt werden. Künstler*innen vor kommerzieller, KI-basierter Ausbeutung zu schützen, liegt in unser aller Interesse, und wir setzen uns aktiv für Richtlinien ein, die Kreative stärken und ihnen eine erfolgreiche Zukunft im KI-Zeitalter ermöglichen.“
Karen Robinson, Senior Vice President und Deputy General Counsel, Adobe
Gesetzliche Regelungen können eine wirksame Abschreckung gegen missbräuchliche Nutzung sein, während technologische Lösungen Kreativen mehr Kontrolle über ihre Werke geben. Die kürzlich vorgestellte Adobe Content Authenticity Web-App ermöglicht es Kreativen, ihre Inhalte mit Content Credentials zu versehen, um ihre Urheberschaft eindeutig zu kennzeichnen und generativen AI-Modellen mitzuteilen, dass ihre Werke nicht für das AI-Training verwendet werden dürfen. Gleichzeitig wird die branchenweite Einführung dieses Feature aktiv vorangetrieben.
Bekämpfung der Gefahr durch Deepfakes
Dank der Fortschritte in der KI wird die Erstellung und Bearbeitung von Inhalten immer leistungsfähiger und für Verbraucher*innen leichter zugänglich. Doch die gleiche Technologie, die kreative Prozesse unterstützt, kann missbraucht werden. Deepfakes sind eine ernstzunehmende Gefahr, da sie die nationale Sicherheit gefährden, gezielt Desinformation verbreiten und sogar Wahlen beeinflussen können.
Ein entscheidender Schutzmechanismus im Zeitalter der KI ist die Entwicklung geeigneter Tools und Richtlinien, um schädliche Deepfakes und irreführende digitale Inhalte zu bekämpfen. Ohne klare Standards laufen wir Gefahr, dass die Grenze zwischen Fakt und Fiktion zunehmend verschwimmt.
Regierungen können das Vertrauen und Transparenz in digitale Inhalte sicherstellen, indem sie bestehende Branchenstandards wie Content Credentials nutzen. Diese dienen als eine Art „Nährwertkennzeichnung“ für digitale Inhalte und wurden von der Coalition for Content Provenance and Authenticity (C2PA) entwickelt. Content Credentials sind ein frei zugänglicher, Open-Source-Standard, der Informationen darüber liefert, wer Inhalte erstellt hat, wie sie entstanden sind und ob KI verwendet wurde. So können Nutzer*innen Inhalte überprüfen und Vertrauen in digitale Medien aufbauen.
Die von Adobe geführte Content Authenticity Initiative (CAI) ist eine globale, branchenübergreifende Koalition mit über 4.000 Mitgliedern, die sich für die Weiterentwicklung und Nutzung dieser Technologie einsetzt. Content Credentials sind bereits in bekannte Adobe-Apps wie Photoshop, Lightroom, Premiere Pro und Adobe Express integriert und werden zunehmend auch von CAI und C2PA Mitgliedern Leica, BBC, Agence France Presse (AFP), Google, Microsoft, LinkedIn und seit kurzem auch Samsung im neuen Galaxy S25 Smartphone eingesetzt. Eine flächendeckende Implementierung dieser Technologie über die gesamte Content Supply Chain hinweg wird entscheidend sein, um eine vertrauensvolle digitale Zukunft zu gestalten.
Regierungen spielen eine wichtige Rolle bei der Förderung dieses Standards, indem sie Anforderungen zur Provenienz von Inhalten in die KI-Gesetzgebung mitaufnehmen – für alle, die Inhalte erstellen, nutzen oder verbreiten, von Kamera- und Smartphonehersteller bis hin zu sozialen Medien und Nachrichtenplattformen. Sie sollten sicherstellen, dass Technologien zur Inhaltsprovenienz zugänglich sind und dass Online-Plattformen und Social-Media-Unternehmen Content Credentials nutzen, ohne dabei Metadaten aus veröffentlichten Inhalten zu entfernen.
Außerdem können Regierungen Vertrauen bei ihren Bürger*innen stärken, indem sie selbst Provenienz-Technologie für ihre eigenen Inhalte nutzen, damit die Öffentlichkeit die Echtheit von Informationen überprüfen kann. Dies kann ein essenzielles Instrument sein, um eine verlässliche Kommunikation zwischen politischen Entscheidungsträgern und der Gesellschaft zu gewährleisten. Eine enge Zusammenarbeit zwischen Industrie, Wissenschaft und Regierung ist erforderlich, um das Bewusstsein für die Gefahren von Deepfakes zu schärfen und der Bevölkerung die Nutzung von Tools wie Content Credentials zu vermitteln.
Engagement für verantwortungsbewusste Innovation
Bei Adobe setzen wir uns seit jeher für verantwortungsbewusste Innovation ein. Unsere Entwicklung generativer KI-Modelle folgt den AI Ethics-Prinzipien Rechenschaft , Verantwortung und Transparenz und unterstützt zugleich die kreative Community. So wurde Adobe Firefly, unsere Familie kreativer generativer KI-Modelle, ausschließlich mit Inhalten trainiert, für die wir die entsprechenden Rechte besitzen – darunter lizenziertes Material aus Adobe Stock und gemeinfreie Inhalte. Nutzerinhalte wurden bewusst nicht verwendet.
Dieser Ansatz gewährleistet die sichere kommerzielle Nutzung von Firefly und gibt Kreativen und Unternehmen Vertrauen. Das zeigt die breite Nutzung von Firefly: Es wurde bereits zur Erstellung von über 16 Milliarden Bildern genutzt. Damit beweisen wir, dass sich hochklassige KI-Modelle entwickeln lassen, ohne die Rechte von Kreativen zu verletzen.
Es ist wichtig zu verstehen, dass die Performance von KI-Modellen maßgeblich von der Qualität der Trainingsdaten abhängt. Eine umfangreichere und diversere Datenbasis trägt in der Regel zu präziseren und weniger verzerrten Ergebnissen bei. Während Regierungen weltweit ihre Strategien für den Umgang mit KI entwickeln, ist es essenziell, den Zugang zu hochwertigen Daten zu fördern, um KI-Innovationen sowohl verantwortungsvoll als auch verlässlich voranzutreiben.
Zusammenarbeit für eine verantwortungsvolle KI-Zukunft
Wir befinden uns an einem entscheidenden Wendepunkt in der Entwicklung von KI. Die Zusammenarbeit zwischen Politik, Kreativen, Industrie und der Öffentlichkeit wird entscheidend sein, um sicherzustellen, dass KI sowohl kreative Prozesse und Chancen fördert als auch durch klare Leitplanken verantwortungsvoll genutzt wird.
In diesem Sinne werden wir am 11. Februar im Rahmen des offiziellen AI Action Summit Business Day eine Diskussion zur Einführung von Content Credentials führen, um Vertrauen und Transparenz im Zeitalter synthetischer Medien wiederherzustellen. Gemeinsam mit Microsoft, Google, Imatag, AFP und der französischen Abgeordneten Violette Spillebout setzen wir uns dafür ein, diese Standards branchenweit zu etablieren.
Wir freuen uns darauf, den Dialog mit Regierungen weltweit fortzusetzen, um sicherzustellen, dass KI zum Wohle aller entwickelt und eingesetzt wird.