#F8F8F8

VERANTWORTUNGSVOLLE KI FÜR UNTERNEHMEN BEI ADOBE

Der Maßstab für verantwortungsvolle KI-Nutzung in Unternehmen.

KI-Entwicklung bei Adobe richtet sich nach den Grundprinzipien Rechenschaftspflicht, Verantwortung und Transparenz. Diese Werte prägen jede Phase unseres Entwicklungsprozesses. So stellen wir sicher, dass unsere KI-gestützten Funktionen und Tools nicht nur leistungsstark, sondern auch für die größten Unternehmen zuverlässig sind.

Prinzipien der KI-Ethik.

Die verantwortungsvolle Entwicklung und der Einsatz von KI bei Adobe basieren auf drei Grundprinzipien. Diese Grundlage ermöglicht es Unternehmen, Kreativität freizusetzen, die Produktivität zu steigern und personalisierte Customer Experiences in großem Umfang bereitzustellen – und das alles auf einer sicheren, ethischen und einheitlichen KI-Plattform.

Rechenschaftspflicht.

Wir übernehmen Rechenschaft für die Ergebnisse unserer KI-Technologie, mit eigens dafür eingerichteten Teams, die auf Bedenken eingehen. Wir testen auch auf potenzielle Schäden, ergreifen präventive Maßnahmen zur Risikominderung und nutzen Systeme, um auf unvorhergesehene Ergebnisse zu reagieren.

Verantwortung.

Wir bewerten und berücksichtigen die Auswirkungen des Einsatzes von KI sorgfältig. Wir setzen auf inklusives Design und evaluieren die Auswirkungen von Ergebnissen, die möglicherweise unfair, diskriminierend oder voreingenommen sind und dadurch Vorurteile und Stereotypen verfestigen könnten.

Transparenz.

Wir gehen offen mit unserem Einsatz von KI um und vermitteln unseren Kundinnen und Kunden ein klares Bild von unseren KI-Tools und deren Anwendung. Wir möchten, dass sie verstehen, wie wir KI einsetzen, welchen Nutzen sie hat und welche Kontrollmöglichkeiten ihnen mit Adobe zur Verfügung stehen.

#f5f5f5

Wie Adobe verantwortungsvolle KI entwickelt.

Training.
KI für Unternehmen ist nur so effektiv und präzise wie die Daten, mit denen sie trainiert wird. Welche Ergebnisse als angemessen gelten, hängt vom jeweiligen Use Case ab. Deshalb erstellen wir Datensätze, die die speziellen Anforderungen an Orchestrierung von Customer Experiences in großem Umfang erfüllen. So stellen wir sicher, dass die Ergebnisse für die jeweilige Anwendung der KI angemessen sind.
Tests.
Adobe testet KI-gestützte Funktionen und Produkte konsequent und kontinuierlich, um das Risiko schädlicher Vorurteile oder Stereotypen in KI-gestützten Ergebnissen abzumildern. Diese umfassen automatisierte Tests und Beurteilungen durch Menschen.
Folgenabschätzungen.
Wer an der Entwicklung einer KI-gestützten Funktion beteiligt ist, muss ein AI Ethics Impact Assessment einreichen. Diese Bewertung dient dazu, Funktionen und Produkte zu identifizieren, die möglicherweise schädliche Vorurteile und Stereotypen fördern oder aufrechterhalten. Dies ermöglicht es unserem KI-Ethik-Team, das Innovationstempo aufrechtzuerhalten und sich auf unternehmenstaugliche Funktionen und Produkte zu konzentrieren, während gleichzeitig höchste ethische Standards eingehalten werden.
Umfassende menschliche Kontrolle.
KI-gestützte Funktionen mit den potenziell größten ethischen Auswirkungen werden von einem vielfältigen, funktionsübergreifenden Gremium geprüft, dem AI Ethics Review Board. Vielfalt über mehrere demografische Merkmale hinweg ist entscheidend, um eine Vielzahl von Perspektiven zu gewährleisten und potenzielle Probleme zu erkennen, die sonst übersehen werden könnten.
Feedback.
Nutzerinnen und Nutzer haben die Möglichkeit, potenziell voreingenommene Ergebnisse zu melden, die dann über Feedback-Mechanismen korrigiert werden können. KI für Unternehmen ist eine sich ständig weiterentwickelnde Technologie. Wir möchten mit unserer Community zusammenarbeiten, um sicherzustellen, dass unsere Tools und Produkte für alle von Vorteil sind. Wenn ihr eine Frage zu KI-Ethik habt oder ein potenzielles Problem melden möchtet, nehmt gerne Kontakt mit uns auf.

Mehr über verantwortungsvolle KI bei Adobe

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

Fragen? Wir haben die Antworten.

Wie trägt Adobe zur Gewährleistung der KI-Rechenschaftspflicht bei?

Adobe trägt mit folgenden Maßnahmen zur Gewährleistung der KI-Rechenschaftspflicht bei:

  • Wir etablieren Governance-Prozesse, um Trainingsdaten und KI-Modelle nachzuverfolgen, einschließlich der Kennzeichnung von Datensätzen und Modellen.
  • Wir fordern im Rahmen unseres Entwicklungsprozesses für Services eine Folgenabschätzung (AI Ethics Impact Assessment), um sicherzustellen, dass vor der Implementierung neuer KI-Technologien eine Ethikprüfung erfolgt.
  • Wir richten einen Prüfungsausschuss für KI-Ethik ein, der die Verbreitung der KI-Entwicklung überwacht und als Anlaufstelle für ethische Bedenken dient, wobei Hinweisgebende geschützt werden.
  • Wir entwickeln Prozesse, um die Behebung aller negativen KI-Auswirkungen sicherzustellen, die nach der Implementierung entdeckt werden.
  • Wir schulen Entwicklungs- und Produkt-Teams zu ethischen Fragen rund um KI.
  • Wir bieten externe und interne Feedback-Mechanismen, um Bedenken zu unseren KI-Praktiken und -Funktionen zu melden.
Was bedeutet verantwortungsvolle Entwicklung von KI bei Adobe?

Bei Adobe bedeutet verantwortungsvolle Entwicklung von KI Folgendes:

  • Sorgfältiges Design von KI-Systemen.
  • Bewertung der Interaktion von KI mit Endanwendenden.
  • Gebotene Sorgfalt zur Minderung unerwünschter schädlicher Voreingenommenheit.
  • Bewertung der Auswirkungen von KI-Technologie auf den Menschen.

Eine verantwortungsvolle Entwicklung von KI erfordert auch, potenzielle Schäden zu antizipieren, präventive Maßnahmen zu deren Minderung zu ergreifen, aufgetretene Schäden zu messen und zu dokumentieren sowie Systeme zur Überwachung von und Reaktion auf unvorhergesehene schädliche Ergebnisse einzurichten.

Wie korrigiert Adobe die Ergebnisse von KI-Systemen im Falle schädlicher Voreingenommenheit, unabhängig von der Eingabe?

Im Rahmen der Entwicklung und des Einsatzes unserer KI-Systeme versucht Adobe, Voreingenommenheit in Bezug auf menschliche Attribute zu mindern (z. B. Nationalität, Geschlecht, ethnische oder soziale Herkunft, genetische oder Identitätsmerkmale, Religion oder politische Überzeugung, Geografie, Einkommen, Behinderung, Alter, sexuelle Orientierung und Beruf). Wir achten auf inklusives Design. Wir legen Wert auf Fairness in Situationen, die das Leben einer Person maßgeblich beeinflussen, wie z. B. beim Zugang zu Beschäftigung, Wohnraum, Krediten und Gesundheitsinformationen. Wir wägen sorgfältig ab, ob die Vorteile des KI-Einsatzes das Risiko möglicher Schäden wettmachen.

Fairness bedeutet hier nicht, dass alle Kundinnen und Kunden identisch behandelt werden. Viele der typischsten Use Cases für KI segmentieren Personen auf übliche und akzeptable Weise, etwa im demografischen Marketing oder bei personalisierten Produktempfehlungen. Eine verantwortungsvolle Entwicklung von KI bedeutet, KI auf eine vernünftige Weise einzusetzen, die den Normen und Werten unserer Gesellschaft Rechnung trägt.

Wie fördert Adobe Verantwortung bei seinen Tools für digitale Medien?
Um Desinformation zu bekämpfen, setzt sich Adobe für die Weiterentwicklung von Herkunfts-Tools und -Lösungen ein, die mehr Transparenz und Vertrauen in das digitale Ökosystem bringen. Wir halten es für entscheidend, den Menschen die Informationen an die Hand zu geben, mit denen sie die Quelle und den Lebenszyklus von digitalem Content nachvollziehen können, einschließlich der Angabe, ob KI bei der Bearbeitung oder Erstellung genutzt wurde.
Wie stellt Adobe KI-Transparenz sicher?

Transparenz ist die angemessene Offenlegung in klarer und einfacher Sprache, wie wir KI in unseren Tools verantwortungsvoll entwickeln und einsetzen. Adobe schätzt die vertrauensvolle Beziehung zu seiner Kundschaft – Transparenz ist ein wesentlicher Bestandteil dieser Beziehung.

Diese Transparenz umfasst die Weitergabe von Informationen darüber, wie oder ob Adobe Kunden-Assets und Nutzungsdaten sammelt und verwendet, um unsere Produkte und Services zu verbessern, sowie eine allgemeine Offenlegung, wie Daten und KI in unseren Tools und Services eingesetzt werden.