View this page in English (US).Continue
Das rote Adobe-Logo auf schwarzem Hintergrund mit schwebenden Icons, die Parameter für verantwortungsvolle KI darstellen.
Das rote Adobe-Logo auf schwarzem Hintergrund mit schwebenden Icons, die Parameter für verantwortungsvolle KI darstellen.

KI-Zeitenwende.

So gelingt der verantwortungsvolle Umgang mit KI.

Das rote Adobe-Logo auf schwarzem Hintergrund mit schwebenden Icons, die Parameter für verantwortungsvolle KI darstellen.

Der Weg zu verantwortungsvoller KI-Innovation.

In diesem Leitfaden erfahrt ihr, welche Tools, Strategien und Denkweisen ihr braucht, um KI-Lösungen für euer Unternehmen effektiv zu bewerten, zu testen, einzuführen und zu überwachen.

An einem verantwortungsvollen Umgang mit KI führt kein Weg vorbei.

KI als Katalysator für Transformation zwingt Führungskräfte aller Branchen zu schnellen Veränderungen, um bei Wettbewerbsfähigkeit und betrieblicher Effizienz nicht den Anschluss zu verlieren. Der schnelle Umstieg auf KI birgt aber auch Gefahren. Ohne eine sorgfältige Überwachung riskieren Organisationen rechtliche und operative Probleme – und ihren guten Ruf. Die richtige Balance zwischen Tempo und Verantwortungsbewusstsein zu finden, ist strategisch notwendig.

Governance und Risiko-Management von KI werden oft als extrem komplex empfunden. Neue Richt- und Leitlinien sowie Gesetze auf internationaler, nationaler und regionaler Ebene erschweren den Einstieg zusätzlich. Adobe kennt sich mit verantwortungsvoller Innovation aus. Wir handeln nach den ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz und sind damit umfassend auf diese Herausforderungen eingestellt.

Unsere Erfahrung zeigt, dass der verantwortungsvolle Umgang mit KI zwar komplex erscheint, mit den richtigen Tools, der richtigen Strategie und dem richtigen Mindset aber durchaus zu bewältigen ist.

Eine der zentralen Entscheidungen, vor denen Unternehmen bei der Entwicklung ihrer KI-Strategien stehen, ist die Frage, ob sie eine KI-Lösung selbst entwickeln, kaufen, anpassen oder alle drei Ansätze kombinieren sollen. Der folgende Ansatz richtet sich an Unternehmen, die KI-Lösungen kaufen möchten, und zielt darauf ab, auf bestehenden Werten und Geschäftspraktiken aufzubauen – insbesondere für Unternehmen, die KI-Lösungen extern beschaffen wollen –, um den aktuellen Bedürfnissen der Stakeholder gerecht zu werden. Unabhängige Recherchen und Experten-Interviews zur KI-Governance bilden die Grundlage für ein Framework, das Organisationen dabei unterstützt, ihre aktuelle Situation zu beurteilen und liefert Best Practices für eine verantwortungsvolle Einbindung von KI in die Abläufe im Unternehmen. Es zeigt in übersichtlichen Schritten, wie ihr Richtlinien zur Nutzung generativer KI durch Mitarbeitende definiert, Anbieter mittels fundierter Fragebögen bewertet und Prozesse zur KI-Governance auf dem aktuellen Stand haltet, um mit der aktuellen Entwicklung Schritt zu halten.

Egal ob ihr in erster Linie eure KI-Bereitschaft einordnen oder bestehende Strategien anpassen wollt: Das hier vorgestellte Framework bietet einen bewährten Ansatz, der menschlichen Einfallsreichtum mit aktueller KI-Governance kombiniert. Mit dieser Roadmap könnt ihr KI-Lösungen beurteilen, testen, implementieren und überwachen und ein Fundament schaffen, das Vertrauen fördert, Risiken minimiert und euer Business nachhaltig voranbringt.

Ein Framework für den Aufbau einer skalierbaren und ethischen KI-Zukunft.

Diagramm eines vierstufigen Frameworks für die Skalierung verantwortungsvoller KI: Bewerten, pilotieren, überwachen und einführen

Erfolgreiche KI-Implementierung erfordert mehr als eine Checkliste von Maßnahmen – sie braucht einen strategischen, mehrstufigen Ansatz, bei dem jede Phase auf der vorherigen aufbaut und ein Fundament für nachhaltige Innovation und ethische KI-Praktiken schafft. Dieses Framework besteht aus miteinander verzahnten Bausteinen, die darauf ausgelegt sind, verantwortungsvolle KI-Praktiken in jeder Phase zu integrieren – von der Bewertung der organisatorischen Bereitschaft bis zur effektiven Skalierung und kontinuierlichen Überwachung von KI-Systemen.

Dieses Modell betrachtet die Einführung von KI nicht prozessbasiert, sondern als System, das sich im Einklang mit den geschäftlichen Anforderungen kontinuierlich weiterentwickelt. Nur mit dem richtigen Gleichgewicht zwischen menschlicher Kontrolle und fortschrittlicher KI-Technologie gelingt es, das Potenzial von KI zu nutzen, ohne ethische, regulatorische oder operative Ziele zu gefährden.

Alle Phasen dieses Frameworks – Bewertung der Bereitschaft, verantwortungsvolle Pilotprojekte, Implementierung und Skalierung sowie Monitoring – unterstützen sich gegenseitig und legen so den Grundstein für langfristigen Erfolg. Durch den verantwortungsvollen Umgang mit KI in jeder Phase könnt ihr die Herausforderungen beim Umstieg auf KI bewältigen und Vertrauen, Transparenz und Rechenschaftspflicht fördern.

Basierend auf Expertise und gestützt auf Forschungsergebnisse.

Für eine unabhängige Studie zum Einsatz von generativer KI wurden im Auftrag von Adobe über 200 Führungskräfte für IT, Betrieb und Compliance aus verschiedenen Branchen befragt. An den Ergebnissen lassen sich aktuelle Methoden, Herausforderungen und Erfolgsstrategien ablesen. Außerdem hat Adobe ausführliche Interviews mit Branchenprofis geführt und weltweite Standards wie die EU-Verordnung über künstliche Intelligenz, das NIST AI Risk Management Framework, die „AI Verify“-Initiative in Singapur, den IEEE-Standard 7000 und ISO 42001 untersucht. Damit ist sichergestellt, dass sich das Framework für Unternehmen jeder Branche und Größe eignet – unabhängig vom Stand der KI-Einführung.

Abschnitt 1.

Bewerten: Organisatorische Bereitschaft und Auswahl verantwortungsvoll entwickelter KI-Technologie.

Der verantwortungsvolle Umgang mit KI beginnt bei den Entscheidenden. In der Bewertungsphase prüfen sie mit geeigneten Tools, Daten und Erkenntnissen, wie sich KI in die strategischen Prioritäten einbinden lässt. Das schließt auch eine funktionsübergreifende Analyse der technischen Infrastruktur, der Governance-Frameworks und der vorhandenen KI-Skills ein.

Bereitschaft der Organisation beurteilen.

Viele Organisationen haben inzwischen mit der Einführung von KI begonnen. Nur 21 % der Befragten haben ihre Prioritäten für einen verantwortungsvollen KI-Einsatz aber vollständig ausformuliert – 78 % sind noch bei der Entwicklung oder Planung. Führungskräfte aus den Bereichen IT, Compliance, Risiko-Management und Strategie sind unerlässlich, um ein Fundament für einen verantwortungsvollen Einsatz von KI zu schaffen. Der erste Schritt besteht darin, Lücken in den Governance-Frameworks und KI-Kompetenz zu ermitteln, die den Einsatz von KI beeinträchtigen könnten.

Organisationen brauchen einen ganzheitlichen Ansatz zur Bewertung der KI-Bereitschaft, der Management-Initiativen mit Feedback von Mitarbeitenden kombiniert, die die KI täglich nutzen.

Erforderliche Aktionen:

  • Führt ein umfassendes Audit bezüglich der Bereitschaft durch. Bewertet die technische Infrastruktur, Governance-Standards, KI-bezogenen Richtlinien, Frameworks für verantwortungsvolle Innovation und Compliance-Praktiken des Unternehmens aus, um Stärken und Verbesserungsmöglichkeiten zu identifizieren und die Ausrichtung sowohl an strategischen Zielen als auch an den Anforderungen einer verantwortungsvollen KI-Einführung sicherzustellen.
  • Identifiziert und behebt wichtige Lücken gemeinsam. Dokumentiert zusätzlichen Bedarf an KI-Richtlinien in den Bereichen Sicherheit, Datenschutz, Recht, Compliance und Transparenz-Standards, während ihr funktionsübergreifende Teams – einschließlich IT, Recht, Compliance und Geschäftsbereiche – einbezieht, um umsetzbare nächste Schritte zu priorisieren.
  • Etabliert und stärkt Governance-Teams. Bestimmt Teams zur Überwachung der KI-Governance und stellt die Einhaltung sowohl interner Standards für verantwortungsvolle KI als auch externer regulatorischer Rahmenbedingungen sicher – stattet diese Teams mit Befugnissen und Ressourcen aus, um Risiken proaktiv zu managen und sich an sich entwickelnde Anforderungen anzupassen.

Verantwortungsvoll entwickelte KI-Technologie auswählen.

Prüft im ersten Schritt die vorhandenen Governance-Standards für Datenschutz, Sicherheit und Barrierefreiheit und rechtliche Fragen. In vielen Organisationen basieren Compliance- und Risiko-Management auf internationalen Benchmarks wie der Datenschutz-Grundverordnung (DSGVO) und KI-spezifischen Frameworks. Hinzu kommen regionale Richtlinien und Branchenstandards wie KI-Audits oder Standards zur Verantwortlichkeit.

Erforderliche Sicherheits- und Datenschutz-Standards oder Zertifizierungen für KI-Technologien.

Prozentanteil aller Befragten, absteigend sortiert.

Balkendiagramm der erforderlichen Sicherheits- und Datenschutz-Standards für KI-Technologien: 56 % GDPR (entspricht DSGVO), 51 % KI-spezifische Richtlinien und Frameworks, 42 % verantwortungsvolle KI-Praktiken, 41 % KI-Audits und ethische Standards, 37 % EU AI Act, 37 % ISO/IEC 27001, 34 % NIST AI Risk Management Framework, 28 % HIPAA, 22 % CCPA.

Sobald ihr euch einen Überblick über eure Erwartungen an den verantwortungsvollen Einsatz von KI und die Governance-Frameworks verschafft habt, werden als Nächstes die Auswahlkriterien für KI-Technologie definiert. Sie sollten auf vorhandenen Standards aufbauen und spezielle Aspekte generativer KI berücksichtigen, etwa Transparenz hinsichtlich Herkunft, Genauigkeit, Lizenzierung der Trainings-Daten, Minderung von Diskriminierung und kulturelle Verortung.

Laut Studien sind die wichtigsten Bewertungskriterien für Technologie auf Basis generativer KI:

1. Auswertung von Trainings-Daten (72 %)

2. Offenlegung der KI-Nutzung (63 %)

3. Schadensbegrenzung (60 %)

4. Transparenz der Herkunft (55 %)

5. Minderung von Diskriminierung (50 %)

Diese Faktoren stellen sicher, dass die gewählte KI-Technologie den geschäftlichen und ethischen Anforderungen entspricht und langfristigen Unternehmenserfolg ermöglicht.

Organisationen sollten eigene Auswahlkriterien definieren, die auf ihre strategischen Geschäftsziele und ihre Grundsätze für den verantwortungsvollen Umgang mit KI abgestimmt sind und folgende Schwerpunkte haben:

Transparenz.

Alle KI-Prozesse müssen erklärbar und nachvollziehbar sein.

Genauigkeit.

Die Systeme müssen hohe Standards für Datenintegrität und prädiktive Zuverlässigkeit erfüllen.

Kulturelle Verortung.

KI-Systeme müssen die Diversität kultureller und regionaler Kontexte anerkennen.

Minderung von Diskriminierung.

Die Systeme müssen Voreingenommenheit aktiv reduzieren, um faire und gerechte Resultate zu ermöglichen.

Eine ausführliche Dokumentation des Bewertungs- und Auswahlprozesses stärkt die Aspekte Anpassungsfähigkeit und Verantwortlichkeit bei der Erstellung eines Governance-Modells, das sich mit technologischen und regulatorischen Änderungen weiter entwickeln kann. Hier die Maßnahmen aus der Bewertungsphase zusammengefasst im Überblick:

Zusammenfassung: Bewertung.

Schritt 1: Organisatorische Bereitschaft auswerten.

  • Definition und Kommunikation der Unternehmensstandards zum verantwortungsvollen Einsatz von Technologie, inklusive dem Einsatz von KI.
  • Prüfung der aktuellen Systeme und Geschäftsprozesse durch CIO und/oder durch eine cross-funktionale Arbeitsgruppe zur Identifikation der Bereiche, die am meisten von KI profitieren werden.
  • Einbeziehung der Rückmeldungen von internen Führungskräften und Abteilungsleitungen zu weiteren Use Cases, die bei der Einführung von KI zu berücksichtigen sind.

Schritt 2: KI-Technologie auswählen, die verantwortungsvoll entwickelt wurde.

  • Prüfung der vorhandenen Governance-Standards bzgl. Datenschutz, Sicherheit, Barrierefreiheit und Rechtsfragen im Hinblick auf KI.
  • Entwicklung der Auswahlkriterien, die auf den zuvor etablierten Standards aufbauen und KI-Aspekte wie Transparenz, Genauigkeit, Diskriminierung, kulturelle Verortung und Compliance berücksichtigen
  • Evaluierung und Auswahl der KI-Technologien, die den definierten Kriterien und Geschäftsanforderungen bestmöglich entsprechen, und Dokumentation dieses Entscheidungsprozesses.

Abschnitt 2.

Pilotprojekt: Identifizierung und Pilotierung von Use Cases mit hoher Wirkung.

In der Pilotphase trifft Theorie auf betriebliche Realität. Die wichtigsten Stakeholder können jetzt prüfen, ob die Performance der KI-Technologie den Geschäftszielen und Erwartungen entspricht. Diese Phase geht über die Prüfung der technischen Machbarkeit hinaus und konzentriert sich darauf, wichtigen Führungskräften und Stakeholdern die Möglichkeit zu geben, sich auf sinnvolle Weise direkt mit der Technologie auseinanderzusetzen. Es geht darum, Menschen in die Lage zu versetzen, mit KI zu arbeiten, fundierte Entscheidungen über ihre Skalierbarkeit zu treffen und sicherzustellen, dass sie ethischen, betrieblichen und regulatorischen Standards entspricht.

Pilotprojekte unterziehen die KI-Systeme einem Stresstest. Ihr ermittelt, wo Nachbesserungen an der Rechenschaftspflicht oder Transparenz nötig sind und ob die neuen Funktionen den Erwartungen entsprechen. Dokumentiert alle Erkenntnisse, und führt sie zu einer Roadmap für die verantwortungsvolle Skalierung von KI zusammen, die den kurz- und langfristigen Zielen gerecht wird.

Priorisierte Use Cases bestimmen und vorbereiten.

Für einen überzeugenden, ganzheitlichen Business Case zum Potenzial von KI braucht es Input von Stakeholdern und Mitarbeitenden. Bezieht frühzeitig alle Teams ein, die die Technologie direkt nutzen sollen, um ihre Vorteile für die Erstellung von Marketing-Content, Codierung, Workflow-Automatisierung oder Datenverwaltung zu identifizieren.

  • Seid spezifisch. Fokussiert euch auf Prozesse, nicht auf Rollen. Anstatt Use Cases auf bestimmte Rollen zu beschränken (zum Beispiel „KI für Entwickler“), fokussiert euch auf Prozesse, die KI optimieren und verbessern kann, wie etwa „KI-unterstützte Programmierung zur Automatisierung routinemäßiger Code-Reviews und Fehlererkennung.“
  • Legt messbare Produktmetriken für Nutzung und Kosteneinsparungen fest. Während der ROI wichtig ist, sollten KI-Pilotprojekte auch breiteren Nutzen wie Produktivität, Markteinführungsgeschwindigkeit, Mitarbeiterzufriedenheit und verbesserte Kundenerlebnisse betonen – Produktmetriken, die oft als „Return on Experience“ bezeichnet werden.
  • Steigert die Wirkung und denkt über unmittelbare Vorteile hinaus: Positioniert die KI-Initiative als Motor für langfristige Veränderung. Use Cases sollten nicht nur unmittelbare betriebliche Anforderungen adressieren, sondern auch mit strategischen Zielen wie digitaler Transformation oder Wettbewerbsdifferenzierung übereinstimmen.

Einhaltung der Geschäftsziele und KI-Kriterien mit Pilotprojekt testen.

Beide Aspekte sind wichtig, wenn die KI-Initiative euren betrieblichen Zielen und den Benchmarks zum verantwortungsvollen Einsatz von KI entsprechen soll. Mehr als die Hälfte der befragten Organisationen (54 %) hat ein akzeptables Risikoniveau für ihre wichtigsten Use Cases definiert. Es empfiehlt sich, alle Erkenntnisse systematisch zu dokumentieren, um sie bei künftigen KI-Projekten nutzen zu können. So entsteht ein robustes Fundament für die Implementierung skalierbarer KI-Lösungen.

Erforderliche Aktionen:

  • Legt Geschäfts- und verantwortungsvolle KI-Benchmarks fest. Definiert sowohl operative Ziele (zum Beispiel Produktivität und Kosteneinsparungen) als auch verantwortungsvolle KI-Produktmetriken (zum Beispiel Transparenz und Fairness).
  • Legt Risiko-Schwellenwerte fest. Bestimmt Risiko-Parameter und erstellt ein Framework für laufende Bewertungen, um KI-bezogene Risiken effektiv zu managen und zu mindern.
  • Erfasst und teilt Erkenntnisse. Entwickelt einen standardisierten Prozess zur Dokumentation von Ergebnissen von Pilotprojekten, um Transparenz zu fördern und eine Orientierungshilfe für künftige Skalierungen an der Hand zu haben.

Zusammenfassung: Pilotphase.

Schritt 1: Identifiziert prioritäre Use Cases.

  • Identifiziert aus bestehenden Use Cases, die für euer Unternehmen Priorität haben, zwei bis drei Pilotprojekte, bei denen KI-Ethik und Verantwortung wichtig sind.
  • Definiert die Kennzahlen und Schwellenwerte zur Messung der geschäftlichen und ethischen KI-Performance für diese Use Cases.

Schritt 2: Pilotprojekt überprüfen anhand von geschäftlichen und verantwortungsvollen KI-Kriterien.

  • Führt diese Pilotprojekte durch – bei Bedarf mit weiteren technischen, geschäftlichen und verantwortungsbezogenen Validierungen und Tests.
  • Gleicht die Ergebnisse der Pilotphase mit den vordefinierten Kennzahlen und Schwellenwerten ab und dokumentiert die Erkenntnisse für weitere Bewertungen und Tests.
  • Geht zur Beschaffung/Implementierung in Abhängigkeit von den Ergebnissen und Erkenntnissen über.

Abschnitt 3.

Einführung: Verantwortungsvolle KI-Integration im gesamten Unternehmen.

Die Implementierungsphase markiert den Übergang von der Pilotphase zur organisationsweiten Integration. Die experimentellen Programme werden in voll betriebsfähige KI-Systeme überführt und die Erkenntnisse aus den Piloten in konkrete Szenarien umgesetzt.

In dieser Phase binden die Mitarbeitenden die KI aktiv in ihre bestehenden Workflows ein. Dabei helfen ihnen die praktischen Erfahrungen aus den Pilotprojekten.

Personal schulen und befähigen.

Die effektive Skalierung von KI gelingt nur, wenn die Mitarbeitenden sowohl das Potenzial der Technologie als auch die damit verbundenen ethischen Verantwortlichkeiten verstehen. Maßgeschneiderte Trainings-Programme können Mitarbeitenden in verschiedenen Rollen und Abteilungen den Einsatz der KI-Tools erleichtern. Vielen Organisationen (89 %) ist die Bedeutung von Schulungen bewusst. Fast zwei Drittel legen dabei auch Wert auf Richtlinien zum verantwortungsvollen Einsatz von KI. Das Training sollte die technischen Funktionen sowie Grundsätze wie Rechenschaftspflicht, Transparenz und regulatorische Compliance abdecken.

Erforderliche Aktionen:

Richtet Schulungen an Governance aus. Integriert verantwortungsvolle KI-Richtlinien in Schulungsmaterialien, um sicherzustellen, dass Mitarbeitende über Compliance-, Risiko-Management- und Transparenzanforderungen informiert sind.

Passt Schulungen an Rollen an. Entwickelt maßgeschneiderte Schulungsmodule, die die Bedürfnisse spezifischer Funktionen adressieren, einschließlich Best Practices sowohl für eure Geschäftsprozesse als auch für verantwortungsvolle KI.

KI verantwortungsvoll bereitstellen.

Für die großflächige Implementierung von KI ist ein Governance-Framework nötig, das den verantwortungsvollen Einsatz gewährleistet. Organisationen sollten ihre KI-Initiativen auf die bestehenden Richtlinien abstimmen und sie dann kontinuierlich an aktuelle gesetzliche, betriebliche und ethische Standards anpassen.

Kreisdiagramm der Pläne zur Einbindung verantwortungsvoller KI in Standards: 82 % ja, 13 % unsicher, 5 % nein. Kreisdiagramm der Einbeziehung verantwortungsvoller KI in Governance-Bestrebungen: 81 % ja, 11 % unsicher, 8 % nein.

Erforderliche Aktionen:

  • Fördert eine Kultur der Verantwortlichkeit. Ermutigt Teams, die weitreichenden Auswirkungen von KI sowohl auf betriebliche Workflows als auch auf das Vertrauen der Stakeholder zu verstehen, und fördert das Verantwortungsbewusstsein auf jeder Ebene.
  • Entwickelt Schulungen kontinuierlich weiter. Während sich eure KI-Governance-Frameworks entwickeln, aktualisiert Schulungsprogramme, um neue Best Practices und regulatorische Änderungen zu reflektieren.

Zusammenfassung: Implementierung.

Schritt 1: Schult und befähigt Teams.

  • Entwickelt Richtlinien zum verantwortungsvollen Einsatz von KI für einzelne Use Cases.
  • Stellt umfassende Schulungen inklusive Best Practices für relevante Teams bereit.
  • Würdigt und kommuniziert der gesamten Organisation die jeweiligen Erfolge.

Schritt 2: Implementiert verantwortungsbewusst.

  • Definiert die Kernanforderungen zur Einführung einzelner Technologien (z. B. geschäftliche Auswirkungen, Integrationsfreundlichkeit und Risikominderung).
  • Arbeitet eng mit der Geschäftsleitung zusammen, insbesondere bei ggf. erforderlichen Kompromissen.
  • Integriert Regelungen zum verantwortungsvollen Umgang mit KI in vorhandene Governance-Frameworks (z. B. Zugriff, Kontrolle, Rollen).

Abschnitt 4.

Überwachung: Kontinuierliche Aufsicht und Verbesserung.

Nach ihrer Einführung müssen die KI-Systeme überwacht und weiter verbessert werden. Echtzeit-Nachverfolgung, strenge Performance-Prüfungen und proaktives Risiko-Management tragen in der Überwachungsphase dazu bei, dass die KI-Systeme effektiv, vorgabenkonform und auf die Unternehmensziele abgestimmt bleiben. Mit Metriken zum verantwortungsvollen Einsatz von KI und einem strukturierten Prüfprozess erfüllt ihr zuverlässig alle geltenden Regelungen, mindert neue Risiken und steigert nachhaltig Vertrauen und Geschäftswert.

Performance mit Geschäftszielen und KI-Benchmarks abgleichen.

Die besten Monitoring-Methoden kombinieren automatisches Performance-Tracking mit menschlicher Expertise. Viele Organisationen überwachen ihre KI-Systeme in Echtzeit. Die Effektivität dieser Tools steigt deutlich, wenn sie durch menschliche Aufsicht ergänzt werden. Menschen sind besser darin, Daten zu analysieren, Risiken zu erkennen und Entscheidungen über notwendige Anpassungen zu treffen.

69 % der befragten Organisationen nutzen Tools zur Echtzeit-Überwachung. Der Nutzen steigt deutlich, wenn menschliches Urteilsvermögen mit einbezogen wird. Die Mehrzahl der Unternehmen priorisiert technische Kennzahlen: 72 % achten vor allem auf Genauigkeit und 69 % auf den ROI. Bei der verantwortungsvollen Skalierung spielen aber auch ethische Aspekte eine Rolle. Menschliche Kontrolle fördert die Transparenz und Berechenbarkeit und stärkt das Vertrauen – intern wie extern. Weitere Faktoren bei der Überwachung sind die proaktive Erkennung von Voreingenommenheit (49 %) und die Minimierung potenziell schädlicher Inhalte (33 %). Ohne ein kontinuierliches, proaktives Monitoring können KI-Systeme die Integrität und das Vertrauen beeinträchtigen. Mit einer Performance-Überwachung, die technische und ethische Risiken abdeckt, schützt ihr eure Marke, stärkt das Nutzervertrauen und schafft ein solides Fundament für die verantwortungsvolle Skalierung von KI.

Durch das enge Zusammenspiel von Technologie und Mensch lassen sich potenzielle Risiken wie ungenaue Daten, Diskriminierung oder Compliance-Verstöße frühzeitig erkennen.

KI-spezifische Überlegungen für das Tracking von Technologie-Performance und Effektivität.

Prozentanteil aller Befragten.

Balkendiagramm zu KI-spezifischen Aspekten beim Performance-Tracking: 72 % Genauigkeit der Ergebnisse, 69 % Performance (Zeitersparnis, ROI), 42 % potenzielle Verzerrungen, 41 % Akzeptanzrate, 37 % schädliche Ergebnisse, 5 % keine, 2 % Sonstiges.

Kontinuierliches Risiko-Management.

Risiko-Management bei KI ist ein kontinuierlicher Prozess, der sich parallel zu den KI-Systemen weiterentwickeln sollte. Die Etablierung eines strukturierten, funktionsübergreifenden Ansatzes für KI-Risiko-Management ermöglicht es eurem Unternehmen, sowohl Geschäfts- als auch Reputationsrisiken proaktiv anzugehen. Geplante Überprüfungen sollten Stakeholder aus dem gesamten Unternehmen einbeziehen, einschließlich Datenwissenschaftlerinnen und -wissenschaftler, Geschäftsführung und Rechts-/Compliance-Beauftragte, um eine gründliche Auswertung sowohl der technischen Performance als auch der verantwortlichen KI-Ziele zu unterstützen.

KI-Risiko-Management ist ein kontinuierlicher Prozess, der sich mit technologischen Fortschritten weiterentwickelt. 60 % der Unternehmen beziehen Daten- und Governance-Teams ein, und 49 % schließen KI-Arbeitsgruppen, Compliance- und Rechts-Teams mit ein – was den Bedarf an funktionsübergreifender Zusammenarbeit unterstreicht. Dieser proaktive Ansatz hilft dabei, sowohl mit internen Werten als auch mit externen Erwartungen im Einklang zu bleiben. Es geht darum, Widerstandsfähigkeit aufzubauen, die sich an regulatorische Veränderungen anpasst. Da 68 % der Unternehmen im Risiko-Management Wert auf verantwortungsvolle KI legen, sind umfassende Dokumentation und kontinuierliche Risikobewertungen unerlässlich.

KI-spezifische Aspekte für das Tracking von Technologie-Performance und Effektivität.

Prozentanteil aller Befragten.

Balkendiagramm der Teams, die für KI-Governance verantwortlich sind: 60 % Daten und Governance, 49 % KI-Arbeitsgruppen, 49 % Compliance, 49 % Rechtsabteilung, 19 % Büro für verantwortungsvolle KI, 6 % kein designiertes Team.

Bedeutung von verantwortungsvollen und ethischen Aspekten der KI-Nutzung für Teams, die Compliance sicherstellen.

Prozentanteil derjenigen, die ein designiertes Team für das Monitoring von KI-Regulierungen und -Standards angeben.

Kreisdiagramm zur Bedeutung verantwortungsvoller KI-Aspekte: 48 % sehr wichtig, 25 % ziemlich wichtig, 24 % etwas wichtig, 7 % wenig wichtig, 1 % überhaupt nicht wichtig.
Strenge Performance-Kennzahlen und eine Kultur des fortlaufenden Risiko-Managements gewährleisten, dass KI-Initiativen dauerhaft auf die Geschäftsziele und die Prioritäten zum verantwortungsvollen Einsatz von KI abgestimmt sind. Mit proaktivem Monitoring, funktionsübergreifenden Prüfungen und lückenloser Dokumentation seid ihr bestens aufgestellt, um eure Organisation mit KI zu transformieren, ohne dabei Risiken einzugehen oder die Rechenschaftspflicht zu schmälern.

Erforderliche Aktionen:

  • Funktionsübergreifende Risikoprüfungen etablieren: Implementiert regelmäßige Risikoprüfungen durch Datenwissenschaftlerinnen und -wissenschaftler, Compliance-Beauftragte und Rechtsexpertinnen und -experten, um anhand von Echtzeit-Daten neue Risiken zu identifizieren.
  • Kontinuierlich tracken und dokumentieren: Sammelt fortlaufend Feedback von Mitarbeitenden, Endanwenderinnen und -anwendern, um Usability-Probleme, Voreingenommenheit oder unerwartetes Verhalten schnell zu erkennen.

Zusammenfassung: Überwachung.

Schritt 1: Performance überwachen.

  • Definition und langfristige Nachverfolgung von KI-Performance-Metriken zu geschäftlichen Zielen, aber auch Fragen der Verantwortlichkeit.
  • Einrichtung regelmäßiger Prüfungen und Besprechung der Ergebnisse zur fortlaufenden Optimierung der Geschäfts-Performance bei gleichzeitiger Absicherung der Unternehmensgrundsätze in Fragen der Verantwortlichkeit.

Schritt 2: Verantwortungsbewusst und verantwortungsvoll einsetzen.

  • Zuweisung der Rollen, die KI-Gesetze und ‑Standards (z. B. die „AI Verify“-Initiative von Singapur oder Gesetzesentwürfe vom US-Kongress) im Blick behalten und interne Regelungen bei Bedarf anpassen.
  • Entwicklung eines Prozesses zur kontinuierlichen Identifizierung und Minderung von KI-bedingten Risiken.
  • Fortlaufende Dokumentation der Einhaltung der Unternehmensstandards.

ADOBE CASE STUDY.

Interne Nutzung generativer KI.

Für Adobe ist generative KI eine transformative Technologie, die menschliche Kreativität nicht ersetzt, sondern unterstützt. Wir fördern den verantwortungsbewussten internen Einsatz von generativer KI in Übereinstimmung mit unseren ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz.

Im Juni 2023 gründete Adobe eine funktionsübergreifende interne Arbeitsgruppe unter Leitung des CIO und CHRO, um Mitarbeitende bei der sicheren, verantwortungsvollen und flexiblen Erkundung und Verwendung generativer KI zu unterstützen. In Abstimmung mit Führungs- und Fachkräften aus dem ganzen Unternehmen entwickelt diese Gruppe Richtlinien und Kriterien, nach denen Mitarbeitende mit den Einsatzmöglichkeiten von generativer KI experimentieren können. Im Rahmen der Initiative wurden vier personabasierte Arbeitsgruppen zu verschiedenen Use Cases für generative KI bei Adobe gebildet sowie ein Intake-Prozess, ein Framework für Risikotoleranz und ein Blueprint für Prüfungen entwickelt, der Ethik, Sicherheit, Datenschutz und andere rechtliche Aspekte berücksichtigt. Auch eine Liste freigegebener Tools und Modelle für spezifische Use Cases sowie Richtlinien zum Einsatz generativer KI auf Personalebene sind verfügbar. Begleitend zur Einführung der Anbieter-Richtlinien für generative KI im März 2024 wurden Trainings zur Nutzung der Technologie und zu den Features der ausgewählten Produkte abgehalten.

Die durch die Initiative optimierten Prozesse haben die Experimentierphase und die skalierte Anwendung der Technologie beschleunigt. Gleichzeitig ermöglichte die Initiative die Beurteilung der unternehmensweiten generativen KI-Landschaft. Adobe fördert weiterhin den Austausch der gewonnenen Erkenntnisse und Learnings im Unternehmen. Ziel ist der Aufbau eines kollaborativen Ökosystems für gemeinschaftliche Forschung. Das Programm wird regelmäßig an neue KI-basierte Features in unseren Produkten, neue Technologien und Modelle für generative KI sowie geänderte rechtliche und regulatorische Vorgaben angepasst. Der Prüfprozess für Experimente wird überwacht, und das zuständige Team entwickelt Tools zur Weiterverfolgung großflächig eingeführter Projekte und anderer Initiativen.

Best Practices für die verantwortungsvolle KI-Einführung.

Um KI-Systeme verantwortungsvoll zu implementieren, zu überwachen und zu optimieren, müssen Organisationen umfassende Richtlinien für Mitarbeitende bereitstellen, Anbieter streng bewerten und robuste Steuerhebel für die KI-Governance definieren. So sorgen sie dafür, dass ihre KI-Initiativen aktuelle und neue gesetzliche Vorgaben erfüllen, auf bestehenden Leitlinien für Governance und Risiko-Management aufbauen und im Einklang mit Prozessen stehen, die Vertrauen, Transparenz und Rechenschaftspflicht fördern.

Dieser Abschnitt beschreibt praktische Schritte zur Einbindung der Best Practices in den täglichen Geschäftsbetrieb.

Nutzungsrichtlinien.

Die Richtlinien zum verantwortungsvollen Einsatz von KI müssen auf die individuellen Anforderungen und Risiken eurer Organisation abgestimmt sein. Sie sollen Mitarbeitenden helfen, die regulatorischen Standards und Governance-Protokolle zu befolgen und dabei die Grundsätze der Datensicherheit, Transparenz und Rechenschaftspflicht einzuhalten.

Datenschutz.

Legt genau fest, wann die Datenverarbeitung ausschließlich lokal oder mit strengen Zugriffskontrollen erfolgen darf, um jeden unbefugten Zugriff zu verhindern. Dazu gehört auch die Unterbindung von Prompts, die sensible Outputs generieren oder manipulieren könnten. Diese Richtlinien dienen dem Schutz von firmeneigenen Informationen und der Einhaltung von Datenschutzvorgaben.

Transparenz beim Einsatz von KI.

Gebt immer an, wenn KI an der Erstellung von internen Dokumenten, Schnittstellen mit Kundenausrichtung oder externer Kommunikation beteiligt war. Davon profitieren die Rechenschaftspflicht, das Vertrauen in die Authentizität und Verlässlichkeit KI-generierter Inhalte – und letztlich die Marke und der Ruf eines Unternehmens.

Richtlinien im Account-Management.

Definiert eindeutige Richtlinien für die Verwendung von Tools für generative KI, bei denen eine Registrierung erforderlich ist. Dazu gehört, ob E-Mail-Konten des Unternehmens verwendet werden können, welche Tools für geschäftliche Zwecke genutzt werden dürfen und der Hinweis, dass kein geschäftlicher Content über persönliche Konten erstellt werden soll. So verhindert ihr die unzulässige Verwendung und stimmt den Einsatz der KI besser auf das allgemeine Unternehmensprogramm zur Informationssicherheit ab.

Je präziser diese Richtlinien auf eure Organisation zugeschnitten sind, desto verantwortungsvoller können Mitarbeitende die Tools für generative KI nutzen und desto besser gelingt es euch, Innovation und Integrität miteinander zu verbinden.

Beispielfragen zur Anbieterbewertung.

Bei der Bewertung von KI-Anbietern wird mittels geeigneter Fragen abgeklärt, ob die Systeme rechtlichen und regulatorischen Normen sowie Standards für den verantwortungsvollen Einsatz von KI entsprechen. Die folgenden Fragen sollen Organisationen als Orientierung dienen und dabei helfen, fundierte Entscheidungen zu potenziellen Kooperationen zu treffen sowie KI-bezogene Risiken zu minimieren.

Thema
Frage
Hintergrund
Beispiel Adobe
Herkunft und Verwendung von Daten
„Welche spezifischen Datentypen wurden für Entwicklung und Training des KI-Systems herangezogen?“
Diese Frage gibt Aufschluss über Herkunft, Art und Umfang der Daten, mit denen die KI-Modelle trainiert wurden. So könnt ihr klären, ob die Datenverfahren des Anbieters euren Standards für den verantwortungsvollen Einsatz von KI und den rechtlichen Vorgaben entsprechen.

Adobe Firefly: Adobe bezieht keine Unternehmensinhalte von Benutzenden (einschließlich Firefly-Eingaben und -Ausgaben) in Datensätze ein, die zum Trainieren der Firefly-Basismodelle verwendet werden.

Compliance mit Urheberrecht
„Wurden Datensätze verwendet, bei denen möglicherweise Einschränkungen hinsichtlich Urheberrecht, geistigem Eigentum oder Lizenzierung bestehen?“
Mit dieser Frage wird geprüft, ob alle Datenquellen legal sind und auf rechtmäßigem Weg erworben wurden, sodass keine Rechtsstreitigkeiten zu befürchten sind.

Adobe Firefly: Kunden können jederzeit Informationen zur Lizenzübersicht unter stock-adobe.com/Dashboard/LicenseHistory einsehen, wenn sie mit ihren Adobe-Anmeldedaten angemeldet sind.

Trainings-Daten und Logik
„Können wir eine detaillierte Erläuterung zu den Trainings-Daten und der Logik des KI-Systems bekommen?“
Ziel dieser Frage ist es, potenzielle Voreingenommenheit zu ermitteln und die „Denkweise“ des Modells besser zu verstehen – ein wichtiger Aspekt, um seine Zuverlässigkeit und Fairness einzuschätzen.

Adobe Experience Platform AI Assistant: Adobe verwendet keine Kundendaten zum Trainieren oder zur Feinabstimmung von Azure OpenAI Service.

Verständlichkeit des Outputs
„Gibt es Beschreibungen in einfacher Sprache zu den Ausgaben des KI-Systems?“
Ob Ausgaben auch für nicht technisch Versierte verständlich sind, ist ein wichtiger Aspekt für effektive Entscheidungen und den verantwortungsvollen Umgang mit KI.
Adobe Firefly: Adobe generiert automatisch Content Credentials für bestimmte Firefly-generierte Assets, um transparent zu machen, dass das Asset mit generativer KI erstellt wurde.
Menschliche Kontrolle
„Wie (wenn überhaupt) sind menschliche Prüfprozesse in das KI-System integriert?“
Angaben zum Verhältnis zwischen automatischen Prozessen und menschlichem Urteilsvermögen erleichtern die Beurteilung der betrieblichen Dynamik des Systems und die Bestimmung von Bereichen, in denen menschliches Eingreifen nötig ist, um Standards zu Qualität und Verantwortung einzuhalten.

Adobe Acrobat AI Assistant: Adobe beschränkt den Zugriff auf diese Informationen strikt auf eine kleine Anzahl geschulter Adobe-Mitarbeitende, die direkt an der Entwicklung von Adobe Generative AI Service beteiligt sind.

Fairness und Vermeidung von Voreingenommenheit
„Wie wurde das KI-System auf mögliche Voreingenommenheit geprüft, und was kam bei dieser Prüfung heraus?“
Die Antwort zeigt, ob der Anbieter Wert auf Fairness legt und mit welchen Methoden Voreingenommenheit ermittelt und verhindert wird, die sich unverhältnismäßig stark auf bestimmte demografische Gruppen auswirken könnte.
Adobe Acrobat AI Assistant: Adobe-Teams führen Tests durch, um das Potenzial für voreingenommene, verzerrte und schädliche Ergebnisse in unseren Produkten mit generativer KI zu reduzieren. Seht euch das Lösungsblatt „Generative-KI für Unternehmen“ an.
Risikominderung
„Wurde auf potenzielle Diskriminierung getestet, und welche Maßnahmen wurden zur Minderung dieser Risiken ergriffen?“
Hier geht es darum, ob der Anbieter proaktive Schritte ergreift, um potenzielle negative Ergebnisse von vornherein zu unterbinden – anders gesagt, ob das KI-System auf einen sicheren und verantwortungsvollen Betrieb getestet ist.

Adobe Experience Platform AI Assistant: Adobe nutzt intern entwickelte Content-Filter, um (a) zu bestimmen, ob die Eingabe (Prompt) im KI-Assistenten in Experience Platform den Adobe-Richtlinien für generative KI entspricht und (b) generierte Antworten herauszufiltern, die gegen diese Richtlinien verstoßen (zum Beispiel Hassrede und Obszönitäten).

Durch diese gezielten Fragen können Unternehmen KI-Anbieter bewerten und fundierte Entscheidungen treffen, die ihren KI-Verantwortungsstandards und operativen Prioritäten entsprechen. Dieser Ansatz managt Risiken und stellt sicher, dass Beziehungen zu KI-Anbietern auf einem Fundament aus Transparenz, Compliance und verantwortungsvoller Innovation beruhen.

Steuerhebel für KI-Governance.

Die Implementierung robuster KI-Governance stellt sicher, dass KI-Systeme in einer Weise entwickelt, eingesetzt und überwacht werden, die mit organisatorischen Werten und regulatorischen Standards übereinstimmt. Es gibt viele regulatorische Standards, einschließlich des EU AI Act und Frameworks wie AI Verify in Singapur. In den USA sollten Unternehmen die umfassenden Datenschutzgesetze der einzelnen Bundesstaaten und das NIST AI Risiko Management Framework befolgen, da es die wahrscheinliche Grundlage zukünftiger Regulierung ist.

Die folgenden Governance-Hebel unterstützen das Management KI-bezogener Risiken und verbessern Transparenz, Rechenschaftspflicht und Sicherheit:

KI-Inventar

Erstellt ein zentrales Repository eurer KI-Systeme, und kategorisiert sie nach Risikoprofil und strategischer Priorität.

Habt ihr euren KI-Use-Case dokumentiert und relevante Risken kategorisiert?

Feedback-Mechanismen
Definiert robuste Feedback-Kanäle, um Input von Endanwenderinnen und -anwendern, Kundinnen und Kunden oder der Öffentlichkeit zu erfassen.
Welche Feedback-Kanäle habt ihr für Endanwenderinnen und -anwendern, eure Kundschaft oder die Öffentlichkeit eingerichtet?
Dokumentation von Systembeschränkungen
Dokumentiert Einschränkungen eures KI-Systems (einschl. Wissenslücken des KI-Modells) und den Kontext, in dem die Outputs verlässlich verwendet werden können.
Habt ihr bekannte oder erwartete Einschränkungen zu euren KI-Use-Cases dokumentiert?
Herkunft von Inhalten
Verfolgt und verifiziert Ursprung, Verlauf und Änderung KI-bezogener Daten, einschl. Quellen der Trainings-Daten, verwendeter Algorithmen und Transformationen.
Wie verfolgt ihr Ursprung, Verlauf und Änderung KI-bezogener Daten (einschl. Datenquellen und Transformationen) von der Erstellung bis zur endgültigen Verwendung?
KI-Tests und Red Teaming
Bewertet Risiken wie die unbeabsichtigte Offenlegung von Trainings-Daten, potenzielles Reverse Engineering oder Risiken im Zusammenhang mit der Modellextraktion.
Welche Testprotokolle wurden angewendet, und wie adressieren sie einzelne Risiken aus dem KI-Use-Case?
Sichere Software-Entwicklung
KI-Systeme sollten in euren Zyklus zur sicheren Software-Entwicklung integriert werden, damit Best Practices für Codierung und Bereitstellung befolgt werden.
Wie habt ihr vorhandene Protokolle zur sicheren Software-Entwicklung in euren KI-Use-Case integriert?
Training
Die Schulungen sollten relevante Richtlinien, Verfahren und Compliance-Anforderungen abdecken, damit Stakeholder KI-Risiken effektiv verwalten und dabei geltende interne Standards einhalten können.
Habt ihr an Schulungen zu KI-Governance und Risiko-Management teilgenommen?
Die Einbettung dieser Best Practices in bestehende Prozesse gewährleistet, dass KI-Technologien verantwortungsvoll bereitgestellt, verwaltet und optimiert werden. Mit umfassenden Richtlinien für Personal, strenger Bewertung von Anbietern und robusten Steuerhebeln für die KI-Governance schaffen Organisationen eine solide Basis für die Einhaltung von Governance-Standards und gesetzlichen Anforderungen. So sind sie bestens für die heutigen Herausforderungen gerüstet und auch optimal aufgestellt, um ihre KI-Lösungen in der Zukunft verantwortungsvoll zu skalieren.

Verantwortungsvolle Implementierung für verantwortungsvolle Innovation.

Damit Unternehmen das Potenzial von KI maximal nutzen können, benötigen sie verantwortungsvoll entwickelte Technologie, klare Nutzungsrichtlinien, maßgeschneidertes Training und eine robuste Governance. So bringen sie ihr Business voran und sorgen dafür, dass KI-Initiativen regulatorischen Vorgaben und den Standards für eine verantwortungsvolle Implementierung entsprechen und damit eine Kultur des verantwortungsvollen Umgangs mit KI fördern.

Wichtig ist auch eine kontinuierliche Überwachung und Anpassung der KI-Initiativen. Mit Performance-Kennzahlen, regelmäßigen Beurteilungen und einem proaktiven Risiko-Management stellen sich Organisationen flexibel auf neue Vorschriften ein und wahren die Integrität ihrer KI-Projekte.

Das hier vorgestellte Framework ermöglicht es euch, erfolgreich und verantwortungsvoll mit KI durchzustarten und durch den Fokus auf Impact, Integration und Integrität den Weg für nachhaltige Innovation und anhaltenden Erfolg zu ebnen.

Empfehlungen für euch.

Finden wir gemeinsam heraus, was Adobe für euer Unternehmen tun kann.

Erste Schritte